人工智能

【中秋节+AI】三款AI产品让我的中秋节不再无趣

前言:欢迎各位光临本博客,这里小编带你直接手撕**,文章并不复杂,愿诸君**耐其心性,忘却杂尘,道有所长!!!! IF’Maxue:个人主页  🔥 个人专栏: 《C语言》 《C++深度学习》 《Li

本地AI知识库神器AnythingLLM:工程人设置与使用全攻略-从零到能用,大模型入门到精通,收藏这篇就足够了!

这一节我们来全面介绍一下anythingllm的功能、设置、以及使用。下期讲各种软件和anythingllm配合联动(给各类软件加这个大脑)或angthingllm设置厉害的agent或MCP,功能更强大。 一、什么是anythingllm以及它的原理是什么? (1)什么是anythingllm?anythingllm其实是一个

kotlin<第八篇>:协程的启动与取消

一、启动构建器 launch与async构建器都用来启动新协程: 1、launch,返回一个Job,并且不附带任何结果值 2、async,返回一个Deferred,Deferred也是一个Job,可以使用.await()在一个延期的值上得到它的最终结果。 等待一个作业: 1、线程切换 launch(Dispatchers.Default) { println("1")

扩散模型

常见的生成模型(Generative Models)如 GAN、VAE 和基于流( Flow-based )的模型。他们在生成高质量样本方面取得了巨大成功,但每个都有其自身的局限性。 GAN 因其对抗性训练性质,其训练过程难以收敛以及生成多样性欠佳。 VAE 依赖于替代损失(surrogate loss)。流模型必须使用专门的架构来构建可逆变换。 扩散模型( Diffusion Models )

从零开始强化学习(四)——策略梯度

四. 策略梯度(Policy Gradient) 4.1 期望奖励(Expected Reward) 在强化学习中有3个组成部分:演员(actor),环境(environment)和奖励函数(reward function) 演员就是一个网络,输入状态,输出动作 环境就是一个函数,输入状态和动作,输出状态。环境是基于规则的规则,是确定不变的 奖励是在某一个状态下采取某个动作能够获得的分数。环境是

《教育心理学》学习2-3

位置法 如果说图像法是一种帮助编码记忆材料的方法,那么“位置法”(method of loci,MOL)就是一种帮助检索材料的“线索”。许多人在记忆时往往会结合图像法和位置法进行记忆。位置法是目前最主要的记忆术之一,相传是古希腊诗人西蒙尼停斯(Simonides of Ceos)首先提出的。如今很多一流的记忆大师(例如世界记忆冠军王峰等)或多或少都会使用这种方法。 想象一条你熟悉的路线,比如从

用人类脑电波教 AI 开车,这位清华 90 后学者直言隐式信号里藏着 AGI 的关键 | 万有引力

作者 | 唐小引 出品 | CSDN&#xff08;ID&#xff1a;CSDNnews&#xff09; 想象一下&#xff1a;什么是“老司机”的直觉&#xff1f;你正在开车经过一个繁忙的路口。右侧停着一辆公交车&#xff0c;挡住了你的视线。突然&#xff0c;你的脚不自觉地放在了刹车上。为什么&#xff1f;你的眼睛并没有看到行人&#xff0c;也没有看到红灯。几秒钟后&#xff0c;一

多重检验矫正p值

因为P值的阈值是人为规定的,无论是多小的P值,也仅仅能代表结果的低假阳性,而非保证结果为真。如果检验一次,犯错的概率是5%;检测10000次,犯错的次数就是500次,即额外多出了500次差异的结论(即使实际没有差异)。即使P值已经很小(比如0.05),也会被检验的总次数无限放大。比如检验10000次,得到假阳性结果的次数就会达到 5%*10000=500次。 这时候我们就需要引入多重检验来进行校正