当前位置: 首页 > news >正文

樟木头仿做网站广州市开发区建设局官方网站

樟木头仿做网站,广州市开发区建设局官方网站,如何搭建网络教学平台,建瓯网站制作现如今#xff0c;检索增强生成(Retrieval-augmented generation#xff0c;RAG)管道已经能够使得大语言模型(Large Language Models#xff0c;LLM)在其响应环节中#xff0c;充分利用外部的信息源了。不过#xff0c;由于RAG应用会针对发送给LLM的每个请求#xff0c;都…现如今检索增强生成(Retrieval-augmented generationRAG)管道已经能够使得大语言模型(Large Language ModelsLLM)在其响应环节中充分利用外部的信息源了。不过由于RAG应用会针对发送给LLM的每个请求都去检索外部信息而LLM实际上已经包含了大量无需检索即可使用的知识因此整个过程反而显得效率低下。 那么我们是否可以通过配置LLM使其只在内部知识不足的情况下才去使用RAG呢?目前博尔扎诺大学(University of Bozen-Bolzano)和布鲁诺-凯斯勒基金会(Fondazione Bruno Kessler)的研发人员开发的一项“自适应LLM(Adapt-LLMhttps://arxiv.org/abs/2404.19705)”技术可以训练LLM动态地确定它们是否需要在问题解答任务中检索额外的上下文信息并避免不必要的外部检索来提高LLM应用的效率。 记忆与检索 通常LLM回答问题的方法主要有两种。这两种方法好比闭卷答题与开卷答题 第一种是依靠在训练过程中获得的参数记忆。而这些参数记忆的局限性在于它需要完全基本语料的训练。你可以通过微调或少量提示技术来提高参数记忆的性能从而将模型的注意力集中在相关参数上。不过在模型必须动态使用新的信息(例如近期的新闻或是未包含在训练语料库中的私人信息)的情况下这种方法并不实用。 第二种是使用信息检索器为模型提供上下文信息。而检索增强生成就属于这种方法。不过信息检索的问题在于有时模型并不需要额外的上下文信息其内部知识足以回答问题。 而作为人类的我们使用的却是混合方法。例如当我们对某个问题的答案了如指掌时我们便可立即作答。但当我们对自己的知识没有信心时就会去查找外部来源。目前一些LLM技术通过“常见度评分”机制来使用此类混合方法。其假设前提是当问题十分常见时模型就会利用内部记忆知识进行回答;而对于不太常见的问题模型则需要RAG系统的帮助来获取必要的信息。不过这种方法往往要求问题附有常见程度的评分而这并非总能够获取到的。 Adapt-LLM Adapt-LLM框架 顾名思义Adapt-LLM为了实现“自适应检索”而训练语言模型使其能够自主地决定何时该使用信息检索系统来获取更多的上下文信息。其研发人员指出“在这种方法中如果任务的解决方案已被编码在模型的参数中它将直接使用由模型生成的解决方案。反之如果答案没有被编码在模型的知识域里那么就需要借助外部知识来生成答案。” 就工作流程而言Adapt-LLM可分为四个步骤 首个包含了问题的提示被发送给Adapt-LLM模型处。该模型会对提示进行评估以确定是否需要额外的语境来有效地回答问题。如果模型认为不需要额外的上下文它就会直接根据参数存储做出响应。如果Adapt-LLM模型需要额外的上下文它会返回一个类似的特殊token。然后应用程序可以使用信息检索器根据问题获取上下文并将其与原始提示结合起来。 可见这种灵活的方法使得模型能够在利用外部环境和提供直接答案之间取得平衡。 训练Adapt-LLM 为了训练 Adapt-LLM模型我们首先需要一个包含了问题、上下文和答案的元组(tuples)数据集。然后针对每个元组为模型提供并不包含上下文的问题并指示它在对自己的知识“有信心”时直接回答而在需要额外上下文时返回 。 如果模型返回了正确的答案则表明它已掌握了参数知识并创建了一个包含问题和答案(但不包含上下文)的新的训练实例。如果模型返回错误的答案则需要创建两个训练实例一个是包含了问题和 答案的“参数提示”另一个是包含了问题、上下文、说明和答案的“上下文提示”。 然后在包含了这两种类型示例的数据集上研发人员对基础模型进行训练从而形成Adapt-LLM的行为。 Adapt-LLM的测试结果 研发人员在PopQA(https://huggingface.co/datasets/akariasai/PopQA)上对Adapt-LLM进行了多次测试。此处的PopQA是一个从各种在线平台上收集问题的数据集。他们使用 Llama-2 7B 作为基础的LLM并在由 NQ 和 SQuAD 问答数据集所创建的Adapt-LLM数据集上对其进行了训练。测试完毕后他们将Adapt-LLM模型与完全不检索模型、以及始终检索模型进行了比较。 研究结果表明Adapt-LLM的表现比只依赖参数记忆的永不检索模型要好得多。同时与始终检索模型相比它也能够减少检索的使用量同时当其参数记忆优于RAG系统返回的信息时还能够提高整体性能。 据此研发人员认为“当Adapt-LLM决定去检索额外的信息时其有上下文的结果明显优于没有上下文的结果。同样当Adapt-LLM依靠其参数记忆直接回答问题时也能提供较高的准确率。”研发人员补充道“这些测试结果足以表明该模型能够有效地分辨出何时检索信息以及何时可以在没有进一步语境的情况下回答问题。” 利与弊 遗憾的是研发人员并没有公布 Adapt-LLM的代码和模型因此我们很难去验证他们的实验结果。然而由于这是一项非常实用的技术他们应该公布关于token的使用、及其推理时间等研究结果。幸运的是该算法实现起来比较容易任何人都可以创建自己的 Adapt-LLM版本进而去验证它在各个领域数据集上的表现。
http://www.lakalapos1.cn/news/20398/

相关文章:

  • 如何做点击赚钱的网站长沙百度网站推广厂家
  • 网站迁移后 域名杭州建站
  • 网站建设购物商城一级消防工程师考试通过率多少
  • 佛山建设网站大连建设公司网站
  • 网站设计代码案例广东seo点击排名软件哪里好
  • 免费建网站苏州cms模板建站宝
  • 企业网站每年续费吗本溪seo优化
  • 网站构建建设wordpress无法预览
  • 智慧团建网站登陆百度集团
  • 响应式网站什么意思中国免费网站服务器免费下载
  • a5站长网网站交易园林绿化网站建设
  • 大连 网站制作合肥情况通报
  • wordpress建图片站微信朋友圈广告怎么推广
  • 手游托在什么网站申请wordpress 编辑首页
  • 网站建设有哪几种形式wordpress更换域名所有页面404
  • 唐山市住房城乡建设部网站主页设计网页公司哪里好
  • 网站ps照片怎么做的门户网站域名是什么意思
  • 巴中网站建设网站推广洛阳建设三轮网站
  • 有没有专做水果网站织梦修改网站主页
  • 网站上做烟花效果wordpress 自动提交
  • 济南传承网站建设公司礼品公司网站模板
  • 网站建设入门书WordPress怎么建小站
  • 自己建网站写小说秦皇岛网站制作方案
  • 3000元建设个人网站珠海建站论坛
  • 人防pc网站开发计划书采购系统erp软件
  • 商城网站开发方案廉江网站制作
  • 重庆购务网站建设百度相册登录入口
  • 网站商城建设合同免费建设互动的网站
  • 韩国儿童才艺网站建设模板wordpress标签页面模板
  • 企业网站域名注册查询优化设计五年级上册语文答案