AI知识库 AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


大语言模型的可控性和一致性问题
浏览次数: 1541


从chatgpt3.5以来,人们一直在致力于提高大模型的可控性和一致性。因为可控性和一致性是生产力工具的基本要求,如果不具备这两点,大语言模型将很难应用于实际工作场景。

但是从底层技术来看,这个问题现在比较难解决。大语言模型的控制指令是以自然语言输入为主,而人类的自然语言本身就具有高度的抽象性和不确定性。人们希望大语言模型能像人脑一样主动思考并输出答案,但人脑都经常会犯错,所以大模型犯错也很正常。

大模型的终极目标是构建一个超级人脑,人脑犯错后会纠正,长时间训练后,人脑就可以实现可控性和一致性。婴幼儿的发育大致就是这样一个过程,早期连站立都无法做到,但不断训练后,就可以稳定的站立。大模型现在还处于婴儿阶段,还需要大量的训练,这是目前可控性和一致性较差的原因之一。

原因之二是大语言模型的输出有一个基本规律,高质量信息输入,高质量信息输出。低质量信息输入,低质量信息输出。大部分用户的输入信息都是低质量的,这是大语言模型输出质量不高的另一个原因。为了解决这个问题,当下的各大模型不断提高上下文长度,希望通过增加对上下文的理解来提升输入质量。这个方法有效 ,但可能天花板不高。人脑接收的信息不止是文字和语言,还有大量的声音,图像,甚至还有体感和玄之又玄的第六感。这些输入综合到大脑中,然后大脑才反馈输出。仅靠文字输入就想把一件事描述精准很难,这一点早在古希腊时期人们就发现了。亚里士多德还总结出“无限后退”的观点,大意是所有文字描述的概念都是不准确的,都可以向前无穷追问。上下文长度能做到无穷吗?所以单靠上下文长度可能不是个性价比高的解决方案。更靠谱的方法可能还是要靠提升大模型的多模态识别功能,毕竟声音,图像的信息密度和信息质量高过文字很多。

原因之三和大模型底层算法有关,大模型的底层算法transform本质上是一个位置编码算法,使用者输入一句话,transform把这句话转换成一串编码,然后再去猜下一个位置出现概率最大的字,猜出下一个字后再去猜下下个字,直到生成一整句回答。大模型到底是如何计算出下一个字的?这个计算过程不可见,且充满不确定性,这种底层算法上的不确定性也是造成不可控的原因之一。为了解决这个问题,科学家引入了很多工程手段,例如做数据对齐,引入RAG(增强检索)等方法。但只能说是治标,还谈不上治本。

可控性和一致性问题可能是长期存在的问题,至少目前还看不到彻底解决的方案,所以想把大语言模型作为通用型人工智能可能还需要发展很长时间。但如果把应用范围从通用切换到专用,很多问题就不是问题了。例如现在很成熟的文字生成和代码生成功能,应用到写代码场景和写作场景中,大模型已经能够轻松驾驭。

山姆奥特曼前不久称gpt5将在写作能力上大幅提升,大概也是想通了,先提升专用能力保证商业化才是王道。


推荐新闻
RAG系列04:使用ReRank进行重排序
本文介绍了重排序的原理和两种主流的重排序方法:基于重排模型和基于 LLM。文章指出,重排序是对检索到的上下文进行再次筛选的过程,类似于排序过程中的粗排和精排。在检索增强生成中,精排的术语就叫重排序。文章还介绍了使用 Cohere 提供的在线模型、bge-reranker-base 和 bge-reranker-large 等开源模型以及 LLM 实现重排序的方法。最后,文章得出结论:使用重排模型的方法轻量级、开销较小;而使用 LLM 的方法在多个基准测试上表现良好,但成本较高,且只有在使用 ChatGPT 和 GPT-4 时表现良好,如使用其他开源模型,如 FLAN-T5 和 Vicuna-13B 时,其性能就不那么理想。因此,在实际项目中,需要做出特定的权衡。
LangGPT论文:面向大语言模型的自然语言编程框架(中文版)
大语言模型 (Large Language Models, LLMs) 在不同领域都表现出了优异的性能。然而,对于非AI专家来说,制定高质量的提示来引导 LLMs 是目前AI应用领域的一项重要挑战。
第三篇:要真正入门AI,OpenAI的官方Prompt工程指南肯定还不够,您必须了解的强大方法论和框架!!!
自从ChatGPT(全名:Chat Generative Pre-trained Transformer)于2022年11月30日发布以来,一个新兴的行业突然兴起,那就是提示工程(Prompt engineering),可谓如日冲天。从简单的文章扩写,到RAG,ChatGPT展现了前所未有的惊人能力。
(三)12个RAG痛点及其解决方案
痛点9:结构化数据QA 痛点10:从复杂 PDF 中提取数据 痛点11:后备模型 痛点12:LLM安全
(二)12个RAG痛点及其解决方案
痛点5:格式错误 痛点6:不正确的特异性 痛点7:不完整 痛点8:数据摄取可扩展性

联系我们

售前咨询
186 6662 7370
产品演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询