微信扫码
添加专属顾问
我要投稿
他认为,LLM在许多情况下所做的事情只是类似于推理,但并不完全是正确、可靠的推理算法,这比根本没有推理算法更糟糕,因为它会让你错误地认为它有效,并且你可能无法判断它何时无效,而再多的渐进式创新(技巧)也无法解决这个问题。如果没有范式转变,将真正的推理纳入语言模型,这些错误不可避免。
(Alejandro是古巴哈瓦那大学计算机科学教授,也是专注于数据科学和机器学习应用的公司SYALIA, S.R.L的CTO。本文由OneFlow编译发布,转载请联系授权。原文:https://blog.apiad.net/p/no-llms-still-cannot-reason-part/comments)
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-26
Anthropic官方复盘Claude Code:智能体系统设计的四个核心
2026-03-26
Claude Code auto mode 解析:如何用 AI 分类器替代人工审批
2026-03-26
Google 最新极限压缩算法,砸碎大模型本地部署的内存墙,8 倍提升!
2026-03-26
Google 发了个压缩算法,内存砍 6 倍,速度快 8 倍,精度零损失
2026-03-26
Claude团队深夜祭出“自动模式”!网友看呆了:CC里程碑式进化!无人值班确实上头,但一周的token很快燃尽
2026-03-25
如何设计 Harness 工程,实现长时间自动开发应用
2026-03-25
拒绝“感觉有效”:用数据证明 AI Coding 的真实团队价值【天猫AI Coding实践系列】
2026-03-25
Anthropic说:不要在等下一代模型了,立刻马上做Harness!
2026-01-24
2026-01-10
2026-01-01
2026-01-26
2026-01-09
2026-01-09
2026-01-23
2025-12-30
2026-01-14
2026-01-21
2026-03-22
2026-03-22
2026-03-21
2026-03-20
2026-03-19
2026-03-19
2026-03-19
2026-03-18