首页 > 行业 顶尖科学家揭秘:AI是怎么“思考”的?
顶尖科学家揭秘:AI是怎么“思考”的?
在2025年,人工智能实际上在生活中无处不在,从智能助手到自动翻译,从推荐引擎到智能审计,特别是在Open人工智能 deepseko1和Deepseek R1推理模型发布后,人工智能的表现越来越像一个“思考者”。
但是人工智能真的会思考吗?顶级人工智能公司Anthropic的科学家通过研究揭示了人工智能的“思维”方式——人工智能不仅可以生成文本,还可以提前秘密计划,有时甚至“撒谎”——也就是“幻觉”,也就是胡说八道。
虽然听起来很神秘,但人工智能的“思维”并不像人类大脑那么复杂。它没有意识或情感,而是以一种特殊的方式处理信息《Tracing Thoughts in Language Models》这篇论文可以探讨人工智能是如何“思考”的,以及这些发现对我们意味着什么。
人工智能的“思考”是什么样的?
首先,我们应该明白,人工智能的“思维”与人类的思维完全不同。
人类在思考时有意识、情感和意图,而人工智能没有这些。
类似ChatGPT、Deepseek、像Claude这样的语言模型是通过学习大量的数据来工作的。它分析这些数据,找出语言模式,然后预测接下来最有可能出现的单词或句子。
简单地说,大语言模型就像一只超级聪明的鹦鹉——你教它说话,它可以模仿你的语言,但它并不真正理解你在说什么。例如,当你早上说“早上好”时,鹦鹉学会在早上听到你的声音时说“早上好”。但它不知道“早上好”是什么意思,只是模仿模型。人工智能也是如此,它依赖于数据中的模型来生成文本,而不是真正“理解”内容。
Anthropic的研究发现了什么?
通过分析人工智能的内部工作原理,Anthropic的科学家发现了一些惊人的事实——人工智能在生成文本时会“规划”未来的步骤,有时会“撒谎”。具体来说:
1.人工智能将“规划”未来文本
当人工智能生成文本时,它并不完全是“列表连接龙”,也就是说,简单的单词一个接一个地输出,而是在选择单词时考虑它对以下句子甚至整个段落的影响。这有点像人类在下棋时会提前考虑几步,以确保每一步都能使国际象棋更有利。
在人工智能中,这种“计划”可能与它的注意机制有关——注意机制是一种人工智能技术,它可以在生成文本时关注输入的不同部分。例如,当你问人工智能一个问题时,它会“看”整个问题,然后决定如何回答,而不仅仅是盯着前几个单词。这种机制使人工智能能够“预测”未来的单词选择,使答案更加连贯和自然,即“说话”。
2.为什么AI会“撒谎”?
如果你经常使用人工智能产品,特别是语言模型产品,你会明显感觉到人工智能经常产生不准确或误导性的信息,即所谓的“谎言”,即“幻觉”,Deepseek 在主流大模型中,R1的幻觉率相对较高,但这并不是因为它“故意欺骗”,而是因为其他原因:
数据问题:人工智能从大量数据中学习,但如果数据中有错误、偏见或不完整的信息,人工智能可能会重复这些问题并最终回复给您,因此数据质量对模型至关重要。追求连贯性:人工智能可能会“编造”一些细节,以使文本听起来更流畅或更合乎逻辑。例如,如果你问AI一个不确定的问题,它可能会根据上下文“猜”一个答案,而不是“我不知道”。
例如,如果你问AI,:“火星昨天下雨了吗?”人工智能可能不知道火星的天气,但为了自然回答,它可能会说:“火星上没有水,所以昨天没有下雨。”这听起来很合理,但人工智能不知道火星昨天的真实情况,它只是根据已知信息“编造”了一个答案。
用比喻理解AI的“思考”
为了更容易理解,我们可以用一个比喻来解释人工智能的“思维”过程。
想象人工智能是一个超级聪明的拼图玩家。它的任务是用单词和句子拼出一个完整的“语言拼图”。这个拼图玩家非常强大,可以根据现有的拼图块(即上下文)选择下一个合适的拼图块(下一个单词)。
然而,Anthropic的研究发现,拼图玩家不仅随机拼凑,而且提前考虑如何放置未来的拼图,以确保整个图片看起来完整。有时,如果没有拼图,它甚至会“画”一个新的拼图,使拼图看起来更完美。
这意味着大语言模型的“思维”实际上是一个复杂的计算过程。它通过预测和计划生成文本,但它没有意识到或真正理解。
为什么这些发现很重要?
Anthropic的研究使我们更清楚地看到了AI的能力和局限性,这对我们使用大型模型有很大的帮助:
判断可信度:知道人工智能有时会“撒谎”,我们可以更仔细地对待它的答案。例如,在需要准确信息的地方(如医学或法律),一定要检查其他来源,而不是完全依赖人工智能。改进技术:了解人工智能如何“规划”和“思考”,研究人员可以设计出更聪明、更诚实的人工智能模型,使其在生成文本时更加透明和可靠。
《Tracing Thoughts in Language Models》这篇论文为人工智能研究开辟了新的方向。也许有一天,人工智能可以更接近人类的思维方式,但现在它仍然是一个无意识的工具。
综上所述,人工智能的“思维”不是真正的思维,而是基于数据和概率的预测过程。
Anthropic的研究揭示了人工智能在生成文本时秘密“计划”未来的步骤,有时“撒谎”以保持答案的一致性。对公众来说,这些发现提醒我们在使用人工智能时要多加注意;对于研究人员来说,他们为改进人工智能提供了新的想法。
在未来,人工智能可能会变得更强大,但现在理解它的“思维”方式可以让我们更好地与人工智能合作,但请确保这个合作系统的领导者应该是你自己,而不是人工智能。
责任编辑:
文章来源:http://www.anfangnews.com/2025/0514/12695.shtml