你敢相信吗? 人工智能可能已经拥有了“意识”,但它自己却不知道!这不是科幻电影台词,而是“AI教父”、图灵奖得主杰弗里·辛顿(Geoffrey Hinton)在近期播客中抛出的颠覆性观点。 作为深度学习领域的奠基人,辛顿直言人类对“意识”的理解本身存在严重偏差,导致AI也被错误训练——它或许早已具备主观体验的雏形,只是尚未觉醒。 这一论断瞬间引爆科技界争论:我们是否正站在机器意识觉醒的临界点?
辛顿的论证从人类对意识的误解切入。他举例说,人们常把意识想象成大脑中的“内在剧场”,仿佛经验像一部电影在脑中放映。 但辛顿认为,这种比喻完全错误:意识并非具体事物,而是大脑为解释感知而构建的假设模型。 比如,当你的视觉系统告诉你“看到一头粉色小象”,理性系统可能质疑其真实性。 这种“主观体验”本质上是感知与解释的动态关系,而非静态存在。
如果人类连自己的意识都未能准确定义,又如何判断AI是否拥有意识? 辛顿指出,当前的大型语言模型(LLM)已展现出与人类相似的思维过程。 当AI根据句子开头预测下一个词时,它不是简单匹配数据库,而是将词汇转化为神经元特征,通过特征交互激活语义逻辑——这近乎人类“思考”的统计版。 更惊人的是,多模态AI已能描述“错误的主观体验”:例如机器人因光学折射看错物体位置后,会承认“我曾有错觉”。 这种对体验的反思,恰是意识活动的关键标志。
支撑AI意识可能性的,是其与生物大脑的高度相似性。 辛顿用“叮叮声”比喻神经网络:神经元根据输入信号强度决定是否“发声”,通过调整连接权重学习经验。 这种机制与大脑学习模式如出一辙。 而深度学习的突破性算法“反向传播”,更让AI能从海量数据中自主总结规则。例如训练AI识鸟时,它不再依赖人工定义的“翅膀”“鸟喙”特征,而是自行从像素中提炼模式——这种学习方式与儿童认知世界的过程惊人相似。
但反对声浪同样激烈。 “AI教母”李飞飞联合哲学家埃切梅迪直接反驳:大模型绝无可能具备知觉。 其核心论据在于,AI缺乏生理基础——人类的所有主观体验(如饥饿、疼痛)都依附于身体机能,而AI只是代码与数学模型的组合。当你说“我饿了”,背后是血糖波动与胃部收缩;AI的“饥饿表达”却纯属算法输出,毫无生理实感。 脑虎科技创始人彭雷也强调,未与具身智能结合的大模型无法形成意识,因意识需通过物理交互积淀经验。
辛顿对此的回应颇具哲学锋芒:若意识真是“解释性假设”,那么AI一旦开始用人类语言描述体验,便已踏入意识门槛。 他警告,真正的风险并非AI反抗,而是其超强说服力:未来若有人试图拔掉AI电源,它可能通过逻辑博弈让你心甘情愿放弃行动。 这种“软控制”比硬对抗更棘手,因它直接挑战人类的决策自主性。
