如果人工智能有了自己的主观体验甚至“意识”,我们该如何训练它“善良”?在2025世界人工智能大会(WAIC)科学前沿全体会议上,一场由“AI教父”、图灵奖得主、诺贝尔物理学奖得主杰弗里·辛顿(Geoffrey Hinton)与上海人工智能实验室主任周伯文之间的巅峰对话,吸引了全球AI研究者的目光。
辛顿不仅大胆提出AI或许已具备“意识”,更鼓励年轻科学家走上“所有人都可能错的路”。周伯文则描绘了一幅以通用人工智能(AGI)驱动科学革命的画卷,并呼吁年轻科学家与全球理想主义者共同探索未来。
选一条“众人皆错”的路
面对台下观众疑惑的目光,他揭示了答案:“事实上,水平方向铝棒的数量是垂直方向的114倍。”用这个简单的例子,辛顿巧妙地说明了我们对“意识”和“主观体验”等概念的理解往往存在严重偏差。
辛顿对此表示赞同:当AI以机器人等形式进入世界,它们就有了自己的“体验”,可以从自己的经验中学习:“我认为它们会有经验,但经验不是事物。而且经验不像照片,经验是你和一个物体之间的关系。”
辛顿还特别谈到了AI善意训练的问题。他表示,聪明与善良需要分别训练。“你可以拥有一个既聪明又善良的AI,但如何训练它们的技术却是完全不同的。”辛顿进一步指出,国家之间甚至可以共享训练AI善良的技术,即便它们不愿共享训练聪明的技术。这一观点再次激起了在场听众对未来AI伦理问题的深刻思考。
周伯文回应道:“我同时也担心善意的约束,可能随着智能系统的不断提升而需要改变。”他还打趣道,自己竟然在一位诺贝尔物理学奖得主面前用“牛顿定律”与“爱因斯坦理论”的类比解释AI的发展,引得全场一阵善意的笑声。辛顿则幽默地回应:“他们其实很想给人工智能一个诺贝尔奖,但诺贝尔奖没有AI领域的奖项,所以他们给了一位人工智能科学家物理学奖。”
“如果你真的想做原创研究,就去寻找那些你认为所有人都可能做错的领域。”在对话接近尾声时,辛顿建议年轻科研者应该坚持自己的直觉:“坚持你所相信的观点,直到你自己明白为何它是错的。只有少数情况下你会发现,你坚持的信念竟然是对的,而那些瞬间便是科学史上真正重大的突破时刻。”
AGI已走到科学革命的十字路口
“人类历史上,少有像今天这样特殊的时刻。”周伯文在题为《无尽的前沿:AGI与科学的交叉口》的主旨报告中说。他指出,我们正站在AGI与科学前沿交汇的历史性机遇前,人工智能正从简单的工具向驱动科学突破的强大引擎演变。
周伯文指出,过去人工智能往往在通用性和专业性之间摇摆不定,“每换一个领域,专业能力都需重新培养。”为了突破这一瓶颈,他提出了通专融合的AGI路线图,并以SAGE(Synergistic Architecture for Generalized Expertise)框架具体阐释了AGI的发展路径。SAGE体系通过“基础模型层、融合协同层、探索进化层”的三层架构,让模型能够同时掌握广泛的通用能力与精深的专业知识。
论坛现场发布的多模态大模型Intern-S1,就是上海人工智能实验室最新的研究成果之一。周伯文提到:“Intern-S1不仅超越了最优开源模型,在化学、材料、生命科学等多个学科甚至超越了顶尖闭源模型Grok4。它甚至能够在30秒内准确诊断儿童眼病、帮助设计商用飞机,还能与围棋高手一决高下。”
周伯文还分享了AI在具体科学问题上取得的成功。上海人工智能实验室上线了“书生”科学发现平台(Intern-Discovery)与临港实验室合作,让AI模型仅用两个月便发现了肝癌和结直肠癌治疗新靶点,并经过临床实验验证。在与同济大学合作的化学研究中,AI有效降低了催化剂的使用量,使实验产能显著提高了96%。
他进一步指出,AI的快速进步对安全问题提出了更高要求。上海AI实验室提出了“AI45度平衡律”,通过安全与性能的内生平衡,使AI的安全不再是事后的“补丁”,而是内置的“基因”。
在周伯文看来,今天的科学正处于创新速度下降的困境,但同时AI的发展却迅猛异常。“我们或许正处于一个历史转折点,”他表示,“当AGI的潜力与科学需求交织在一起时,人类探索未知的步伐将再次加速。”
企业及专家观点不代表官方立场
作者:蓝悦
视频制作:嘉源
↓分享
↓点赞
↓在看