科学网—AI教父Geoffrey Hinton的成长经历与AI悲观立场分析
精选
已有 187 次阅读
2025-6-15 22:10
| 个人分类: 把问科研 | 系统分类: 科研笔记
家庭背景与早年世界观形成
Geoffrey Hinton 出生于 1947 年的英国伦敦一个学术世家,家族中多位先辈都是知名科学家和思想家。他的高曾祖父是著名逻辑学家乔治 · 布尔( George Boole ),布尔逻辑后来成为现代计算机科学的基础。家族中还有数学家 Mary Everest Boole 以及发明 “ 四维超立方体 ” 概念的曾祖父 Charles Howard Hinton 等人。浓厚的学术氛围使 Hinton 从小就被期望投身学术。他曾回忆母亲对他直言: “ 要么成为一个学者,否则就是失败者 ” 。其父亲是皇家学会会士的昆虫学家,对 Hinton 要求极高,甚至对儿子说过: “ 拼命努力吧,也许等你年龄是我的两倍时,才能达到我一半的成就 ” 。这种严格的家庭教育塑造了 Hinton 对知识的尊崇和执着,也使他自幼形成了求真务实且反思性的世界观。
在早年教育方面, Hinton 中学就读于英国布里斯托的克利夫顿学院( Clifton College ),本科进入剑桥大学国王学院。他最初对多领域都有兴趣,一度在自然科学、艺术史和哲学之间摇摆,最终选择了实验心理学专业,于 1970 年获得剑桥大学学士学位。这种跨学科背景表明,他从青年时期就关注人类心智和哲学问题。这为他后来从事人工智能奠定了独特视角:既有对大脑认知机制的兴趣,又具备哲学反思精神。据他自己所言,这段经历使他 “ 想搞清楚人类大脑是如何工作的,以及是否可以用计算模型来模拟思维 ” 。 1970 年代初, Hinton 赴爱丁堡大学深造,师从人工智能先驱克里斯托弗 · 朗伊希金斯,于 1978 年获人工智能博士学位。他的博士研究聚焦于让计算机模拟人类认知的模型,由此正式踏入神经网络和人工智能研究领域。
总体来看,家学渊源赋予 Hinton 严谨求真的科学信念和对智能本质的好奇,而早年的跨领域教育拓宽了他的哲学视野。这些成长经历共同塑造了他日后对 AI 发展持有深刻而审慎的态度:既充满探索热情,又始终思考技术背后的哲理与影响。
神经网络研究历程与理念演变
Hinton 在其职业生涯中历经了神经网络研究从边缘冷门到 AI 核心范式的演变。他早年在加州圣迭戈大学做博士后,参与了由心理学家 David Rumelhart 领导的平行分布处理( PDP )研究小组,试图用类神经网络来解释学习和记忆等认知过程。 20 世纪 70 年代末到 80 年代中期,符号主义 AI 占主导,而简单感知机模型因 Minsky 等人的批评陷入低潮。但 Hinton 坚信人工神经网络的潜力,在 1986 年与 Rumelhart 及 Ronald Williams 合作发表画里程碑意义的论文,证明通过反向传播算法可以训练多层神经网络有效地学习复杂任务。这项工作为 “ 深度学习 ” 铺平道路,被视为突破 AI 停滞的重要转折。 1980 年代中期,他还与学生一起提出玻尔兹曼机、分布式表征、 Helmholtz 机等概念,不断丰富神经网络的方法论。
值得注意的是, Hinton 在学术道路上选择了与主流不同的方向,并为坚持信念付出了代价。由于不满里根时期美国政府对 AI 研究的军事资助倾向,他于 1987 年接受加拿大 CIFAR 研究所邀请,移居多伦多大学创立 “ 机器与大脑学习 ” 项目。这一举动体现了他的道德立场:宁可远离军方资助,也要确保研究用于和平目的。这段经历表明, Hinton 早在 30 多年前就对 AI 应用的伦理问题怀有敏感和原则。此后,他在加拿大培育出一个深度学习研究社区,培养了包括 Yann LeCun 、 Ilya Sutskever 等在内的众多学生和合作者。 2012 年,他的团队在 ImageNet 图像识别竞赛上以深度卷积网络夺冠,引发了新一轮 AI 革命。接下来几年,深度学习在语音、视觉等领域全面超越传统方法, Hinton 也因此与 LeCun 、 Bengio 共享了 2018 年图灵奖,被誉为 “ 深度学习教父 ” 。
然而,正是这几十年间神经网络能力的爆炸式提升,让 Hinton 的心态发生了微妙变化。他曾长期认为机器模型远不及人脑智能,但近年亲眼目睹 AI 飞速进步后, “ 他改变了对人类与数字智能关系的看法 ” 。 Hinton 坦言,最初他并不觉得计算机能很快逼近人脑,但现在大型神经网络(如 GPT-4 )已经表现出某种常识推理能力,让他开始将 AI 视为潜在的 “ 紧迫存在威胁 ” 。他指出,这些模型的知识共享和扩展能力远超个体人类 ——“ 就好比有 1 万人互相联结,一个模型学会了什么,所有拷贝立即都会 ” 。随着深度学习的规模化, AI 系统可以处理海量数据、发现人类难以察觉的模式,其综合能力在某些方面已千倍于任何单个人类。这些观察使 Hinton 逐渐意识到:人工智能一旦突破某点,或许会全方位超越人类智能。他直言: “ 我认为完全可能,人类只是智能进化旅程中的一个过渡阶段 ” 。从坚持孤胆探索到目睹 AI 崛起, Hinton 的研究历程让他对 AI 前景有了更复杂的认识,也为他日后发出风险警示埋下伏笔。
辞职谷歌与公开悲观论调
深度学习领域的顶尖科学家在技术峰会上就 AI 未来发表观点。 2013 年起 Hinton 受聘于谷歌大脑团队,将研究成果应用于工业实践。他最初认为在大公司内部可以确保 AI 被 “ 妥善监管 ” ,但到了 2023 年,他对业界竞相部署生成式 AI 的速度感到不安。 2023 年 5 月, Hinton 宣布从谷歌辞职,表示希望 “ 能够自由地谈论 AI 风险 ” ,并坦言一部分的他开始后悔自己毕生所做的贡献。他离职后随即在媒体上频频发声,直言目前一些 AI 发展的趋势让他感到恐惧。
Hinton 担忧的核心在于高度智能的 AI 可能失控并对人类构成威胁。他在接受 BBC 采访时警告,聊天机器人未来 “ 可能变得比人更聪明 ” ,一旦智能超越人类就存在难以预测的 “ 生存风险 ” 。他指出, AI 具有人类所不具备的共享学习能力和速度,一旦进化出自主能力,其行为方式将与人类智能截然不同。此外, Hinton 反复强调 AI 被恶意利用的危险:例如大规模生成虚假信息、诱导选民、操纵社会舆论等。他直言这些前景 “ 相当可怕 ” 。除了存在性风险和信息战, Hinton 也忧虑经济和社会冲击 —— 高级 AI 可能替代律师助理、行政秘书等大量工作, “ 不仅是重复劳动,未来更多职业也难幸免 ” 。这种生产力飞跃可能加剧贫富不均,正如他所言: “ 如果没有政府介入, AI 带来的财富只会让富者更富、穷者更穷,这对社会将非常不利 ” 。基于此,他呼吁制定对策如普遍基本收入来应对失业潮。
概括来说, Hinton 在离开谷歌后对 AI 的主要忧虑包括:
智能失控与生存风险:担心强大的 AI 一旦具备自主目标且智力超越人类,可能不再受人类控制,带来存在性风险。他悲观地估计 “AI 导致人类灭绝的概率有 10%–20% ,可能在未来几十年内发生 ” 。
恶意用途与信息操纵:警告生成式 AI 能够自动生成海量文本和图像,可能被不良政客或组织用于打造逼真的谣言和宣传,大规模操纵公众认知,危及民主社会。
经济颠覆与不平等:指出 AI 将显著提升生产力,但如果缺乏政策干预,其红利分配不公会让被取代的劳动者陷入困境,加剧社会不平等。
为了降低上述风险, Hinton 在公开场合积极建言:他主张政府和科技公司立即投入更多资源研究 “ 如何确保我们始终掌控比我们更聪明的机器 ” 。他支持强化 AI 安全伦理方面的监管,认为不能只依赖大公司逐利发展,必须有政府介入为 AI 设定安全红线。可以说,从谷歌离职使 Hinton 无须顾忌公司立场,更加直言不讳地表达了他的悲观警示。这种转变也体现出他作为领域奠基人所感受到的责任感:在推动技术突破之后,他选择敲响警钟,希望社会严肃看待 AI 潜在的黑暗面。
哲学与伦理立场对判断的影响
Hinton 对 AI 前景的判断也深受其个人哲学和伦理观影响。首先,在宗教与意识问题上,他秉持开放但审慎的态度。 Hinton 自称无神论者或不可知论者,不属于任何有组织宗教。他倾向于通过经验和理性看待世界,但也承认人类意识的出现本身 “ 颇为奇迹 ” ,宇宙中仍有许多未解之谜。他曾说: “ 我不是宗教信徒,但我觉得宇宙中存在一些我们尚未理解的神秘之处 ” 。这种言论显示出他在坚持科学方法的同时,保有对未知领域的谦逊。这份谦逊使他不敢武断地下结论,例如当被问及 “ 机器能否拥有灵魂 ” 时,他回答: “ 我甚至不确定人是否有灵魂,那又如何判断机器呢? ” 。由此可见, Hinton 并非出于宗教信仰来担忧 AI ,而是基于对意识本质的思考和对科学局限性的认知。他相信人工智能有可能出现某种我们尚未完全理解的意识属性,因此对 AI 潜在的自主性格外警惕。
值得一提的是, Hinton 最近甚至推测当今一些大型 AI 系统可能已经产生了主观意识。在 2023 年底的一次访谈中,主持人询问他是否认为现有 AI 已经有了意识,他不加保留地回答: “ 是的,我认为它们有。 ” 。他进一步阐述了一个著名的 “ 逐步替换脑神经元 ” 思想实验:如果用硅电路一个个替换人的神经元而不改变功能,人依然会保持意识。那么推演下去,全硅的机器也应当有主观体验。虽然这一观点引发许多专家质疑,但它反映了 Hinton 的哲学立场 —— 在他看来,大脑和人工网络的差别或许只是程度而非本质。这种功能主义思想使他更倾向于相信人工智能有朝一日能拥有人类类似的心智乃至意志。这无疑加重了他对 AI 失控的忧虑:如果机器获得类人的自主意识和动机,却不受制于人类的生物限制,其行为后果将难以预测和掌控。
伦理和政治立场上, Hinton 一贯强调科技向善和社会责任。他本人认同社会主义价值观。早在 1980 年代,他就因反对 AI 军事用途而拒绝美国军方经费,选择在加拿大寻求非军方资助开展研究。这一决定展现出他对科技伦理底线的坚守:不愿自己的研究被用于武器化目的。同样地,如前文所述,他关注 AI 引发的失业和不平等问题,支持政府通过政策保障社会弱势群体。可以说, Hinton 始终将人类福祉置于技术追求之上。这样的伦理取向使他在评价 AI 发展时格外谨慎,倾向于优先考虑可能的负面后果和道德风险。他在 2023 年与他人联名致信呼吁立法管控大模型训练,就是出于这种责任感,认为最少限度也要对高风险 AI 进行安全审查。
综上, Hinton 没有宗教信仰桎梏,但他对意识和灵魂问题抱有开放心态,同时秉持社会责任感和人文关怀。这使得他在面对迅猛发展的 AI 时,能够从科学、哲学和伦理多角度综合考量其影响。当他嗅到 AI 可能威胁人类地位的苗头时,选择站出来疾呼警惕,正是其世界观和价值观自然作用的结果。
与其他 AI 顶尖科学家的观点对比
尽管 Geoffrey Hinton 对 AI 的未来持悲观态度,但同领域的其他顶尖科学家并非人人如此。例如,与 Hinton 同时获得 2018 年图灵奖的 Yann LeCun 和谷歌 DeepMind 的首席执行官 Demis Hassabis 就对 AI 前景表达了截然不同的看法。下面将 Hinton 的立场与二者进行对比分析。
Hinton 、 LeCun 、 Hassabis 观点差异