我们现在毫无疑问是在 AI 发展的快车道上。正如我之前写过的,AI 安全正成为越来越多人的重大关切。但我觉得,AI 伦理同样值得我们投入更多的注意力。摆在眼前的现实是:前沿 AI 系统的发展速度,已经远远甩开了人类社会的适应速度。于是一个根本性的问题就来了:到底是应该让人类社会去适应 AI 的发展,还是让 AI 的发展去适应人类社会?
我觉得应该是我们去适应。
当下最大的担忧之一是失业。我的判断是,高级模型的大规模部署会导致很多人丢掉工作——尤其是那些做重复性文字工作的人,比如转录员、校对员。这对社会的冲击会很大。但我们可以通过创造新的就业机会来尽量放缓失业率攀升的速度。我觉得在不远的将来,我们会需要大量擅长引导 AI 去做它还不太擅长的事情的人,或者把 AI 带入化学、生物学等特定领域的人。
这就引出了我的下一个观点。我相信当最前沿的模型与各个学科碰撞融合时,会迸发出非常惊人的成果。AI + 科学 ≥ 科学。 我相信到 2025-26 年,我们有可能拥有在知识深度和创造力上比肩顶尖科学家(包括诺贝尔奖得主、实验室负责人那个级别)的 AI 模型。想象一下,如果我们有一百万份这样的 AI 副本,它们可以像一个研究团队一样相互协作。而且不同于人类科学家一定会疲惫,AI 不会——开着服务器让它们在后台做研究就行。这样的研究团队效率会远超人类团队,也能把人类科学家从大量繁重(甚至可能不太必要)的工作中解放出来。更重要的是,这可能会大幅加速科学发现的节奏。我们完全可以借助 AI 去攻克世界上最棘手的难题——气候变化、癌症,等等。这不仅是让人类社会适应 AI 发展的一条好路径,也会极大地加速人类社会自身的进步。
除此之外,我觉得我们还需要面对 AI 可能带来的存在性危机。随着模型在创造力、推理和情感智能方面变得越来越强,有些人可能会开始追问:作为一个物种,我们到底有什么是真正独特的、不可替代的?AI 还引发了关于意识本质、智能本质、以及"什么才算有意识的存在"这些深层问题。再进一步,如果 AI 有能力解决我们面临的大部分问题,而我们传统意义上的角色被大幅削弱,那有些人可能会开始质疑人类存在的意义和目的本身。
这些都是复杂而微妙的问题,没有简单的答案。只有时间能告诉我们。
