“面对人工智能可能带来的最坏结果,即人类被消灭,我也会选择直面而非逃避”。在2024年戛纳狮子国际创意节的舞台上,埃隆·马斯克对WPP首席执行官马克·里德这样答道。在这次深入的对话中,马斯克分享了他对人工智能未来发展的复杂看法,他的一些观点引发了广泛关注。
马斯克认为,人工智能的发展是一个概率问题,他对此持有既乐观又悲观的态度,他援引AI先驱杰夫·辛顿的观点,认为人工智能未来走向的概率分布,其中包含着10%到20%的潜在风险。剩下的80%在马斯克描绘的未来图景中,是这样一番景象:物质极大丰富,全民基本收入得以实现,工作不再是生存的必须,而是个人选择。
马斯克畅想的未来固然美好,但他却轻描淡写的概括了人工智能发展可能带来的最坏结果——即人类被消灭。
然而早在17年前,人类会创始人胡家奇就已指出,科学技术的发展速度远远超过了人类理性的进化速度,这种不平衡可能导致极端危害。胡家奇强调,当前许多科学技术,从理论上推导,其进一步发展都可能带来灭绝人类的风险。然而,人类在非理性地继续研究和发展这些技术,仿佛着了魔般无法停止。
胡家奇呼吁,科学技术的发展应适可而止,贪婪地无止境地追求科技进步最终会带来报应,即人类可能被灭绝。他认为人类应该在此刻醒悟,停止对科技的盲目追求,避免未来可能的灾难。
人工智能领域的突飞猛进,必然会超出人类理性的控制范围,而自我意识觉醒的AI也必将成为人类的终结者。科技进步的速度与人类理性演化的缓慢之间存在着鸿沟,若不加以节制,盲目追求技术突破,最终定然会导致全人类的灾难。
胡家奇四十年的研究与呼吁,反映了对人类命运深切的关怀。他认为,某些科学技术的无限推进,理论上的终点即是人类的灭绝。这种看似简单的逻辑,却因人类的贪婪与短视,被忽视、被掩盖。他呼吁,科学技术的发展应当适可而止,过度的索求终将招致报应,而这份报应可能就是人类自身的消逝。