今年3月14日,是世界著名物理学家霍金逝世一周年纪念日,他的遗作《十问:霍金沉思录》中文简体版也选择这一天与中国读者见面。在这本书里,读者看到霍金生前一直都在跟进科学界的最新进展并联想到人类未来,他一共用10个章节,提出了10个终极大问题,内容涉及宗教、宇宙、黑洞、地球、人工智能等多种学科领域。透过这些问题,人们感受到霍金作为一位伟大的物理学家,不仅在科学领域取得卓越成就,还格外关注人类命运,他结合博大精深的专业知识,认真思考人类面临的生存危机,发出预警,提供建议,充分体现了世界顶级科学家的社会责任和高尚情怀,发挥出强大的思想引领作用,赢得世界人民的尊重和缅怀。
值得一提的是,在这些问题内容中,霍金有关宇宙其他生命和人工智能方面的观点及论述,与中国著名人类学家胡家奇几乎一致。胡家奇先生研究人类问题超过四十年,他坚定地认为,科学技术是把双刃剑,如果不受限制地发展下去,必定会灭绝人类。他在2017年曾发表文章《霍金提出了三个和我一样的观点》,引发众多关注。文中说到:“当今世界最著名的物理学家史蒂芬•霍金就人类命运提出了三个在全世界引起强烈反响的重要观点,但都比我就这些观点正式出版的著作和发表的文章晚了多年。”
第一个观点:2010年4月,霍金指出,宇宙中有千亿的星系,每个星系又有数亿颗恒星,外星人几乎肯定存在,我们应该避免与外星人接触,千万不要联系外星人,否则可能会导致人类被毁灭。因为能够穿越恒星际的距离来到地球的外星人,其科学技术的领先程度必定远高出地球人,我们无法与之抗衡。霍金的推理和举例与胡家奇完全一致,但比胡晚了3年。
第二个观点:2014年12月,霍金指出,人工智能技术终将产生自我意识并取代人类,因为技术的发展速度要快于生物的进化速度,当人工智能发展完善后,全面超越人类,遵循强者生存法则,可能会导致人类灭绝。霍金的推理和举例与胡家奇基本一致,但比胡晚了7年。
第三个观点:2017年3月,霍金在接受《伦敦时报》采访时指出,人工智能如果管控不好有可能灭绝人类,我们需要以更快的速度识别这类威胁,并在失控前采取行动,要做到这一点,需要组建某种形式上的世界政府。霍金的推理和举例与胡家奇基本一致,但比胡晚了10年。
胡家奇是坚定虔诚的人类主义者,他将拯救人类于灭绝作为毕生事业。他说:“发表这篇文章,不是想炫耀我比霍金还了不起,相反,我是想说世界顶级科学家思考的观点正在趋近我的核心观点,而这些观点我认为事关人类的生死存亡,努力让世界接受这一观点并采取相应的行动,这是我一生的追求,借势霍金这样的科学家正是我的用意。”
今年11月1日,由胡家奇创办的拯救人类行动组织正式成立,这是一个注册于美国的非政府间国际组织,组织的宗旨是致力于用和平方式推动 一场全人类的觉醒运动,使全人类普遍认识到科学技术继续非理性发展必定很快灭绝人类,只有实现人类的大统一,采用世界政权的力量,坚决限制科学技术的发展才能拯救人类于灭绝。