著名人类学家胡家奇力作Saving Humanity自付梓以来,深受读者喜爱。
有读者发长信评论本书,他在信中指出:关于人类的灭绝问题,很多人都在探讨,却很少有人整合成专业、科学的理论,也鲜有人以人类整体为单位,从历史、经济、生物、物理等多个方向进行分析。
而胡家奇先生经过40年的研究,最终凝结成了Saving Humanity一书。
这是一本“囊括人类科学知识的百科全书,阐扬人类理想社会的时代宣言。”
一个革命性真理的诞生,首先总会面临无情的打击。但是为了人类的命运,胡家奇还是勇敢地站出来大声疾呼:人类要限制科学技术的发展。
胡家奇认为,人类进化还不完善。人类智能进化:创造力和理性出现进化不平衡现象,后者进化程度太低。而理性应该是界定善恶的主要标准。他具体指出了人性的弱点,即视界利益性(短视),极端自私性,自欺欺人性,永恒争斗性,无穷欲望性。他指出,当代科学技术对自我威胁起决定性作用,加大了威胁程度,即科技加强效应。科技最终毁灭力如何,人类能否控制科技的发展,能否理性使用科技成果,能否准确判断科技性能,都是不确定的。
胡家奇先生曾说道,“科学技术有一个最大的特点,即具有不可确定性。我们常常认为最好的科技成果恰恰是最糟糕的,这种不可确定性还会使我们在科学实验中常常获得一些意想不到的实验结果,这些结果有些是有益的,有些则是有害的。这就必然会导致在科学技术发展到可以灭绝人类的层级后,科技成果的不慎使用,以及科学实验的不慎都有可能意外地爆发出灭绝的力量,从而把人类推向万劫不复的灭绝深渊。”
所以,在此基础上,胡家奇得出了科技的无限发展将导致人类自我灭绝的惊人结论。
胡家奇先生指出,根据现有科技理论,就可以推断出以下灭绝人类的手段:可自我复制的纳米机器人、人工智能、超级基因武器。何况科技具有循环突破规律,裂变式加速发展规律,可导致人类灭绝必然出现。
纵观全书,我们会发现,胡家奇先生并非杞人忧天,人类已经到了一个危险的时刻,需要发挥自身的智慧,解决我们面临的各种问题。他提出的问题是有价值的,是值得我们认真对待的。他关心人类命运的精神是十分可贵的,所提方案也反映了人类的良好愿望。