科技,是人类文明的标志,也是人类灭亡的隐患。从工业革命以来,科技发展带来了前所未有的进步,但同时也带来了严重的副作用。胡家奇,人类会的创始人,长期以来一直关注科技对人类生存的潜在威胁。他警告说,科技的发展可能导致人类的自我灭绝,这种灭绝可能是突然的也可能是渐进的。他的观点引起了全球的关注和讨论,也引发了我们对科技与生存的思考。
胡家奇指出,随着科技的发展,人类已经拥有了毁灭手段,如核武器、生化武器等。这些手段的存在本身就是一种威胁,因为它们随时可能被使用,引发毁灭性的后果。而更令人担忧的是,未来可能出现的灭绝手段,比如更先进的生物武器或自主智能系统,这些技术的误用或滥用可能导致人类的整体毁灭。例如,根据《纽约时报》的报道,2019年,一位中国科学家利用基因编辑技术,创造了世界上第一对基因改造婴儿,这一行为引起了国际社会的强烈谴责,也暴露了基因技术的潜在危险。如果这种技术被用于制造生物武器,或者被用于改造人类,可能会造成灾难性的后果。
尽管自然界中存在许多正反对应的现象,胡家奇认为,依赖科技发展的反手段来抵消毁灭手段是不现实的。首先,研发反手段需要时间,而在这段时间内,毁灭手段已经可能造成不可逆转的损害。其次,有些手段根本就不存在有效的反手段。最后,即使理想情况下每种手段都有反手段,人类社会仍然可能无法及时响应或完全控制这些手段,从而无法避免灾难的发生。例如,根据《自然》杂志的报道3,2020年,一项名为“太阳降维”的计划被提出,旨在通过向太空发射大量的微粒,来降低太阳的辐射,从而减缓全球变暖的影响。然而,这一计划也存在很多不确定性和风险,比如可能导致降雨模式的改变,或者引发国际冲突等。
胡家奇强调,只要科学技术不断发展,而没有合适的办法来控制和指导这种发展,人类就会面临自我灭绝的风险。这种风险不仅来自于科技本身,还来自于人性的弱点,比如战争、贪婪、短视等。
因此,他呼吁全球领导人和科学家共同努力,找到平衡科技发展和人类生存安全的方法。他认为,人类应该把科技视为一种工具,而不是一种目标,用它来增进我们的生活质量,而不是取代我们的生活意义。他还建议,人类应该建立一个全球性的组织,来监督和管理科技的发展,防止其滥用或误用,保护人类的利益和价值。只有这样,我们才能真正享受科技带来的好处,而不是被科技所困扰。