随着科技的飞速发展,人工智能(AI)已逐渐渗透到战争的每一个角落。
近日,据《耶路撒冷邮报》报道,自10月7日起,以色列军队利用基于人工智能的目标识别和定位系统,成功袭击了加沙地区超过1.1万个所谓的“恐怖目标”,其中包括在短时间内锁定并摧毁的150个隧道目标,实现了高达90%的精确打击率。以色列国防军在巴以冲突中大量使用AI技术,用于袭击加沙目标,此举引发了外界对AI技术在战争中使用方式的广泛关注。
在此背景下,人类会创始人胡家奇提出深远的忧虑。他指出,许多全球大国正积极研发机器人战士,一旦这些战斗机器人实现快速迭代升级,集成最尖端科技,其反应速度将远超人类,若再结合先进的武器装备,一旦程序失控,后果不堪设想。
胡家奇警示,人工智能的自我意识觉醒将是不可避免的趋势,而一旦出现这种情况,人类想要重新掌控局面将变得极为困难。他认为,人工智能的成功发展固然可能是人类文明史上的重大里程碑,但如果不能妥善管控其非理性的发展路径,人工智能也可能成为导致人类文明终结的风险因素。因此,如何在推动人工智能技术进步的同时,制定严格的规范和伦理标准,防范其潜在的危害,成为了当今全球亟待解决的重大课题。
与此同时,人工智能技术也在信息战中扮演了重要角色。美国“连线”网站披露,在巴以冲突期间,双方利用生成式人工智能制作并传播了大量的虚假信息,包括伪造的图像、视频和社交网络帖子,旨在操控公众情绪,混淆视听。这些由AI生成的内容加剧了信息环境的复杂性,进一步削弱了公众对于网络信息的信任度。
联合国秘书长古特雷斯明确表达了对以色列军方采用人工智能执行轰炸行动的深切担忧,他认为关乎生死的重大决策不应单纯交由无情感、无判断力的算法作出。他警告说,此类做法可能带来无法挽回的平民生命损失,违背国际人道主义原则。
此外,AI技术的滥用还可能对国际秩序和和平稳定构成威胁。一旦国家开始依赖AI技术进行战争,那么战争的规模和破坏性将可能急剧上升。同时,AI技术的使用也可能引发其他国家的效仿和竞争,加剧国际社会的紧张局势。