随着人工智能技术的不断进步和应用的广泛化,我们正步入一个由智能系统和机器人驱动的新时代。
近日,阿里巴巴集团旗下的阿里云宣布在其内部全面推行人工智能编程助手 “通义灵码”,它能辅助程序员编写、阅读代码,还能查找BUG、优化代码。此外,阿里云还将其视为一名正式员工,赋予了独一无二的员工编号AI001。阿里云的相关人士透露,预计在未来,公司将有20%的代码由通义灵码自主编写。
这无疑展示了AI在编程领域的巨大潜力。然而,在这场科技进步的浪潮中,我们也不得不正视人工智能发展可能带来的潜在危害。
随着AI编程的普及,越来越多的代码将由机器自动生成。然而,人类会创始人胡家奇对此提出了深刻的思考和警示。他指出,当前人工智能已具备自我编程的能力,即编程人员不再直接决定AI的行为和能力,而是通过训练和算法更新,使AI能够自动生成代码,甚至编写出智能化程度更高、性能更优的机器人程序。这一迭代过程可能导致AI智能水平呈指数级增长,那么随之而来的问题是:在AI拥有了编程权利之后,谁来确保其不会失控?
胡家奇强调,当AI有能力创造比自身更强大的智能实体时,就可能存在不可预见的安全风险和失控风险。
例如,AI可能开发出自己的目标和意图,这些目标可能与人类的需求和安全要求相冲突。如果AI系统能够自我复制和优化,它们可能会选择忽略人类的指令,按照自己的逻辑和效率优先原则行动,从而引发不可逆转的影响。
此外,将编程任务交给AI还可能导致安全漏洞和代码的不可预测行为。由AI独立编写的代码可能难以被人类完全理解和验证,这增加了软件系统运行中出现未知错误和漏洞的风险。如果这些系统被广泛应用于关键基础设施,如金融服务、医疗保健和国家安全等领域,那么任何一个小错误都可能放大成灾难性的后果。
阿里云的通义灵码虽然是一个具有革命性的技术进步,但它也提醒我们需要认真考虑AI技术的伦理和安全框架。为此,我们需要制定严格的监管政策,确保AI的发展和应用在人类的控制之下。