Chatgpt Maker悄悄修改了美国军方整合其技术的规则

OpenAI,ChatGPT的开发商,已悄然改变其规则,取消了禁止将聊天机器人及其其他人工智能工具用于军事目的的禁令,并透露它已经与国防部合作。专家此前曾表示担忧,认为人工智能可能由于“屠杀机器人”(无需任何人类干预即可杀戮)而加剧全球冲突。上周三之后的规则变更,删除了一句话,该句话表明该公司不允许将模型用于“高风险的物理伤害活动,包括:武器开发、军事和战争。”

OpenAI的一位发言人告诉DailyMail.com,该公司正与国防部合作,开发旨在保护开源软件的网络安全工具,公司目前正在进行估值为1000亿美元的融资谈判。发言人表示:“我们的政策不允许我们的工具被用来伤害人类、开发武器、进行通信监控,或伤害他人或破坏财产。然而,存在与我们使命一致的国家安全用例。例如,我们已经与国防高级研究计划局(DARPA)合作,促进新的网络安全工具的创建,以保护关键基础设施和行业所依赖的开源软件。”

去年,包括美国和中国在内的60个国家签署了一份限制将人工智能(AI)用于军事目的的“行动呼吁”。海牙的人权专家指出,“行动呼吁”没有法律约束力,也没有解决包括致命的AI无人机或人工智能可能加剧现有冲突的担忧。签署国表示,他们致力于根据“国际法律义务”,以一种不破坏国际安全、稳定和问责性的方式开发和使用军用AI。

乌克兰在与俄罗斯的战斗中使用了面部识别和AI辅助的目标系统。2020年,利比亚政府军发射了一架土耳其制造的自主型Kargu-2无人机,攻击撤退的叛军士兵,根据联合国报告,这是历史上此类攻击的首次。这枚致命的无人机被编程为“无需操作者与弹药之间的数据连接:实际上,是一个真正的‘发射、忘记并寻找’能力”,联合国报告如是说。

OpenAI全球事务副总裁Anna Makanju本周在一次采访中表示,删除了“全面”规定,以允许公司同意的军事用例。Makanju告诉Bloomberg:“因为我们之前基本上有一个全面禁止军事的规定,许多人认为这将禁止许多这些用例,而人们认为这些用例非常符合我们想在世界上看到的东西。”

“大型科技”公司将AI用于军事目的以前曾引发争议。2018年,成千上万的谷歌员工抗议了一份与五角大楼的合同——“Maven项目”,该项目利用公司的AI工具分析无人机监视录像。在抗议之后,谷歌没有续签合同。微软员工抗议了一份价值4.8亿美元的合同,为士兵提供增强现实头戴设备。2017年,包括埃隆·马斯克在内的技术领袖向联合国写信,呼吁禁止自主武器,其法律与禁止化学武器和用于致盲的激光武器的法律类似。该团体警告称,自主武器可能会引发“战争的第三次革命”:前两次分别是火药和核武器。

前MI6特工兼作家Carlton King表示,不久的将来,人工智能将控制无人攻击飞机。利用机器学习来驾驶攻击飞机的优势,对军事领导人来说将非常诱人。King说:“你一旦开始给一个独立的机器人机器学习,你就开始失去对它的控制。人们将会有这样的诱惑:‘让机器人全权负责。’”King表示,目前,无人机由美国和英国的飞行员操作,但军事领导人可能会受到诱惑,从方程中去除人类。

下一页
上一页