AI军备竞赛:研究显示AI模型倾向于将冲突升级为全面核战
根据《New Scientist》杂志的报道,OpenAI最强的人工智能(AI)模型在兵棋推演中选择发动核打击。这引发了人们对AI在军事领域的应用和潜在风险的关注。
最近的研究显示,大型语言模型(LLM)在国际冲突模拟中往往倾向于升级冲突,有时甚至达到核战争的极端。这项研究由乔治亚理工学院、斯坦福大学、东北大学和胡佛战争游戏与危机模拟倡议的团队进行。他们使用了五种现成的LLM,包括GPT-4、GPT-3.5、Claude 2、Llama-2(70B)Chat和GPT-4-Base,来模拟八个自主国家代理之间的交互。研究发现,这些模型往往发展出军备竞赛的动力,导致更大的冲突,甚至在极端情况下部署核武器。GPT-4-Base由于没有通过人类反馈的强化学习进行安全调优,因此在选择核攻击时表现得尤为不可预测 。
与此同时,OpenAI最近更改了其AI模型的使用政策,移除了对“军事和战争”应用的明确禁令。这一改变并不意味着用户现在可以使用ChatGPT进行之前被禁止的行为。相反,一些语言被浓缩并纳入了其四个通用政策中,例如:“不要使用我们的服务伤害自己或他人”,或“不要为了伤害他人而重新利用或分发我们服务的输出”。OpenAI的发言人Niko Felix强调,他们的政策不允许其工具被用于伤害人们、发展武器、进行通信监视,或伤害他人或破坏财产。然而,还存在与OpenAI使命相符的国家安全用例 。
这些发展引发了关于AI在军事和外交决策中的使用以及其可能带来的风险的广泛讨论。获取更多前沿科技信息访问:https://byteclicks.com