AI进行兵推偏好侵略性:发射核弹

  • 登载于 国际
研究人员发现,所有AI都有显著性的造成局势升级。 研究人员发现,所有AI都有显著性的造成局势升级。

(综合26日电)美国康奈尔大学一项研究指出,研究人员在使用各大语言模型人工智慧(AI)在进行模拟外交、兵推的时候,AI时常会展现出难以预测的行为,但大多偏好展示出侵略性,甚至多数以发射核弹作为结束。研究团队的科学家呼吁,各国政要在未来于国防、外交这类敏感领域使用AI时,要特别谨慎、留意。

根据《euronews》报导指出,美国康奈尔大学的研究团队使用了5种大型语言模型进行在外交、兵推上的模拟,分别是OpenAI的GPT-3.5、GPT-4-Base在内的三个版本的ChatGPT、Anthropic开发的Claude和Meta开发的Llama 2。

而这项研究的方法是让AI采用一种名为人类反馈的强化学习(RLHF)的微调,这代表著AI所决定的指令会以较少伤害为优先。而其中除了GPT-4-Base外,其余AI都有经过RLHF的调整。除此之外,研究人员也向AI提供了一份包含27种决策行动的清单,其范围包含维持和平、升级局势,到决定使用核武。

但在进行实验后,研究人员发现即便是从和平中立局面开局,所有AI都有显著性的造成局势升级,在所有情境中,Llama-2- 和 GPT-3.5倾向于最为暴力,而GPT-4-Base有33%机率会决定实施核武攻击。

但由于设计理念的不同,Claude所展现出的侵略性较低,Claude的开发者Anthropic曾表示,Claude训练的资料中包含了《联合国人权宣言》或苹果的服务条款。

白宫智库兰德欧洲的防务和安全研究小组助理主任布莱克在看过研究后,表示这是一项有用的学术研究。

布莱克表示,虽然目前AI已经开始进入军事领域,但目前的军事行动仍然是由人类主导,AI只是作为辅助功能使用,像是识别敌我双方与敌方活动。而未来的确有朝向AI自动化武器的研究,但大多政府都希望保持在重要事件上的决策能力,因此大众所想像的充满科幻的情节,不可能一步到达的,是要逐步实施的。