当前位置:首页 > 职场 > 正文

关于人工智能武器做出生死抉择的争论越来越多

  • 职场
  • 2024-12-26 18:36:04
  • 1

硅谷卷入了一场关于人工智能(AI)在武器系统中的潜在用途的重大辩论,特别是机器是否应该有权在战斗中做出生死攸关的决定。

这种讨论在9月底得到了加强,当时Shield AI联合创始人曾锐生(Brandon Tseng)断言,美国的武器永远不会完全自主,这意味着人工智能算法不会在致命行动中拥有最终决定权。

他强调,无论是国会还是普通民众都不支持这种想法。

Shield AI是一家美国航空航天和武器技术公司,总部位于加利福尼亚州圣地亚哥。

它为军事行动开发人工智能驱动的战斗机飞行员、无人机和技术

然而,就在几天后,Anduril的联合创始人帕尔默·勒基在佩珀代因大学的一次演讲中表达了不同的观点。

安杜里尔工业公司是一家美国国防科技公司,专门研究先进的自主系统。

他表示愿意考虑使用自主武器,并质疑反对它们的道德论据。

Palmer Luckey指出了地雷的悖论,它缺乏区分平民和军事目标的能力,强调了战争中人工智能的伦理问题需要务实地解决。

Anduril的一位发言人后来澄清说,帕尔默·勒基的言论并不是说机器人应该独立决定杀人;相反,他担心恶意行为者使用有害的人工智能技术的影响。

过去,像Anduril的特雷·斯蒂芬斯(Trae Stephens)这样的科技领袖曾倡导一种模式,在这种模式下,人类仍然对有关致命性的关键决策负责。

他强调让负责任的各方参与这种决定的重要性。

虽然Anduril的发言人否认Luckey和Stephens的观点存在冲突,但潜在的观点是,在使用致命武力的决策过程中,总应该有人负责。

美国政府在这个问题上的立场也是模棱两可的。目前,军方还没有购买完全自主的武器。

虽然有些人认为某些武器可以独立操作,但这与可以在没有人为干预的情况下自主识别、获取和攻击目标的系统有很大不同。

美国没有禁止开发全自动武器,也没有阻止企业向国际销售。

去年,美国推出了新的军事应用人工智能安全指导方针,得到了几个盟国的支持。

这些指导方针要求高级军事官员批准任何新的自主武器;然而,遵守是自愿的,官员们一再表示,现在还不是考虑对自主武器实施约束性禁令的合适时机。

最近,Palantir的联合创始人、Anduril的投资者乔·朗斯代尔(Joe Lonsdale)也表示愿意探索完全自主武器的概念。

他反对在这场辩论中采用二元方法,认为有必要对武器的自主性进行更细致的理解。

活动人士和人权组织长期以来一直试图建立对自主致命武器的国际禁令,但美国一直抵制这些努力。

然而,乌克兰正在进行的冲突可能会改变这种动态,提供大量关于在战斗中使用人工智能的数据,并成为国防科技公司的试验场。

乌克兰官员一直直言不讳地表示,他们需要提高武器系统的自动化程度,认为这将增强他们对抗俄罗斯军队的能力。

美国官员和科技领袖的首要担忧是,担心中国和俄罗斯等国家可能首先开发出完全自主的武器,迫使美国效仿。

一名俄罗斯外交官在联合国(UN)关于人工智能武器的辩论上的言论突显了这种担忧,他暗示,各国围绕人类控制的优先事项存在显著差异。

为了应对这种竞争格局,像朗斯代尔这样的科技领袖正在倡导针对军事和政府官员的积极教育努力,以更好地了解人工智能在国家安全方面的潜在好处。

 

硅谷卷入了一场关于人工智能(AI)在武器系统中的潜在用途的重大辩论,特别是机器是否应该有权在战斗中做出生死攸关的决定。

这种讨论在9月底得到了加强,当时Shield AI联合创始人曾锐生(Brandon Tseng)断言,美国的武器永远不会完全自主,这意味着人工智能算法不会在致命行动中拥有最终决定权。

他强调,无论是国会还是普通民众都不支持这种想法。

Shield AI是一家美国航空航天和武器技术公司,总部位于加利福尼亚州圣地亚哥。

它为军事行动开发人工智能驱动的战斗机飞行员、无人机和技术

然而,就在几天后,Anduril的联合创始人帕尔默·勒基在佩珀代因大学的一次演讲中表达了不同的观点。

安杜里尔工业公司是一家美国国防科技公司,专门研究先进的自主系统。

他表示愿意考虑使用自主武器,并质疑反对它们的道德论据。

Palmer Luckey指出了地雷的悖论,它缺乏区分平民和军事目标的能力,强调了战争中人工智能的伦理问题需要务实地解决。

Anduril的一位发言人后来澄清说,帕尔默·勒基的言论并不是说机器人应该独立决定杀人;相反,他担心恶意行为者使用有害的人工智能技术的影响。

过去,像Anduril的特雷·斯蒂芬斯(Trae Stephens)这样的科技领袖曾倡导一种模式,在这种模式下,人类仍然对有关致命性的关键决策负责。

他强调让负责任的各方参与这种决定的重要性。

虽然Anduril的发言人否认Luckey和Stephens的观点存在冲突,但潜在的观点是,在使用致命武力的决策过程中,总应该有人负责。

美国政府在这个问题上的立场也是模棱两可的。目前,军方还没有购买完全自主的武器。

虽然有些人认为某些武器可以独立操作,但这与可以在没有人为干预的情况下自主识别、获取和攻击目标的系统有很大不同。

美国没有禁止开发全自动武器,也没有阻止企业向国际销售。

去年,美国推出了新的军事应用人工智能安全指导方针,得到了几个盟国的支持。

这些指导方针要求高级军事官员批准任何新的自主武器;然而,遵守是自愿的,官员们一再表示,现在还不是考虑对自主武器实施约束性禁令的合适时机。

最近,Palantir的联合创始人、Anduril的投资者乔·朗斯代尔(Joe Lonsdale)也表示愿意探索完全自主武器的概念。

他反对在这场辩论中采用二元方法,认为有必要对武器的自主性进行更细致的理解。

活动人士和人权组织长期以来一直试图建立对自主致命武器的国际禁令,但美国一直抵制这些努力。

然而,乌克兰正在进行的冲突可能会改变这种动态,提供大量关于在战斗中使用人工智能的数据,并成为国防科技公司的试验场。

乌克兰官员一直直言不讳地表示,他们需要提高武器系统的自动化程度,认为这将增强他们对抗俄罗斯军队的能力。

美国官员和科技领袖的首要担忧是,担心中国和俄罗斯等国家可能首先开发出完全自主的武器,迫使美国效仿。

一名俄罗斯外交官在联合国(UN)关于人工智能武器的辩论上的言论突显了这种担忧,他暗示,各国围绕人类控制的优先事项存在显著差异。

为了应对这种竞争格局,像朗斯代尔这样的科技领袖正在倡导针对军事和政府官员的积极教育努力,以更好地了解人工智能在国家安全方面的潜在好处。

 

有话要说...