美国华盛顿自由灯塔网站8月25日报道,美军参谋长联席会议副主席保罗·塞尔瓦空军上将当天表示,他认为美国需要做点“什么”来惩罚谋求这种全自动武器的家伙,不过他也承认必然会有人不惜违反国际公约开发这种武器。* c/ ~# s' ?+ K# B
5 I* W- d+ w& c( d! ?6 i3 g
报道称,在华盛顿的战略与国际问题研究中心,当被问到如何看待这种武器时,塞尔瓦说:“有人试图建造一个全自动战斗系统,我认为这不是不可能的。我说的不是像巡航导弹或鱼雷这种需要人去瞄准和发射然后它再去找到目标那样的东西。我说的是完全自动化的战斗系统,在生死抉择(视频)时刻做出决定,它将执行致命行动。”5 O$ q5 h2 B7 Q; Y+ `
/ y7 L j, r# c( ?- b 塞尔瓦以前曾经将关于全自动武器的辩论称为“终结者”难题。他是指施瓦辛格主演的一部著名科幻电影。塞尔瓦说,科技专家已经向五角大楼的领导者们指出,这种能力可能在十年内被开发出来。塞尔瓦还表示,“这是一种完全自动化的系统,完全自控,不依赖人做决定。科技专家对我们说,我们距离那种能力的问世不过只有十年左右的时间。”
( G3 L9 n9 G7 \1 s% D4 l3 e, Q p& O" p7 Y( h8 v
3 Z' s8 U4 K, }
# S7 O3 R9 j7 D- {1 U* ^$ K* s
# o5 I4 o; @, l. w; A0 G& F3 b1 a) C* p
俄罗斯在开发智能攻击系统上已颇有建树(图源:AFP/VCG)
6 C' E: N$ T/ }; F
1 ~" F! @" H2 |6 l4 P, [' O- k. f3 o9 J( L$ D4 W5 t' y4 Q
这位空军上将说,美国应该利用国际法来阻止国家或非国家角色制造能够执行致命行动的自动战斗系统。然而,他警告说,鉴于现有的禁止使用化学和生物武器的国际公约被屡屡违反,禁止开发自动战斗系统的任何法规和公约都可能有人违反。) a! o5 }4 E3 u& S9 w$ Y% ~
/ ~/ e$ q" H7 N
报道称,以前,塞尔瓦曾经就开发依赖人工智能的致命攻击系统所带来的道德和法律影响提出过警告。他在2016年1月曾经表示:“全自动战斗系统有道德影响,有对战争法的影响。这些影响,我称之为‘终结者’难题:如果有人工智能的东西对人造成伤害时,会发生什么情况?假设我们能够制造一个有头脑的机械装置,我们怎么知道它是怎么想的?”
$ [: Q+ }/ _+ t3 ]' C
; p4 G' o4 R& D ?. N 塞尔瓦在国防部谈到了机器人与人联合作战能力的未来以及进行改革和创新的必要性,尤其在技术领域。他说,美国现在处于“大国竞争”的时期,着重提到了来自俄罗斯和中国的挑战。
; V1 R1 _1 d# ~4 o! G: F2 U1 P7 e8 L9 @$ e
塞尔瓦说:“我不会给面临的威胁贴上单一标签,因为我们在过去20年看到暴力极端主义发生的变化出乎我们的意料。虽然我们认为我们了解当今暴力极端主义的几种动态和趋势,但那并没有让我们非常清楚地预测它可能如何发展。”7 \0 {& R/ a7 S6 o6 J. B
* c. l) w- Z P' F) q7 o6 @2 i7 y
塞尔瓦还表示,俄罗斯和中国等正在崛起的竞争对手在军事能力上尚不能完全匹敌美国,但是已经“非常接近”,需要美军找到新的办法来抗衡它们。塞尔瓦并指出:“我们今后20年面对的是几个非常富有想象力的竞争对手,它们实际上了解了我们在过去20年的做法,并很可能用我们挑战它们的一些手段来挑战我们。那变得非常难以应对。”# f: Z( W6 g) M6 | C! K, u
5 o% U4 j( m5 F0 ^6 N, K1 |" z* v. r
塞尔瓦最后总结称,“这就是我们现在的处境:大国竞争,与我们竞争的国家其实力不一定与我们匹敌,但非常接近,而且在战略上采取的是非对称方针,这对我们构成严重挑战,因此我们必须对这一问题进行不同的思考。”/ s+ {) F6 l9 n& I
) r8 _- s U" @$ G% W- p* k$ M
|