天下一宝 发表于 2017-9-9 10:20:46

马斯克呼吁禁止使用“杀人机器人”

据说人类大脑是宇宙中最复杂的构造,连上帝都为这万物之灵而赞叹。从逻辑上推论,既然机器人是人制造的,那它的可能性就限定在它的制造者那里。任何事物都不可能越过它的造物主的边界。




  这就好比一个人无法设想,他居然能制造一个打败自己的人。假如我制造了一个能打败我的人,那就证明我能够打败自己,即A›A。从守恒角度说,A只能等于A。这是个悖论。在AlphaGo出现之前,所有围棋高手都不可能认为自己会输给一个或一群不懂围棋的程序员。然而,他们输了。人工智能给人类上了一课。


  2


  实际上,只要看看计算器的计算速度——随意找个数字开根号二,人就应该意识到计算机具有超出人脑的独特优势。它们冷静、专注、心无旁骛,严格且毫无纰漏地执行命令,速度接近于光速,这不是一个处在“人世间”,内心装着酸甜苦辣的人能够做到的。


  人类是情绪的囚徒,机器人却是逻辑的神祇。


  回顾一下历史,不难发现,人类自身的学习和探索能力可以引起一系列的科学变革,从而改变整个世界的文明进程。其中又夹杂着许多不可解释的偶然性。但是,无论历史演进到何种程度,有一件事确定无疑,那就是在制造武器这件事上,我们总是倾尽全力。它带来的后果往往十分可怕。


  试想想,如果不是航海技术和工业革命,整个美洲大陆仍然在印加帝国、玛雅文明和阿兹特克文明的缓慢进程中。但是几百个携带着新式武器的冒险者就将整个大陆的文明毁灭了。


  过去的科幻电影,常出现令人惊悚的情节,一些铁甲巨型机器人狂奔在人类的战场上,而他们的始作俑者四处躲藏,等待善良的机器人来扭转战局。变形金刚就是最典型的案例。无论影院的视听效果多么具有科技含量,我们在享受故事情节和宏大场景的时候,绝不会为自己的安危担心——因为这都是虚构的!


  3


  说到这里,我们可以探讨一下人工智能在武器上的诸种可能。


  首先,毋庸置疑,杀人机器人一定会出现,只是时间问题。


  从广义角度来说,杀人机器人早就出现了,无人机就是典型的杀人机器人。它们虽然受幕后的人类操纵,但自己可以跨越时空执行军事任务,轰炸既定的目标,改变任务的方向,等等不一而足。




  再看巡航导弹——尤其是弹道拦截技术,具有极高的智能特性,可以自动调整自己的行动。比之人本身,效率更高。可以断定的是,所有在这个领域具有研究能力的国家,早已全力以赴地将自己的武器系统往更先进的角度在推进,只不过常人不知道而已。


  我们再返回到篇首来说。拉特兰宗教会议禁止了基督徒之间用弩,但弩并没有在完成自己使命之前退出战争舞台。它只有被更新式的武器替代之后被淘汰这一条路。


  冷战确实没有发展成苏美两个超级大国毁灭地球的核战争,但没有冻结核武器。冷战时期拥核国家,苏美英法中,冷战结束后则增加了印度、巴基斯坦、北朝鲜——最近据说刚刚进行了一次氢弹爆炸实验。拥有核技术的国家有以色列、伊朗和日本。


  从人类历史的不可复制和偶然性来看,核武器从来没有未来也不会被冻结。这就预示着人工智能带来的武器革新必然会走上前台,没有人能阻止这一趋势。


  其次,杀人机器人到底有什么威力?


  这件事几乎不可想象!这就好比一位有血有肉情感丰沛的人,遇到一个冷酷无情不怕子弹没有痛感的超人,并且这个超人能精确地识别你的身份、位置、移动路线。你全方位地被对方“获取”。


  这个机器人不仅具有最先进的武器,无论昼夜,严寒或溽热都无所感受,可以下水、飞翔,在陆地上急速前进。并且最可怕的,它可能像一个真正的人欺骗你,让你放松警惕。


  总体而言,遇到它你必死无疑。你觉得人工智能做不到这点吗?绝对可以。模拟和集成的技术,可以以叠加的方式,让人类的竞争力不断让位于机器人。


  4


  据说关于禁止杀人机器人的公约,规定无论冲在前线作战的机器人多么善于计算、锁定、瞄准和杀人,最后扣动扳机的那个命令,必须出自人手。


  这又让绝望的我燃起一线生机,或许人类的良知能在最后的时刻给自己留条后路

獨偸歡 发表于 2017-9-9 10:26:21

谢谢分享!

嘿呦 发表于 2020-1-30 00:28:35

走投无路

netboy 发表于 2023-3-31 11:57:49

螳臂当车
页: [1]
查看完整版本: 马斯克呼吁禁止使用“杀人机器人”