题目内容:
在无人驾驶汽车身上,我们可一瞥人工智能的未来。想象一下,一个犯罪集团盗取一辆无人汽车,而后为其装上机关枪并重新编程,使其成为杀人武器,这便是人工智能武器。再想象一下,既然很多人都有能力购买搭载运动相机的四旋翼无人机,如果研发出一款能让无人机自主飞行的软件,犯罪集团自然也能使其武器化,在公共场所制造大屠杀。因此,人工智能武器成为迫在眉睫的威胁;它们很容易被转化成杀戮机器,危险性远超类型相同但由人类操控的武器。物理学家霍金、科技业大佬马斯克以及其他很多人都在人类未来研究所的一份请愿书上签名,呼吁禁止人工智能武器。请愿书称人工智能武器的威胁迫在眉睫,需要釆取行动,避免在几年内酿成灾难,不过并未指出何种类型的智能武器已经出现在地平线上。
很多人担心电影《终结者》中的末日景象会成为现实。影片中,机器人拥有与人类相似的能力,企图征服人类,成为地球的统治者。英国物理学家马丁·里斯提出了灾难性假设——机器人失去控制或者网络拥有自我意识。哲学家休·普莱斯也表达了类似的担忧,认为人工智能一旦摆脱生物学束缚,人类便可能无法继续存在下去。这些假设确实值得研究,但远不如已经出现在地平线上的人工智能武器构成的威胁那么紧迫。很多人之所以在请愿书上签名,是因为与拥有自我意识的电脑不同,类似安装机关枪的无人汽车这样的人工智能武器是更现实的威胁:任何一个电脑黑客只需极低的成本,便能对其重新编程,将其变成高效的杀戮机器。
智能武器本身并不可怕,真正可怕的是那些用心险恶的人。假设一个独裁者决心清洗反对者,他有一个存储着相关人员地址和照片的数据库。如果是在过去,他需要一支军队来完成这项任务,还需要贿赂士兵或给他们洗脑,使其死心塌地地为自己效命。但是在未来,他只需购买几千架装有自动武器的无人机,让效命于他的几位软件工程师进行重新编程,而后派遣无人机到反对者的住处或工作场所附近巡逻,一旦发现目标便予以射杀。无人机犯错几率更小,不会被人贿赂或洗脑,最重要的是,它们效率远远超过士兵。有了人工智能武器,独裁者过去需要掌控整个军队才能做到的事情,现在只要财力雄厚便可办到。
试图研发这种武器的制造商和政府可能声称他们可以釆取完备的防范措施,确保智能武器不被重新编程或被黑客入侵。对于这种态度,我们应该投去怀疑的目光。从电子投票机到自动取款机,从蓝光光碟播放机到飞弛在高速路上的汽车,它们都曾编织安全神话,但都在黑客的攻击下一一破灭。历史的教训告诉我们,计算设备往往屈服于企图改变其用途的黑客,人工智能武器不可能成为例外。
未来是否会签订禁令,禁止使用某种人工智能武器?答案是肯定的。如果只需极低的成本便可轻易将某种人工智能机器改造成高效的大规模杀伤性武器,禁止使用该机器的国际公约便会浮出水面。这种机器与放射性金属铀没有本质差别,都可以用于正当用途,但我们必须谨慎对待,严加管控,防止其被改造成毁灭性武器。我们之所以要禁止人工智能武器,并不是因为这种武器本身,而是因为心怀叵测的人很容易将其变成嗜血的恶魔。只需要一段简单的代码,很多智能武器便可转化成破坏性不亚于生化武器的杀戮机器。
界定人工智能武器需要解答很多问题。如果汽车可以被作为武器使用,是否应该禁止无人汽车?“智能”的确定定义是什么?“武器”的确定定义又是什么?所有这些都是非常重要的问题,也很难找到答案。不过,在我们同意签署一项协定,控制人工智能武器之前,这些问题无需解答。当然,任何一项国际禁令都无法完全遏制人工智能武器的扩散,但我们没有任何理由放任不管,不签署任何禁令。既然我们有充分的理由禁止生化武器和空尖弹,我们同样有充分的理由对人工智能武器说“不”。
第五段中,作者认为应该对哪种态度“投去怀疑的目光”?
A.对技术管控过分自信
B.对未来做灾难性假设
C.禁止人工智能研发
D.放任邪恶人性肆虐
参考答案:
答案解析: