公开信指出,如果没有法律限制,这些带人工智能技术的杀人机器将在未来几年中得到系统部署。
近日,物理学家斯蒂芬?霍金(Stephen Hawking)、哲学家...
公开信指出,如果没有法律限制,这些带人工智能技术的杀人机器将在未来几年中得到系统部署。
近日,物理学家斯蒂芬?霍金(Stephen Hawking)、哲学家诺姆?乔姆斯基(Noam Chomsky)、技术专家伊隆·马斯克(Elon Musk)和数千名知识分子在一封联名公开信中警告:必须取缔“机器人杀手”的研发和应用,人工智能方面的军备竞赛可能是人类的灾难,它将助长战争和恐怖主义,加剧世界动荡局势。英国《独立报》(The Independent)进行了跟踪报道,澎湃新闻对此进行了编译。
自主性武器已被描述为继火药和核武器之后的第三次军事革命 千余名机器人专家和人工智能(AI)研究人员 ——包括物理学家斯蒂芬·霍金、技术专家伊隆·马斯克和哲学家诺姆·乔姆斯基,近日签署了一封公开信,呼吁禁止使用“具有攻击性的自主武器”—— “机器人杀手”。签署该公开信的还有苹果公司的联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak),以及数以百计的人工智能和机器人技术研究员,他们均来自世界一流大学和实验室。
这封公开信由未来生活研究所(Future of Life Institute)发起,这个团体致力于缓解“人类面临的生存风险”,警告人们启动“人工智能军备竞赛”的危险。这些机器人武器可能包括根据自身程序搜索并杀死特定目标的军用无人机,这种新一代的无人机可以通过远程操控对几千里外的地区发动攻击。
公开信中谈到“人工智能技术已经达到了这样一个地步:如果没有法律限制,那么这种系统的部署在未来几年中就可以实现,并不需要等待几十年。”它补充说,自主性武器已被描述为继火药和核武器之后的第三次军事革命。
未来生活所相信人工智能的巨大潜力在很多方面会造福人类,但是机器人武器的发展并不会,它很有可能被恐怖分子、残酷的独裁者和那些热衷种族清洗的人所利用。
这种武器虽然还没有真正研制出来,但是技术的推进使得他们的诞生并不遥远。该武器的反对者,就像这封信的签署者一样,相信通过消除人类死亡的危险,机器人武器(这项技术在未来几年内会变得无处不在,价格低廉)将会降低战争的门槛,使得战争更加频发。
制造机器人武器,使人担忧人工智能的滥用
韩国在韩朝边境使用像这样的哨兵机器人,但是没有人工干预,他们并不能开火。
去年,韩国推出了类似的武器——武装哨兵机器人,它们目前被安装在朝鲜边境。通过相机和热传感器,它们能够检测并自动追踪人类,但是该机器需要人工操作才能射击。
公开信警告说,对人工智能的和平使用,将会给人类带来潜在的益处。但如果用它来制造机器人武器,便会滋长公众的不满,削减了人工智能真正的好处。
这种说法听起来很有未来感,但是在这块领域技术的确正在以极快的速度推进,与此同时人们对人工智能暴力使用的反对呼声也越来越强烈。
“阻止机器人杀手”的运动率先呼吁禁止机器人武器
2012年,由一系列非政府组织,其中包括人权观察(Human Rights Watch)发起的“阻止机器人杀手”运动率先呼吁禁止机器人武器。目前他们正努力在《特定常规武器公约》(Convention of Conventional Weapons)的框架内处理机器人武器的问题,该公约在日内瓦联合国大会上通过,旨在禁止使用某些常规武器,如地雷和激光武器在1995年已经被禁止使用,这场运动希望自主性武器也可以同样被禁止。这项运动试图通过该公约,设立一个以禁止这种武器为目的政府专家小组来处理相关事件。
今年初,英国在联合国会议上反对禁止机器人杀手,其外交部官员告诉《卫报》(The Guardian),他们并不认为有必要对自主性武器实施禁止,并且声称英国并没有研制类似的武器。