迅速到来的军事机器人革命是空前的。这些技术带来了伦理、法律、政策等问题,可能构成在某些人看来关乎生死存亡的一种危险。
联合国《特定常规武器公约》(CCW)相关会议已经进行了有关致命自动武器的讨论,该公约禁止或限制一些被认为会引起不合理痛苦的武器。CCW去年11月一场会议召集了一批政府专家和阻止杀手机器人运动组织的非政府组织代表。阻止杀手机器人运动组织希望达成一项具有法律约束力的国际条约,禁止使用致命自动武器,就像此前禁止集束弹药、地雷和激光致盲武器一样。
棘手的是,自动武器包括从能够有选择性地瞄准的导弹到具有能够决定打击谁、何时打击以及如何打击等认知技能的学习型机器等一系列武器。大多数人认为,当使用致命武器时,应当由人来负责启动。但要确定哪类人工控制是适宜的则更为棘手,并且相关技术发展太快,导致国际外交无法跟上形势。
令情况更加复杂的是,人工智能和自动机器最引人注目的进展正由具有商业动机的私企实现。即使能够达成禁止军用机器人的协议,催生自动武器的技术也会很快普及并容易转让。
防务分析人士彼得·辛格指出,人工智能竞赛由不可阻挡的力量驱动:地缘竞争、知识前沿领域的科学动力以及追求利润的科技企业。因此,是否能抑制人工智能竞赛一些更令人不安的方面以及如何抑制成为问题所在。简单来说,一个令大多数人惊恐的想法是让能够思考的机器自行选择是否杀死人类。而且,尽管有关机器人暴动的终极噩梦仍是科幻小说,但其他担忧则具有现实性。
专家保罗·沙雷担心自动系统可能因代码编写质量不高或对手发动网络攻击而失灵。这可能致使机器人攻击人类部队,或导致局势快速升级,以至于人类无法做出反应。自动武器的可靠性非常难以测试。会思考的机器可能以人类操控者从未设想过的方式行事。
关于与机器人系统“合作”的讨论大多围绕人类在“观察、调整、决策、行动”(OODA)这一决策循环周期中所处的位置。一架遥控武装“死神”无人机的操控人员处于OODA循环以内,因为他决定无人机飞往何处以及飞抵目的地时采取何种措施。相比之下,有人类跟踪OODA循环的系统会在无人操控的情况下完成大部分任务,但人类可随时介入,例如在目标已经改变的情况下放弃任务。完全自动化的系统(操控人员仅需按下启动按钮)负责执行全部任务,包括目标选择,则处于OODA循环以外。
美国前国防部副部长詹姆斯·米勒说,尽管美国将设法让人类处于OODA循环之内或跟踪OODA循环,但对手可能不会这样。
米勒认为,如果自动系统在竞争激烈的地区执行任务,让机器全权负责的诱惑将变得难以阻挡。
1、本文只代表作者个人观点,不代表本站观点,仅供大家学习参考;
2、本站属于非营利性网站,如涉及版权和名誉问题,请及时与本站联系,我们将及时做相应处理;
3、欢迎各位网友光临阅览,文明上网,依法守规,IP可查。
作者 相关信息
内容 相关信息
• 昆仑专题 •
• 十九大报告深度谈 •
• 新征程 新任务 新前景 •
• 习近平治国理政 理论与实践 •
• 我为中国梦献一策 •
• 国资国企改革 •
• 雄安新区建设 •
• 党要管党 从严治党 •
• 社会调查 •
图片新闻