欢迎收看《司马平邦说》。最近,《纽约时报》以这样一个标题,表达了对围绕OpenAI公司发生的一系列事件的一个阶段性结论,叫《人工智能已属于资本主义》。说这是一场希望人工智能更快发展的人,与希望放慢发展速度的人之间的冲突,这是一场人工智能两种不同愿景之间的较量。一种愿景下,人工智能是一种变革性的新工具,是一系列改变世界的创新中最新的一种。如果使用得当,可能会开启一个繁荣的新时代,并为利用其潜力的企业赚取大量财富。
在另一种愿景下,人工智能更接近于一种外星生命形式——从神经网络的数字深处召唤出来的怪兽——所以,必须极其谨慎地加以限制和部署,以防止它接管并杀死我们所有人。而随着萨姆·奥尔特曼在11月22日重返OpenAI,两种观点之间的斗争似乎结束了。资本主义队胜,利维坦队负。
OpenAI的新董事会将由3个人组成,Quora的首席执行官亚当·迪安吉洛 ,他也是旧董事会惟一一位留任者;Facebook和Salesforce的前高管布雷特·泰勒;还有前财政部长劳伦斯·萨默斯。现在OpenAI的最大投资者微软公司预计也将在OpenAI未来的治理中拥有更大的发言权。
而曾经把奥尔特曼从OpenAI赶走的另外3名董事会成员已经离开了董事会,即OpenAI的首席科学家伊利亚·苏茨克韦尔、乔治城大学安全与新兴技术中心战略主管海伦·托纳,还有以及企业家和兰德公司研究员塔莎·麦考利。他们是学者,对这项技术既恐惧又敬畏,并担心理论上的未来事件,比如“奇点”
(singularity),即人工智能超出我们人类的控制能力。
而OpenAI新的3位董事会成员都是些什么人呢?新任董事会主席泰勒是一位经验丰富的硅谷交易撮合者,去年担任Twitter董事会主席期间,由他牵头将Twitter出售给了埃隆·马斯克,变成了X。而另一位萨默斯则是超级资本主义者,他相信技术变革对社会“只有好处”。
也许OpenAI发生的事情——即企业的利润和利益战胜了对未来的担忧——是不可避免的,因为人工智能越来越重要,一项有可能引领第四次工业革命的技术,不太可能长期被那些想要减缓其发展的人所控制,比如马斯克就一直在呼吁限制人工智能的发展。
关于奥尔特曼和OpenAI最近这一系列的变故,我还想引用国内著名科技评论家顺风先生的一段话。他说,奥尔特曼之前在美国国会听证会上的表述,进一步验证了人工智能代理人独裁风险。奥尔特曼代表未来科技寡头的独立性和危险性,他在听证会上主动申请美国政府监管、控制竞争者准入等方面的表态,这不啻于二战前希特勒引祸水东流来欺诈的企图——利用英法反共仇苏的阴暗图谋,把自己扮演为潜在的反苏主力军和反共同盟,换取英法绥靖。
奥尔特曼应该申请来自联合国的全面公正监管,而不仅仅是美国自家的内部不透明监管;奥尔特曼应该主动向国际社会发布和公开自身的风险进度,而不是寻求美国政府支持提升国外竞争者门槛;奥尔特曼应该对如何减少商业化误导和资本破坏做出解释,而不是图谋推掉美国政府进一步加大高端人工智能芯片和算力的对外封锁。
接下来,我再引用11月30日下午中国国防部例行记者会上,新闻发言人吴谦大校的答记者问。有记者问,中美元首旧金山会晤,两国元首同意在平等和尊重基础上恢复两军高层沟通、中美国防部工作组会晤、中美海上军事安全磋商机制会议,开展中美两军战区领导通话。请介绍一下两国元首会晤以来,双方军事沟通有何进展?
吴谦说,根据两国元首达成的共识,双方将在平等和尊重基础上恢复两军高层沟通、中美国防部工作会晤、中美海上军事安全磋商机制会议,开展中美两军战区领导通话。中国军队愿与美方一道,认真贯彻落实两国元首共识,按照相互尊重、和平共处、合作共赢的原则开展交流合作,推动两军关系健康稳定发展。
之后,又有记者问:近日,有媒体报道称中美可能同意,限制人工智能在不受监督情况下的军用化,请介绍中方在人工智能军事应用方面的立场。
吴谦回答:前不久,在第三届“一带一路”国际合作高峰论坛开幕式上,习主席宣布中方提出《全球人工智能治理倡议》,发出了引领全球人工智能治理的中国强音。近年来,中国向联合国平台提交了关于规范人工智能军事应用、加强人工智能伦理治理等立场文件,坚持建设性参与人工智能全球治理。
吴谦说,中方高度重视人工智能军事应用带来的安全风险,呼吁各国尤其是大国,对在军事领域研发和使用人工智能技术采取慎重负责的态度,反对利用人工智能技术优势危害他国主权和领土安全。中方愿按照“以人为本”、“智能向善”原则,与各方加强交流合作,就人工智能军事应用的发展规范寻求共识,避免相关武器系统的误用、滥用甚至恶用,确保有关武器系统永远处于人类控制之下。
【确保有关武器系统永远处于人类控制之下】
从吴谦的答记者问中可见,现在中国对人工智能的态度已经很鲜明,尤其是对OpenAI公司的大变故给人工智能军事应用带来的安全风险,更是非常警觉,已经明确提出了“智能向善”的原则。但是,原则是原则,商业是商业,我们从围绕OpenAI公司发生的一系列事件看,现实的轨迹可能恰恰相反。萨姆·奥尔特曼重返OpenAI,是资本主义队胜,人工智能正沿着一个不受控制的方向进展着,而且是以月份为单位。而一旦那个“可以实现自我学习、自我改进、自我调整,进而可以解决任何问题而不需要人为干预的AGI”登场之后,中国政府所担心的“有关武器系统永远处于人类控制之下”的危险可能就会到来。
所以,中国若只是寄希望于在联合国框架内,通过规范人工智能军事应用、加强人工智能伦理治理,就达到控制人工智能军事化。这个目的恐怕根本达不到,尤其是一旦美国人把人工智能军事化与遏制中国崛起这样的邪恶目的联合起来,未来场景是非常可怕的。
所以,今天的世界对中国来说 ,可能又回到了1950-1960年代,就像新中国面对的帝国主义手里的核武器带来的巨大风险一样。中国若想真正摆脱人工智能技术带来的巨大安全风险,我看出路只有两条:
其一,惟有迎难而上,加强加快由中国主导之下的人工智能技术的研发,根本不能有二话;
其二,建立中美的军事合作机制,实现对OpenAI等全世界重要的人工智能公司,当然也包括对中国企业,进行安全监管,甚至可以互相监管。这样才能把AGI风险控制在人类手里,因为如果真有“可以实现自我学习、自我改进、自我调整,进而可以解决任何问题而不需要人为干预的AGI”,对美国的安全威胁也是同样严重的,大家谁都跑不掉。
所以,我个人对人工智能接下来发展前景并不悲观,倒很乐观。世界上的事就是这样,什么事情如果真的到了谁也不怕谁的极端,那就只能走向大家都害怕的另一个极端。
(作者系昆仑策研究院特约研究员;来源:昆仑策网【作者授权】,转编自“司马平邦说”,修订发布)
【昆仑策研究院】作为综合性战略研究和咨询服务机构,遵循国家宪法和法律,秉持对国家、对社会、对客户负责,讲真话、讲实话的信条,追崇研究价值的客观性、公正性,旨在聚贤才、集民智、析实情、献明策,为实现中华民族伟大复兴的“中国梦”而奋斗。欢迎您积极参与和投稿。