AI已经在引领第三次军事革命了。面对人工智,人类对未来真的有一丝困惑,甚至恐惧。
记得当年看《终结者》时,惊叹于宏大的场面与天才的剧情构思,以为未来还要很久很久,谁曾想一转眼,它已来到面前。
前两天看波士顿动力的机器狗跳舞,还有机器人三级跳,感觉非常震撼。一只能跳太空步的机器以及完美平衡的人形机器,这背后有多少黑科技在支撑。给它们配上一挺机枪很难吗?
想想从当年笨拙的它们到如今灵巧的它们,这才过了几年啊。人类啊,不能科技已经迈入22世纪,思想还停留在20世纪啊。如果我们不能赶上这个飞速发展的时代,是多么可怕的事件。
前几年它还很笨拙
恩格斯曾预言:“一旦技术上的进步可以用于军事目的并且已经用于军事目的,它们便立刻几乎强制地,而且往往是违反指挥官的意志而引起作战方式上的改变甚至变革。”
AI这种新技术必将引发从作战方式到作战理论的一场巨变,全世界都在关注着这次变革的走向,各大国都想做下一个引领者。
2016年美国发布《国家人工智能研究和发展战略规划》,构建人工智能发展的实施框架。
俄罗斯总统普京说“谁成为AI领域的领导者,谁就将成为世界的统治者”,在俄罗斯《2025年前发展军事科学综合体构想》中,强调AI将成为决定未来的关键因素。
欧盟在2013年提出“人脑计划”,拟10年内斥资12亿欧元进行人类大脑研究。法国也急速踏入这场竞赛,总统马克龙宣布将在5年内投入 15 亿欧元支持人工智能,目标是赶上美国的中国,确保 AI 领域的人才选择巴黎而不是硅谷。
我国在人工智能领域布局很早,目前与美国一道占据领先地位。
基于对AI的恐惧与质疑,也让很多人站出说:不!2015年,以特斯拉创始人马斯克、物理学家霍金为首的3000多名AI研究人员曾公开致信联合国有关部门,他们警告“致命自动化科技”是一个“潘多拉魔盒”,一旦打开就很难再关上。
AI军备竞赛是个糟糕的事情,一旦失控战争规模将空前浩大,蔓延速度将超乎人类的想象。建议联合国禁止开发“超过人类控制意义之外的自主武器”,警惕战争领域的第三次革命。
这些站在科技最前沿的科学家们的警告绝非无稽之谈。
AI机器人会带来安全、法律、伦理等诸多问题。AI系统故障或被攻击,将带来灾难性后果,机器人不能区分军人和平民,滥杀无辜,对国际武装冲突中的必要性、区别性、相称性和人道性原则将带来巨大冲击。
最重要的是AI机器人挑战了伦理底线,战争成为一场“电子游戏”,人类的生命和尊严受到践踏。
可让世界各大国放弃AI军事用途的发展是不可能的,与传统武器相比,AI武器具有太大的优势,没有人敢在这场事关未来的变革中落在后面,所以,科研人员的呼吁也只能是美好的愿望。
希望人类能将这种AI技术像核武器那样纳入监管与约束中去,让它安全的造福人类。否则,我们还是多准备几个约翰·康纳吧。