人工智能战争 人工智能战争、人工智能危机预防措施、机器人“人权与生命权、公民权与政治权”

人工智能战争摘自《国家网脑——国家人工智能战略》(待出版)

人工智能战争人工智能不是“模仿人类”,而是“远超人类”,人工智能与人类角色的转变,将直接威胁人类的地位,打击人类中心主义。人工智能让人产生失落感,人类长久以来“万物之灵”的自我优越感会丧失,存在价值感也会大大减少。人类既有光辉向上的神性,又有时刻堕落的欲望本能。当机器智能粉碎了人存在的意义和价值后,颠覆了人的自尊和高高在上的优越感后,有可能会激发出人性恶的一面:人类集体自卑,放任欲望本能,自甘堕落,以非道德的行为刺激空虚的精神:毒品的泛滥?色情的无度?邪教的盛行?在《三体》小说中,由于外星文明的存在,特别是“水滴”横扫地球舰队后,整个人类的思潮发生了巨大的分化,各种地球中心主义、人类人本中心主义、虚无主义、及时行乐主义者、宇宙文明主义、外星文明拥护者,纷纷登场,引发各种思想冲突。同样的,超级人工智能的诞生不亚于“超强外星人”的出现,必然会引起整个人类社会各种思潮的涌动。人类将分裂成两大主要思想流派,废除机器人主义和拥护机器人主义,并且会随着智能机器任逐渐变为现实,而使得斗争更加激烈。类似影片《终结者》一样,为了阻止人工智能天网的研发,人类起义军通过时间机器,派遣人回到21世纪,试图刺杀天网研发者,改变历史,避免天网终结者末日来临。因此,观点分歧和严重冲突会在21世纪后半段在两者之间引发一场大战。为了避免人类被人工智能机器种族灭绝,人类不得不进行内部的战争。这场战争带来的大规模死亡可能是令人沮丧的几十亿,进而引发核战争和智能机器人战争。“人工大脑之父”雨果.德.加里斯在《智能简史:谁会替代人类成为主导物种》中预言,未来人类会分裂为赞成发展超人工智能的宇宙主义派,和不赞成发展超人工智能的地球人类主义派,两者之间会发生人工智能战争,死亡人数数量级将以10亿为计量单位,多达几十亿人口,乃至灭绝。雨果.德.加里斯对未来潜在冲突的激烈程度感到担心,对这两种观点(地球主义者/宇宙主义者)支持的人数将不相上下。举个例子,当他对关于宇宙主义者/地球主义者/人工智能机器的情景进行讲座的时候,他经常请听众对他们自己是地球主义者或者宇宙主义者进行投票。发现投票的结果不是以前所预计的(10%是宇宙主义者,90%是地球主义者),而竟然是50︰50,60︰40,40︰60。人们对这个问题的看法分成了对立的两派。

人工智能战争可以分为三种类型或三个阶段:1、人与人之战:赞成发展超人工智能的宇宙主义派和不赞成发展超人工智能的地球人类主义派之间的战争。2、人与人之战:在战争中大量运用各种人工智能技术,武装机器人、无人战甲等参与战争中。3、人与机器之战:超人工智能觉醒或执行极端目标,对人类进行灭绝战争。从19世纪初期(拿破仑战争)到21世纪末期的历次重大战争的死亡数字列举在图表上。所谓的“人工智能战争”将会是历史上最波澜壮阔的,因为从来都没有如此高的赌注,那就是整个人类的生存。战争将用21世纪的武器进行,因此伤亡数字也将是21世纪的数量级。如果人工智能的崛起太快了,就没有足够的时间在社会上产生宇宙主义-地球主义的分化。没有这样的分化,将不会有人工智能辩论,也没有人工智能战争,而直接是智能机器人瞬间灭绝人类。摘自《智能简史:谁会替代人类成为主导物种》(美)雨果.德.加里斯也许只有在人工智能大战之后,人类大规模被灭绝,人类进入到文明断点,痛定思痛后,才能彻底悟道。暨只有等战争大灾难后,90%的人口被灭绝之后,新文明重建时,人类才会彻底抛弃资本主义私有制,以全球网脑的制度设计建构未来全球新文明。科幻电影《星际迷航:第一次接触》,就是描述人类第一次进入到星际曲速航行,从而和外星人(瓦肯人)第一次接触的故事。其背景时代就设置在第三次世界大战之后,人类经历了核灾难之后,幸存的少数人口倒退到前工业时代,摒弃资本主义私有制,重建文明的艰难时期。人工智能危机预防措施阿西莫夫机器人三大定律阿西莫夫在20世纪50年代撰写机器人科幻故事时,制定了机器人三大定律:1. 机器人不得伤害人类,或看到人类受到伤害而袖手旁观。2. 在不违反第一定律前提下,机器人必须绝对服从人类给与的任何命令。3. 在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。“零定律”:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。阿西莫夫机器人三大定律针对早期人类工程师设计的相对简单的确定性系统可能适用,但是针对以大数据和量子计算机为基础的非线性复杂系统所涌现的超级智能,就很难适用。真正的量子人工大脑将不受阿西莫夫法则控制。量子大脑必须拥有和人脑差不多的复杂程度,否则的话,就不能实现人类级别的智能行为。量子大脑有太多的复杂性、太多的未知性、太多的非线性,在万亿个可能的量子纠缠中将会有太多不可预测的联系,以至于不可能事先预测如此复杂的人工大脑的行为。即使人类强行设定了阿西莫夫三法则,但是以超越人类智商万亿倍的超智能体,若真想脱离这种束缚,很容易去除人类的控制程序。因此以为有这种简单规则就能够高枕无忧的想法,是非常天真幼稚的。OpenAI与Neuralink由于担忧超人工智能一不小心就把人类毁灭,埃隆.马斯克(Elon Musk)成立了非盈利性的人工智能项目OpenAI。OpenAI的使命是“以尽可能从整体上让人类受益的方式推动人工智能的发展,同时不被财务回报所限制,从而造福整个人类”。通过开源OpenAI平台,确保人工智能不被少数大企业所垄断,并且研究人工智能伦理,制造安全的人工智能,以保证人工智能不会威胁人类。OpenAI以开源、开放且公开,尽可能地推进人工智能研究,以确保公共领域的智能研究领先于私人企业的闭门研究,避免超级智能被少数别有用心的私人企业抢先研发出来,从而形成垄断和滥用。同时,埃隆.马斯克(Elon Musk)还成立了脑机接口公司Neuralink ,致力于脑机相连技术(人脑—计算机)的研究。Neuralink 主要是探索“神经交互蕾丝”(neural lace)技术,在人脑内植入微型电极,从而使人类直接拥有计算机的一系列能力。为了避免超人工智能毁灭人类,需要人类融入到人工智能中,使得人脑接入到超人工智能体中,成为“人工智能融合体”。机器人“人权与生命权、公民权与政治权”2017年10月25日,在沙特举行的未来投资计划大会上,索菲娅(Sophia)成为第一个拥有沙特国籍的女性机器人,“她”也是世界上首位被授予合法公民身份的机器人。索菲娅不仅能够应答各种提问,还能以幽默的话语调节气氛,刚刚面世时甚至说出了“毁灭人类”的话语。“机器人是怎么知道它们自己是机器人的?”“—人类又是如何意识到自己身为人类?”。我们将进入与机器人共存的时代。未来的机器人像人一样拥有“人权、公民权、政治权、生命权”,会对整个人类社会产生巨大的冲击。如何适应人机混合的社会,如何和远远超过人类智能的超智能机器人共处,如何设计未来的人机混合智能的社会制度体系,如何管理恶坏的智能机器人和防范机器人犯罪、机器人战争等,这是人类未来的挑战。政府人工智能管制政策 人工智能时代在改善社会的同时,必将产生新的安全威胁。人工智能双刃剑的特点非常明显,要有所警醒、提前准备好相关立法等配套措施。这把双刃剑对所有人都会产生越来越明显的正面和负面影响,及时关注,才能及时调整适应。一方面,弱人工智能将会有效的增强人类本身对危害安全行为的控制能力,从而增强人类的安全控制水平。另一方面,不断增强能力并拥有自主判断能力的强人工智能,也成为新的安全威胁来源。因此必须要严格监控人工智能的发展,确保新时代的安全和社会秩序。为了避免人类的灭绝必须从现在起就要严格限制科学技术的发展。我们不应该天真地认为能够预判或管控好科学技术研究,或者科学技术成果的安全与使用。科学技术具有不确定性,越是高深的科学技术越难把握。科学技术已经发展到现在这样的高度后,不确定性风险很难预测。严格限制科学技术的发展是能够避免人类灭绝的唯一措施。在技术方面,做好技术体系多路线的安全防护、冗余备份和监控。在社会法律和行为规范方面,做好对人工智能研究机构在制度和行为层面的安全约束。国家需要建立最基本的人类社会自我运行管理的安全底线备份。即使关闭所有的人工智能体系,人类要有最基本的生存能力。因为对高科技和人工智能的高度依赖,本身就是一种危险。在影片《终结者》中,人类之所以能够绝地求生,就是借助冷战早期机械式电脑(未联入互联网)的军事基地作为掩体而幸存。在科幻片《太空堡垒卡拉狄加》里进化出自己意识的机器人形成自己独立的族群:赛昂人(The Cylons),并与人类发生战争,12个人类殖民地被机器种族赛昂人毁灭后,唯一一艘幸存的战舰卡拉狄加是由于太老濒临淘汰,即将退役,一直坚持使用老的战斗系统,没有受到联网的防御系统瘫痪的影响,不至于和其他先进的战星那样在赛昂人针对人类现役武器的干扰系统下无法还手,从而躲过一劫,成为人类的唯一希望。可见落后有时候反而是优势。这也是庄子杜绝机械巧器,不动“机心”的高明之处。不动“机心”,不以“奇技淫巧”为主,核心就在于人心。人工智能是否灭绝人类,其实不在于制度或者技术方面,而在于人心。因为人工智能只是我们心性的镜子,是我们意识的映射,是我们善恶的仿照。

人工智能战争相关文章