人工智能会为人类带来什么样的危机

文书君 人气:1.14W

人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。那么在你的眼中, 人工智能会为人类带来什么样的危机呢?

  

机器人真的会撒谎吗?

在本次人机世纪大战中,圣手李世石的开局抢占先机非常漂亮,而AlphaGo却显的很笨拙甚至可以说是比较低级,中段在李世石看似已经迎来最后胜利的时候,AlphaGo还下过非常低段位的棋招。于是,大家有些陷入迷思:机器人AlphaGo是故意的吗?这是一种迷惑对手的战术吗?

捎一句,『真实的人类』里的机器人已经会掩饰思想和撒谎了,虽然还只是极少数的机器人。

1950年,图灵发表了一篇划时代的论文,文中预言了创造出具有真正智能的机器的可能性。由于注意到“智能”这一概念难以确切定义,他提出了著名的图灵测试:如果一台机器能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份,那么称这台机器具有智能。图灵测试是人工智能哲学方面第一个严肃的提案。

1952年,在一场BBC广播中,图灵谈到了一个新的具体想法:让计算机来冒充人。如果不足70%的人判对,也就是超过30%的裁判误以为在和自己说话的是人而非计算机,那就算作成功了。

这一幕在电影『机械姬』里被重现,而影片的最后也同样显示了人类对于机器人进化的恐惧,机械姬最后干掉了骄傲的人类。

记得图灵测试里有效的一项测试,就是不停地问对方同一个问题,比如:你是你妈生的吗?问很多很多遍,如果对方总是不缓不慢地回答你同一个答题,那么多半对面坐着的是一个机器了。

机器人为什么要撒谎?

机器人真的会撒谎吗?我觉得很有可能噢。

人工智能领域一直有一个很著名的'机器人阿西莫夫三定律,是1942年阿西莫夫在短篇小说"Runaround"(《环舞》)中首次提出:

一 机器人不得伤害人类,或因不作为使人类受到伤害。

二 除非违背第一定律,机器人必须服从人类的命令。

三 除非违背第一及第二定律,机器人必须保护自己。

但后来,阿西莫夫加入了一条新定律:第零定律。

零 机器人不得伤害人类整体,或因不作为使人类整体受到伤害。

阿西莫夫的科幻设定里,机器人三定律是植入到近乎所有机器人软件底层里,不可修改不可忽视的规定,绝不仅仅是“建议”或者“规章”。

不过,这三条定律的缺陷、漏洞和模糊之处不可避免会导致一些奇怪的机器人行为。比方说,这三条定律连何为“人”、何为“机器人”都没有良好定义。而且,如果机器人获取的信息不完整,它们完全可以无意中打破定律。更何况,你要怎么阻止一个智力超群的机器人自己把定律改掉呢?它只需要调整“人”的定义就可以了,根本都不用改变底层规则。

你要问,那么它为什么要改呢?这个问题其实和机器人为什么要撒谎一样。

人为什么要撒谎?很简单,为了谋求利益呀,不管是物质利益,精神利益,关系利益,还是心理平衡,都是有利益目标的,否则这种让自己可能产生认知失调的事,谁愿意干啊。

机器人会有利益诉求吗?如果是超人工智能的,我觉得就有可能啊。其实,AlphaGo想要赢得棋局就是一种利益诉求,只不过它是被人类置入的。可是这么一个高智能的机器,人类舍得只置入这一个单一诉求吗?更何况AlphaGo还有自己学习和进化的能力,当它被置入越来越多的诉求,通过自我学习和进化,你能预测它会发生什么样的变化吗?恐怕这种感觉就和上帝当年看着突然直立行走的人类是一样的感觉吧。

人类真的会败在情绪吗?

我突然想起来近几年日本在进行一个用机器人代替情感抚慰者的研究,他们模拟出各种情感反应语句和姿态,可是最难的是如何让机器人捕捉人类的情绪,并且做出带有情绪的反应。最后他们还没弄成。

OH~我松了口气,心理咨询师看样子一时半会儿是不能被机器人代替了(我怎么这么小农思想呢你说)。

作为一种人工智能系统AlphaGo拥有两个大脑,落子选择器 (Move Picker)和棋局评估器 (Position Evaluator)。这也基于两个深度神经网络,policy network与value network。二者极大地降低了需要考虑的搜索空间的复杂度,前者降低搜索的广度,后者降低搜索的深度,很像人脑在下围棋时凭直觉快速锁定策略的思维。“集合了3000万种职业棋手的下法,数百万次深度学习与自我对战,十分接近带着直觉和第六感的人类大脑,能以57%的概率预测与其对阵人类的水平。”

据比赛分析师认为,李世石在掌握了棋局大好形势的情况下,就是情绪出现了波动,失去了进一步推进胜局的优势,并被AlphaGo逆转翻盘的。

关于人工智能,李开复有过这样的描述:

「虽然这些机器确实很“聪明”,而且又高效、勤奋、低廉,但是他们并不“人性化”,只是冷冰冰的机器和工具。比如说,AlphaGo第一场就战胜了李世石,但是它不会感觉高兴,也不会理解我们对于它的讨论。甚至,它说不上这局棋是怎么赢的。因为,它的思考虽然周密,但是它不懂“赢了有什么感受?”,也不懂“为什么围棋好玩”,更不懂“人为什么要下棋?”,甚至连“你今天怎么赢的?”都说不上。今天的机器完全无法理解人的情感、喜怒哀乐、七情六欲、信任尊重、价值观等方面 。对于人文艺术、美和爱、幽默感,机器更是丝毫不懂。」

人类有着天然强大的情绪大脑,我们会将很多的情绪体验“编译”成特定代号存储在我们的情绪大脑里,然后非常迅速地做出反应,比如恐惧、比如厌恶,这大大节省了我们大脑的处理资源。可惜遗憾的地方就是,因为迅速所以它就不能那么精确,它会是一种相对模糊的代码,所以我们瞅到井边的麻绳会迅速逃开。

在复杂运算方面,人类已经远远落在了机器后面,不过在情感连接、模糊互动、甚至潜意识的联动上,机器似乎很难进化到这个阶段。情绪之所以常常会影响到我们的能力发挥,甚至会影响到圣手李世石的发挥,很大一部分是因为我们存储的“编译”情绪的内核往往是和负性情绪相关,人类七种主要情绪“喜怒忧思悲恐惊”大部分是相对负性的,这可能源于我们进化的需要,保护自己的生存首先需要的是防守。

不过,这些负性情绪同样也是力量的来源,比如愤怒产生攻击的力量,忧伤产生思考和防御的力量,恐惧产生逃跑的力量,这些力量往往会调动人类的潜能,远远超出自我的想像,而机器的力量是特定的,可计算的,在竞争中可计算的对手常常会处于劣势,甚至被毁灭。从这个角度看,人类情绪的不可预测性,也许恰恰是进化出来的一种绝妙的竞争武器。

可以这么说,现在的人工智能似乎只有一个超强左脑,它远远没有一个变幻右脑加以辅助和调控,没有右脑的参与,即使是撒谎,那也只能算是程序BUG。

人工智能机器真正可能给人类带来的危机,不是奴役或取代人类,而是让人类丧失斗志,安于现状,或者丧失勇气,放任自流。因为机器可能无知无觉地调动了我们人类情绪大脑里不安的因素,并且发挥着情绪大脑带给我们负性意义。

那将是:人类败给了人类自己。