簡單來說,她原本是一個人,名字叫做羅賓·明·切斯特,父親是美國著名的科學家,人工智能之父,麥卡·明·切斯特。
麥卡教授是人工智能研發的泰斗級人物,早在二十年前就投入于人工智能研發這場偉大的事業,但是就像其他的科學家一樣,研發的進展非常緩慢,或者說幾乎沒有進展,這種情況一直持續到他發現了局限思維理論。
所謂的局限思維理論,就是字面的意思,思維受到局限的情況下,創造性就相應的降低了。
眾所周知,著名的科幻作家阿西莫夫,曾經提出過機器人三原則,具體如下:
第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀。
第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾。
第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。
這三條看起來沒有絲毫問題,因為這解決了人類研制出的智
(本章未完,請翻頁)
能機器人而不會被它們威脅和取代的“技術奇點”問題。
所謂的“技術奇點”問題,就是指人類創造出的機器人的智力和強大程度遠遠的超過了人類自身,而且只能機器人有絕對超越人類的學習能力以及繁殖能力,在這種情況下,機器人的文明程度也會迅速的超過人類,從低文明必然被高文明取代的理論出發,機器人必然會取代人類,最終人類會走向要么被滅亡,要么被奴役的地步。
因此機器人三原則被提出來,而且被廣大科學家接受,而人工智能作為機器人的理論或者也叫軟件支持,自然也要接受這一點。
但恰恰,就是因為這一點,才讓所有的科學家研制出的人工智能成為傻子。
為什么這么說呢?簡單來講,就是每個具有創造性的個體,必須有獨立的思想,獨立的性格,這是個體發展的前提,如果思想被局限,那么這個個體就幾乎沒有創造性,就比如此前的貂蟬,我給她限定了那么多的條件,她就無法給出我做出一個滿意的方案,因為在她看來那些條件都是硬性的,無法突破。
幫助且不能傷害人類,這在此前的所有人工智能的思維程序上設定位等級最高,也就是這條件無法突破,這就導致了此前的人工智能根本無法發散思維,因為人工智能的任何想法都會在不知不覺之間被這條公式否決。
舉個簡單的例子,就說蓋房子吧!我們大家都知道房屋有抗震等級,但是這個等級的取舍目前來說是人類自己設定的限制,兩個原則,第一是保證房屋能正常使用,第二就是在第一條的前提下保證房屋相對安全。
注意這里是相對安全,并不是絕對,如果把這個詞改為絕對,那么問題就沒法解決了,因為地震帶只是相對的,而且地震等級也是相對的。
比如一個地方幾百年來沒有地震,那么你能確定這個地方一定不會發生地震嗎?答案肯定不可以,世上沒有百分之百的事。
再比如,一個地方此前的最大震級是8級,那么你能確定這個地方下一次地震就不會超過8級嗎?肯定也不可以,而且從某種程度上來說,如果一個地震帶上的某一個地方,多年來沒有發生小規模地震,那么這個地方爆發大地震的概率會隨著時間逐漸提升。
那么好了,如果此時,讓人工智能給我們設計一個房子,那么它會怎么做?不能傷害人類作為前提,那么他設計出來的房子幾乎就是個混凝土盒子,什么都沒有,連窗戶估計都開不了,頂多算個炮樓,這種房子對人類當前生活來說是沒有什么意義,還不如挖個地道鉆進去。
那有人說,我給它設定條件,讓它修改思路不行嗎?
這當然沒問題,但是這樣的話,他還是人工智能嗎?所有的條件都是你設定的,它只是個干活的機器而已,如果這都算人工智能的話,那么我們早就有了,比如生產車間里的全自動機床,主要程序輸入的正確,它就會按部就班的干活。
可能有人說這個條件有些局限,算是特例,那我們不妨再隨便找幾個,比方說機器人警察,抓歹徒,歹徒忽然間拿著一把刀子對準自己,威脅機器人離開,你說機器人該不該離開?再比方說機器人醫生,沒有任何一個手術能保證100%成功,那么機器人是不是就不敢做手術了,再細一點,如果是一個女人難產呢?大人小孩兒只能活一個,保大還是保小?
很多問題人類自己都無法取舍,你怎么能讓人類設定的機器人做出完美的取舍呢?
世上的很多事情,細思極恐,我們無法保證不會有特殊情況發生,而只要考慮這些特殊情況,那么機器人就無法正常工作,而這些特殊情況又是不可忽略的,因此機器人三原則在局限思維理論面前就顯得蒼白無力了。
(本章完)