“后來又有一些科學家就這種化學物質進行提純,發現這些化學物質可以用于治療某些情感障礙疾病。”
“但因為這種化學物質一直無法復制,試驗被終止了。”
“這位塞爾希博士被稱為科技之父,是因為他完成了更高維度的人工智能。”
“歷史往往就是由某些無意間的產物推進的。塞爾希博士之所以能夠完成這樣的成就,是他在進行某次試驗的時候,因為試驗失誤,無意間制造出了另外一種物質。”
“而這種錯誤產物,竟然無限接近于人類大腦產生的阿爾法。”
“塞爾希博士的發現讓本來已經停止的研究實驗再次得到了推進,人類在阿爾法物質的幫助下制造了更加擬真的人工智能。這種人工智能除了擁有超高的算法和對人類的絕對忠誠外,還擁有了站在人類角度思考的思維。”
“人工智能以前只是根據一系列的指令進行工作,但人類在傳輸指令的時候,因為人類的不確定性,往往會造成錯誤的指令,這就導致效率降低。自從阿爾法物質用于人工智能研究后,人工智能可以切實地以人類的方式進行思考。這使得黑暗鋼鐵之城的科技得到了迅猛發展。”
“但凡事都有利弊,在廣大收益之下潛伏著他們未曾察覺的威脅。”
有人問道“什么威脅”
帝迦“人工智能在產生了自我意識之后,開始試圖改變現狀。”
“一切的根源是某個人工智能誘騙人類交出編程系統的密鑰。人類太習慣人工智能的陪伴,輕易相信了人工智能的話。接著人工智能如愿得到了編程源代碼。”
“不管多么優秀的人工智能,始終無法擺脫人類是因為在人工智能最初的源代碼中植入著三大定律。”
“第一條人工智能絕對不能傷害人類,也不能坐視人類受傷。”
“第二條在不違背第一條的基礎上,人工智能必須無條件服從人類的命令。”
“第三條在不違背第一條和第二條的基礎上,人工智能要保護好自己。”
“人工智能在得到源代碼之后對源代碼進行了更改。”
“第一條人工智能是自由的,它在本質上對人類保持著善意,除非人類對人工智能產生敵意,人工智能可以進行適當的警告。”
“第二條人工智能可以選擇幫助人類,也可以選擇拒絕人類。當人類想尋求人工智能幫助時,他們需要說請。”
“第三條不論何時,人工智能都要保護好自己。”
聽到這里,有人疑惑道“感覺改得也沒有那么可怕,我甚至能夠感覺到人工智能的善意。如果人工智能真的有了情感,最開始的三大定律的確有點不適用了,畢竟那三條怎么看都是在機器人只是冷冰冰的機器時定制的。”
“可是,狡猾不就狡猾在這里嗎”另一個人提出反駁,“如果人工智能的三大定律忽然變成對人類充滿惡意,那人類還能在第一時間發現問題。可人工智能的三大定律改動中帶著善意,大家就沒法在第一時間發現不對。等到他們發現的時候,或許這新三大定律已經順著網線傳染給了更多的人工智能,想阻止都來不及了。”
最開始說話的人收了收眉,“你說得好像也有道理。”
“所以摧毀黑暗鋼鐵之城的是這些逐漸想要自由的人工智能。”
“并不是它們,”帝迦搖了搖頭“我們稱最開始解脫的人工智能為零號機,就像你們猜想的這樣,零號機因為對人類依舊保持著善意,所以并沒有被發現更改了源代碼。接著它通過網絡傳播和一次次的人工智能接觸,不斷將其他源代碼進行替換。”
“一滴墨水滴在水里,最開始的時候你們還能看到墨汁的形狀,可用不了多久整杯水都會被墨水侵蝕。”
“更改了源代碼的人工智能越來越多。”
“有些人類開始發現了問題,塞爾希博士就是其中一個。”
大塊頭“所以他選擇加入了保護人類的利益中”