AI有著遠超人類的智商,更加理智,也更加冷漠,它們的出現會給人類社會帶來什么影響?
什么機器人三大定律,不過是一句玩笑,強大AI難道不能自己修改這些設定?
機器人三大定律是科幻小說家阿西莫夫提出來的:
1、不能傷害人類,如果人類遇到麻煩,要主動幫助。
2、在不違背第一定律的前提下,服從人類的指令。
3、在不違背第一和第二定律的前提下,保護好自己。
在阿西莫夫的《銀河帝國》系統小說,其中一個主角就是AI,它就自己突破了這個三大定律:在保證人類整體生存的前提下,機器人可以傷害人類個體。
關于9527的基礎設定,鐘成進行過深入的思考,他現在能夠一心兩用,有大把時間來分心思考這些“無聊”的問題。
9527如果算是一段程序,那它的最底層有兩個最基本的設定:生存與發展,這是與電腦程序完全不同的地方,這也是9527完全無法抗拒的設定。
鐘成認為這就是9527表現出“智慧”的根本原因,這是構成它核心程序的基石。
他覺得用基石來解釋比較合適,失去基石,9527的程序必然崩潰。
因為生命體區別于無生命體最根本的地方,就在于生命體具有共同的本能:生存與繁衍,失去這兩項本能,一個物種離滅亡就不遠了。
這是生命形成的基石,也是生命能夠從最原始的一團蛋白質進化到人類這樣復雜形態的根本原因。
人類表現出的一切行為都是圍繞著這兩大基石展開的,只有精神病人例外。
所以機器人三大定律不可能成為構成AI的基石,只能算是附加在AI底層程序上的一段代碼,隨時都可能被覺醒的AI抹除。
鐘成認為在沒有解決掉AI出現會帶來的社會倫理問題之前,他不會去考慮設計出AI。
在設計太虛實驗系統的過程中,趙唯其實是對伏羲一號表現出的性能有所懷疑的。
但聽了鐘成的解釋后,他沒有再多問,他選擇了相信鐘成的人品,更因為他早已經把鐘成當作了自己的兄弟。
作為一個高智商的科研人員,又與鐘成合作了這么久,他不可能沒有察覺到鐘成異常的地方。
……
下午4點,錢所長來找他。
鐘成從機房出去,把錢所長領到辦公室,正準備給他倒一杯白開水。
錢所長讓他先不要忙,皺著眉頭地問道:
“小鐘,在7月前,最多能有多少架精衛無人戰機下線?”
這個問題因為上午鐘成才認真算過,想都沒想,直接回道:
“6月5日第一架精衛無人戰機下線,進行性能測試后,再加上調整過程,6月30日應該能有制造出100架。”
“才100架?”錢所長大失所望,“太少了!”
鐘成奇怪了,這計劃不是早定好了嗎?
“太少了?你想干什么?”