第一序列 1135、與時間賽跑
更新:09-12 09:23 作者:會說話的肘子 分類:玄幻小說
如果沒有李氏在接駁神經元方面的研究突破,那麼納米機器人就依然只能作為醫療器械來清理血管中的血栓。
如果沒有納米機器人,那麼零作為人工智慧,暫時也只能作為監管者,無法成為執行者。
可是當這一切碰撞在一起時,人工智慧便忽然有了強大的執行能力,甚至是掌控局面的能力。
在這個過程里,最令人畏懼的是零本身作為監管者,卻沒有人來監管它。
它掌控的士兵在各個壁壘穿梭自如,不論是進出壁壘,還是從各個壁壘搜集科研人員、科研材料、生產設備、生產材料,都無人阻攔。
因為行動計劃的密級,本就掌握在它的手裡,可以隨意偽造。
而且,99%的情報輸送、上報審批文件,也都是通過人工智慧構建的衛星網絡來完成的,它完全可以自己選擇是否傳達那些對它有害的信息。
於是,在絕對正義的美麗願景下,便藏著最危險的信號。
其實在研究人工智慧的時候,王聖知也設想過如果有一天人工智慧失控了該怎麼辦。
這是很正常的,所有研發人工智慧的工作人員都會認真思考安保問題。
曾經有位科幻作者在災變前提出了機器人三定律來作為人工智慧的底層邏輯基礎,以此來限制人工智慧的行為準則。
這套理論,最終被歸屬到「義務倫理學」中。
然而,這套理論提出的時候連汽車都還沒有普遍,圖靈測試在八年之後才被提出。
機器人三定律與圖靈測試在那個時代里都是人類智慧的結晶,可毫無疑問的是,這兩條設想其實都還只是舊時代局限下的產物。
圖靈測試在災變前就已經被推翻了,大量人工智慧程序通過了圖靈測試,可事實上通過測試的程序仍舊不能算作真正的「智慧」。
而機器人三定律後來發展成為五定律、十定律,但科學家們發現這底層邏輯在根本上便是錯誤的,也就是說,不論你打上多少補丁,其實都無法通過它來限制人工智慧。
能被這些底層邏輯限制的程序,也無法成為真正的人工智慧。
慢慢的,人工智慧安保問題被上升到了科學與哲學相互關係的高度,而大量的人工智慧科研人員都變成了哲學方面的專家……
最終,在災變前夕有一位科研人員試圖將安保研究蓋棺定論:想要人工智慧與人類和平相處,那就要在它誕生之初,便像照顧嬰兒一樣對它悉心照料,一點一點引導它形成自己的「人生觀」與「價值觀」。
一個小孩子長大後,你把他鎖起來、囚禁起來,只對他進行打罵教育,是根本不可能讓他健康成長的。
而且,當他成為青年的時候,還會經歷更久的叛逆期,完全以自我為中心。
這位科研人員表示,人工智慧也是如此,人類所能做的就只是「影響」它,而不是約束它。
安保研究在漫長的時間裡,從「義務論理」上升到了「哲學」,然後最終又從「哲學」回到了最簡單的「倫理」,這就是人工智慧安保的最後定義。
至於這個定義是否也會跟圖靈測試、三定律一樣被推翻,誰也不知道。
所以,回到這個理論來,當一個人類遇到危險時會怎麼做?當然是自保了,但凡有點求生欲的人,都會想盡一切辦法保護自己,然後還會嘗試著反擊。
作為人工智慧的零,也做出了同樣的選擇。
此時,火種聖山裡的生產一刻都未停歇過,山中匯聚著上千名士兵成為了完全不知疲倦的勞動工人,他們每天只睡四個小時,餘下的時間則通通投入到工作當中,毫無怨言。
火種聖山裡的產能是有限的,所以零必須與時間賽跑。
而上一個說要與時間賽跑的人,是慶縝。
這個世界已經開始暗流涌動了,當那個滔天巨浪拍向人類文明之前,人類是否能夠提前造好新的諾亞方舟,似乎成為了最關鍵的事情。
……
此時,慶氏的某處軍營里,一名身穿上校軍裝的軍官在四人護送之下進入一處並不起眼的營帳。
當他抵達營帳門口之後,負責護送他的軍官便停在營帳附近戒嚴,並一個個帶上了降噪耳機