突然他猛地瞪大了眼睛,因為他忽然想起一個問題,那就是這飛機本質上是兩個駕駛員。一個是兩千公里外的操作員,一個是ai,并且掛載上武器以后這些飛機的重心會有所改變。難道是操作系統下達的指令讓飛機自己的ai分析后覺得在這種情況下覺得已經超出了安全駕駛的范疇?
換言之也就是這款飛機升級之后作戰半徑達到兩千公里的同時,也就意味著更大的網絡延遲,所以增加了ai而這些ai的植入只是為了確保戰機的絕對安全。換言之,ai把高速情況下的轉變機翼當作正常操作,而預設的ai認為掛載彈藥不合理導致重心有所偏移所以拒絕了執行機翼轉換的命令?
最后楚天明琢磨明白了,也就是飛機的ai聽到操作員的命令晚,也就是一旦到達1500公里的時候網絡延遲和不穩定的情況就有可能在微秒級的數值中發生變化,并且還是13馬赫的這種極端速度。這時候ai聽到的全都是過時的命令,而這種過時的命令又會違背ai安全駕駛的設計原則。因此,ai系統可能會拒絕執行那些過時且可能導致飛行不穩定或危險的指令。楚天明意識到,ai的這種拒絕行為,實際上是其安全特性的一部分,設計用來防止因網絡延遲或信號錯誤導致的潛在災難性后果。
他進一步推測,ai系統可能內置了多種安全協議和故障檢測算法,這些算法能夠在檢測到飛行狀態異常或與預期飛行參數不符時,自動中止或調整飛行動作。例如,如果ai檢測到轉換機翼的動作會導致飛機超出其飛行包線,或者檢測到掛載武器后的重心變化影響了飛機的氣動性能和操控性,ai就可能會選擇不執行機翼轉換命令。
楚天明還考慮到,ai系統的決策邏輯可能還包括對戰機當前環境的全面評估,如氣象條件、敵我態勢、戰場環境等。如果ai分析認為執行機翼轉換命令會降低飛機的生存能力或完成任務的概率,它也可能會選擇不執行。
此外,ai系統的自主學習能力也可能是它拒絕指令的原因。在不斷的飛行實踐中,ai可能已經學習到了在某些特定情況下,保持當前機翼狀態比轉換機翼更有利于飛行安全和任務執行。
“哈哈,我明白了。最重要的就是,做掛載武器的實驗就是要模擬各種極端環境。”楚天明說到這里苦笑著拍了拍自己的腦門,最后得意的自言自語道,“可是ai覺得是在人為的給飛行安全造成麻煩。而且飛行的數據量太大了,飛不了一會兒ai就‘忘了‘這是在做實驗。”
楚天明無奈的搖了搖頭,然后放下自己的啤酒,開始靈巧的在平板電腦上寫出,“應增加通訊信息的后綴或者前綴,如加入括號,(飛行實驗),(優先進行xx指令)....”可是楚天明寫到這里卻猶豫了,因為每條信息加幾個字是方便ai理解了,可是一旦敵人截獲這些信號,字數越多破解時對比的信息也就越多。一旦敵人破解了信息的格式,那就麻煩了,敵人反而有可能命令無人機下降高度甚至在他們的機場降落。當然這其中還涉及到對導航的信息的篡改,以及對傳感器的干擾,甚至是直接入侵控制系統。
楚天明停下了手中的動作,深深地吸了一口氣。他意識到,這個問題不僅僅是技術層面的問題,更涉及到戰略安全和信息戰的問題。他繼續在平板電腦上寫道:
“(1)針對通訊信息加密,采用動態加密算法,確保指令的保密性和抗截獲能力。
(2)在ai系統中嵌入一套緊急指令識別機制,當接收到帶有特定標識的指令時,ai能夠迅速識別并優先執行,同時確保這些指令的安全性。
(3)對ai進行深度訓練,提高其在復雜戰場環境下的判斷能力和適應能力,使其能夠在極端情況下正確執行指令。
(4)研究敵我信號識別技術,確保我方無人機在接收到指令時,能夠準確判斷指令來源,防止敵對方篡改指令。