這種腦補的能力,其實就是腦部神經在作祟。
如果將這種腦補能力可控化,也就是利用生物動力2型芯片,向腦神經傳遞指令,模擬出特別的圖像信息,再加上智能薄膜在視網膜上進行光線的控制成像,真實和虛擬的界限就會徹底模糊。
用戶就會真的在眼里“看到”現實中沒有的東西,比如一個對話框,一個活生生的“人”,或者另一個自己。
那與遠在其他城市的朋友進行面對面的“虛擬視頻”通話,就成為了現實。
這種“虛擬視頻”通話,能夠讓用戶真的看到朋友站在面前和自己聊天。
不過真實的情況卻是,聊天的人確實是朋友,但是瑞康只進行了聲音信號的傳遞。
用戶在眼前看到的這個“虛擬現實的畫面”,其實是你記憶中最近一次見到這位朋友時,他的樣貌,再自己進行一番著裝的腦補,呈現出來的。
也就是這個虛擬形象,其實是生物動力2型芯片調用了你腦袋中關于這個朋友的記憶,然后干擾神經中樞,在眼前呈現出一個朋友的虛擬形象。
這算是一種取巧的方式。
沒辦法,誰叫目前的科技水平,根本無法做到3D全息投影,以及遠距離的真人實時投影呢。
陳長安壓根就沒點這個科技樹。
如果想要做到虛擬現實,那就只能用這種取巧的方式,確實是做到讓朋友出現在了眼前,但是卻沒有完全出現。
利用智能眼膜進行虛擬現實的上網,原理也是同樣如此。
各種社交媒體的APP對話框,其實都是調用了用戶自己腦袋中的記憶,在腦子里呈現出來APP的樣子。
比如QQ,會在眼前呈現出一個QQ聊天的窗口,窗口的樣子其實和手機客戶端幾乎一樣。
但是內容數據,卻不一樣,是實時更新的,有人發信息過來,就會在眼前的客戶端中出現未讀信息,用戶也可以利用意念進行消息的回復。
這是怎么做到的?
其實道理很簡單,就是一種真實和想象交互的方式。
就是一種將人體的大腦,當做一臺電腦來用的做法。
人的大腦本身是存儲了非常多信息的。
一個個社交APP,其實都以記憶的方式,保存在了腦海中,就像是本地文件一樣。
打個比方。
當年要使用QQ時,生物動力2型芯片就會調用你腦海中關于QQ這個社交軟件的印象,在眼前呈現出了一個QQ的虛擬聊天窗口,這個窗口其實是你記憶中QQ的樣子。
但是上面呈現的聊天信息,卻是生物動力2型芯片聯網之后,實時更新的,全都是真實的。
也就是說,客戶端,其實是利用你本身的記憶,模擬出來的,但是客戶端上呈現的信息,卻是真實從網絡上獲取的。
這才是真正的現實和虛擬交互!