第一時間,陳耀安裝編程軟件。
這款名叫“宇宙”的編程軟件,是從黑科技U盤找到的,利用它,可以加快編程速度。
編寫代碼的時候,它會給你智能聯想、智能補充、智能修復。
996加班碼代碼不存在的,Bug不存在的。
要說配音軟件,網上一搜一大把,專業電影公司也有自己的專業配音軟件,效果也非常不錯。
陳耀開發的黑馬配音,究竟牛逼在哪里?
一句話總結——AI智能配音!
說白了,就是利用人工智能語音,代替配音師完成電影、動漫的配音。
如此智能的配音技術,別說在國內,全世界沒有一家公司能做得到。
因為,這里邊涉及到非常復雜的“自然語音識別”技術啊!
在國內,做“自然語音”技術,百度和訊飛毫無疑問是最領先的,兩家的語音輸入法,好多人都在用,背后的技術就是來自于他們強大的AI語音識別引擎。
在國外,語音技術最牛逼的是亞馬遜、谷歌和微軟,微軟小冰許多人都玩過。
這些公司已經是當今世界最前沿的科技公司了,但他們依然無法做出真正的智能配音軟件。
想要讓智能語音,像是真人一樣完成電影、動漫的配音,需要解決兩大難題。
第一,超高的智能化。
現在的所謂人工智能,直白點說,還真有點傻。
智能音箱,你向智能音箱提問,答案往往讓人感覺滑稽可笑。
例如,你問問智能音箱:“在你的腳下有一張5元和一張100元的鈔票,你會撿哪一張?”
語音助手的回答,要么是“不知道啦。”要么回答:“撿100元。”
正確的答案應該是:兩張都撿了!
再問問智能音箱:“馬路上開車,突然從左邊沖出來一個人,右邊沖出來一條狗,車子應該向左轉還是向右轉?”
智能音箱會回答不知道啦,要么回答向右轉。
真正的答案應該是:剎車!
現在的所謂人工智能,給人的感覺更像是個智障,或者說是個死腦筋的呆子。
所有問答都是程序員在背后設定好的,不是真正的神經網絡智能。
所謂的深度學習,也做不到靈活變通。
例如問他一個腦筋急轉彎。
小明的爸爸有四個兒子,大兒子叫大明,二兒子叫二明,三兒子叫三明,四兒子叫什么?
語音助手根據邏輯算法,它會回答:“四明!”
有一種東西叫大數據,程序員完全可以把所有的腦筋急轉彎采集下來啊,那樣,上面的問題,智能音箱不就可以答對了嗎?
但要是我換一個詢問方式。
有一個人叫傻筆,傻筆的爸爸有三個兒子,大兒子叫大筆,二兒子叫二筆,三兒子叫什么?
然后智能音箱又不會回答了,要么不知道,要么胡說八道。
雖然配音不需要什么高智商,也不需要它回答問題,但它至少也要有圖象分辨能力。
給電影、動漫做配音,配音師需要根據里邊的場景,人物的表情等等調整說話的語氣、語調。
現在的人工智能在文字識別很強,基本可以做到100%,看著電影字幕,機器人也能配音。
但問題是……
識別不了電影動漫里邊的景象、表情,效果就會非常差勁。
在動態圖象識別方面,當今世界沒有一家公司真正做得好。