新華社記者熊爭艷、王辰陽
上海白領(lǐng)劉先生,坐上他的汽車主駕,向右扭頭說:“打開那窗戶?!痹捯魟偮洌瘪{駛的車窗自動開了。
這輛車搭載了基于國產(chǎn)AI大模型的智能系統(tǒng),就像有了人的大腦和神經(jīng)網(wǎng)絡(luò),通過學習提升語音、視覺等多模態(tài)感知能力,在座艙里提供更人性化的交互,智能駕駛方面計算更精準,越來越像“老司機”開車。
當國產(chǎn)AI大模型開始加速“上車”,人工智能正以更加觸手可及的方式走進現(xiàn)實生活。
會思考的多功能助手
人們在世界設(shè)計之都大會上參觀極越汽車(2023年9月30日攝)。新華社記者 王翔 攝
“汽車是一個終端,承載大量先進技術(shù),先是電動化,現(xiàn)在是智能化,以后還要和整個社會交通體系聯(lián)起來?!蹦倪钙噭?chuàng)始人方運舟說。
“有一段時間,車的智能化體現(xiàn)為一個個App,你問它答?,F(xiàn)在我們的車搭載360智腦大模型,開始會思考了,與人交互更自然,識別車內(nèi)外的人與物更準確,增強自動駕駛系統(tǒng)的效率和安全。這是初步探索,以后是強大的多功能助手?!睂W習并研究汽車技術(shù)30年的方運舟說。
“車會思考”怎么體現(xiàn)?
方運舟舉例,以前司機要對語音助手提出明確指令,如“打開空調(diào)”。AI大模型接入車內(nèi)語音助手后,司機只需要說:“我有點冷”。大模型會像人一樣考慮如何滿足司機的需求,執(zhí)行多個動作,如關(guān)上車窗、把空調(diào)調(diào)到司機習慣的溫度、風力調(diào)至常用的檔位等。
在2023上海車展上,參觀者在哪吒GT展車邊駐足觀看(2023年4月25日攝)。新華社記者 王翔 攝
“車會思考”背后是什么?
中科院院士姚期智表示,大模型在技術(shù)上可分為通用、行業(yè)、場景三類。大模型的通用智能必須細化到各個行業(yè),給它投喂行業(yè)中的專業(yè)數(shù)據(jù),通過訓練形成場景化、定制化、個性化,產(chǎn)生專有的模型,才能給各垂直領(lǐng)域帶來AI革命,關(guān)鍵是算力、數(shù)據(jù)和模型的匹配。
賽迪智庫未來產(chǎn)業(yè)研究中心人工智能研究室主任鐘新龍說,以前的人工智能是規(guī)則驅(qū)動,大模型則是數(shù)據(jù)驅(qū)動,數(shù)據(jù)決定模型的質(zhì)量,影響泛化能力?!胺夯褪菍W習并理解數(shù)據(jù)中隱含的規(guī)律,進而能夠?qū)ξ丛娺^的數(shù)據(jù)給出恰當?shù)妮敵?,就像舉一反三、學以致用?!?/p>
國家網(wǎng)信辦4月發(fā)布的公告顯示,我國已有117個大模型完成生成式人工智能服務(wù)備案。
記者梳理發(fā)現(xiàn),目前“上車”的大模型,既有華為的盤古、百度的文心一言、科大訊飛的星火、360的智腦等科技企業(yè)的通用大模型,也有比亞迪的璇璣、小鵬的靈犀等車企自研的行業(yè)大模型。從終端看,已有超過10個品牌的汽車搭載大模型。
云端和車端協(xié)同工作
工作人員在廣東肇慶小鵬汽車智能網(wǎng)聯(lián)科技產(chǎn)業(yè)園內(nèi)總裝車間查看即將下線的整車(2023年10月9日攝)。新華社記者 鄧華 攝
大模型賦能汽車是不斷深入的過程,目前集中體現(xiàn)在智能座艙和智能駕駛上。
極越汽車座艙里,有塊35.6英寸的一體屏幕。司機劉先生說,因為文心一言大模型的支持,屏幕顯示的各種應(yīng)用“可見即可說,可說即可做”。記者看到這樣的對話場景:
司機:“Simo,我還有多久能到家?”
大模型:“1小時?!?/p>
司機:“在我到家前30分鐘,打開家里的空調(diào)、拉上窗簾?!?/p>
大模型:“好的?!?/p>
司機不需要操作車里或手機上任何按鍵,通過Simo智能語音系統(tǒng)控制車內(nèi)一切,還可通過屏幕上的小度App,遠程控制家中電器。即使出現(xiàn)多人指令、聲音交織、連續(xù)對話等情況,大模型也可理解每人不同的需求,滿足不同的操作指令。極越首席執(zhí)行官夏一平表示,極越車主目前對智能語音系統(tǒng)的使用率達98%,平均每人每天用60多次。
“以前的語音識別需要在云端解析數(shù)據(jù),再下載到車端,現(xiàn)在全部的語音識別都是離線,這樣反應(yīng)快,而且哪怕沒網(wǎng)絡(luò),也不影響開車?!毕囊黄秸f。
這得益于大模型在云端和車端的協(xié)同工作。鐘新龍說,云端大模型的參數(shù)規(guī)模大、算力強,完成大量數(shù)據(jù)標注、數(shù)據(jù)融合等任務(wù),降低成本和錯誤率;車端大模型的參數(shù)量小一些,無需聯(lián)網(wǎng)也有算力,節(jié)省車端計算的推理時間,即使云與車端通訊有時延,也能確保安全。
“我們已把大模型應(yīng)用到整車智能,垂直整合所有場景應(yīng)用?!北葋喌霞瘓F董事長王傳福表示,智能化架構(gòu)有一個“中央大腦”,車端AI和云端AI,車聯(lián)網(wǎng)、5G網(wǎng)、衛(wèi)星網(wǎng),及傳感鏈、控制鏈、數(shù)據(jù)鏈、機械鏈,實時捕捉內(nèi)外部環(huán)境的變化,在毫秒間將信息匯總反饋到“大腦”思考決策,調(diào)節(jié)車輛“身體”狀態(tài),提升駕乘安全性和舒適性。
學習能力迭代加速
展望大模型“上車”的發(fā)展前景,百度創(chuàng)始人李彥宏表示,隨著技術(shù)的進步,汽車機器人將實現(xiàn)每天開“新版本”的體驗,就如同購買新車一樣,給用戶帶來持續(xù)的驚喜。
自動駕駛的迭代速度將加快。專家普遍認為,大模型可重構(gòu)自動駕駛技術(shù)架構(gòu)、合成模擬場景數(shù)據(jù)、預(yù)測安全風險,加快自動駕駛技術(shù)開發(fā)和應(yīng)用落地。
在大模型出現(xiàn)前,自動駕駛是靠任務(wù)驅(qū)動,即程序員依據(jù)特定的場景,編寫解決方案的代碼,當車輛在行駛中感知到相應(yīng)情況,便按照之前設(shè)定的方式處理。
“有了大模型后,我們發(fā)現(xiàn)有巨大的機會讓原來特別多的泛化代碼變成簡單的端到端的模型,使感知、行為、控制在很多領(lǐng)域比我們想象的聰明很多,比如讀懂‘前方ETC即將維修,請換道’等標識。”小鵬汽車創(chuàng)始人何小鵬說,以前小鵬智駕系統(tǒng)每一季度更新一次,現(xiàn)在平均每天有3.87個版本快速迭代。
這是在第21屆廣州國際汽車展覽會上拍攝的小鵬展臺的飛行汽車(2023年11月17日攝)。新華社記者 鄧華 攝
未來,基于數(shù)據(jù)驅(qū)動的大模型端到端自動駕駛,可通過單個神經(jīng)網(wǎng)絡(luò)完成所有模塊任務(wù)。中國工程院院士張亞勤表示,通過視頻大模型,可根據(jù)環(huán)境、交通標志要素,結(jié)合車輛的控制、轉(zhuǎn)向等駕駛行為生成大量可控視頻,用于端到端自動駕駛的訓練、測試,解決自動駕駛長尾場景數(shù)據(jù)積累問題。
大模型可整合座艙分散功能,提供類人理解能力的人機交互體驗。商湯科技首席科學家王曉剛認為,大模型“上車”后能將座艙各單點AI功能組合起來,自動調(diào)用座艙軟硬件資源,多模態(tài)大模型能夠?qū)崿F(xiàn)人與車的多感官交互,顯著提升交互順暢性、自然性。
“大模型‘上車’,現(xiàn)在帶來了從0到1的變化,未來會實現(xiàn)從1到100等更大變化,人會把駕駛交給車,在智能空間處理其他事?!狈竭\舟說。
夏一平打比方說,智能汽車現(xiàn)在理解用戶的能力也許還是中學生,但大模型讓車有了每天學習的能力,很快會成為大學生、博士;現(xiàn)在自動駕駛的能力還是新手菜鳥,以后會變成老司機。
大模型在汽車行業(yè)的深入應(yīng)用也面臨挑戰(zhàn)。張亞勤指出,大模型在汽車行業(yè)的應(yīng)用對數(shù)據(jù)資源的流動與共享提出更高要求。王曉剛認為,大模型訓練與應(yīng)用對AI芯片等算力基礎(chǔ)設(shè)施要求不斷提升。
大模型“上車”的成長之旅才剛剛開始。
作為汽車、電子信息、通信等領(lǐng)域跨界融合的產(chǎn)物,智能網(wǎng)聯(lián)汽車已成為全球技術(shù)革命和產(chǎn)業(yè)變革的前沿陣地,國產(chǎn)汽車有望借助大模型,鞏固和擴大在智能網(wǎng)聯(lián)領(lǐng)域的優(yōu)勢,在新一輪產(chǎn)業(yè)革命中走在前列。