發布時間:2024-08-29作者來源:趙敏瀏覽:2183
近(jin)年來,伴隨著AI大模型的顯著技術進步,新(xin)一(yi)代(dai)人(ren)工(gong)智能(neng)成果倍出,如人(ren)工(gong)智能(neng)對(dui)話(hua)系統(tong)ChatGPT、文生視頻(pin)軟件Sora、文生音樂軟件Suno等AI新應(ying)用不(bu)斷給大(da)家帶來驚喜,在沖(chong)擊(ji)人們眼球(qiu)和(he)大(da)腦(nao)的(de)同時,也正在深刻影響著社(she)會的(de)千行百業。
2023年(nian)初(chu),[敏感詞(ci)]Open AI公司推出(chu)了基(ji)于(yu)大規模(mo)深(shen)層神經網絡、通(tong)過人工(gong)反饋(kui)的強化學習和人工(gong)提示的預訓練生成(cheng)式人工(gong)智(zhi)能對話系統ChatGPT,隨后又推出了它的更新(xin)版本GPT-4。
2023年(nian)底(di),Google推出的Gemini系(xi)統,性(xing)能表現也與GPT-4各有千秋。2024年推出(chu)的SORA,則可根據用戶提供的簡單文本生(sheng)成極(ji)為(wei)酷炫的短視頻;Anthropic研制(zhi)成功的(de)Claude 3更是(shi)全(quan)面超越了GPT-4。
有些人(ren)發出感慨,認為“硅基生命超越碳基生命的(de)日子(zi)為期不遠了”,甚(shen)至還(huan)有人(ren)提出了荒唐的(de)建議:面對人(ren)工智能的(de)發展,人(ren)類要么設(she)法(fa)逃離地球,要么就得學會臣服機器。
也有不少頭腦清醒的(de)人對此持有不同看法。他們認為(wei),當前GPT產品還存在很多問題,“一本正經地說胡話”就是其中一個特別突出的例子。眾所周知,理解能力是智能的前提。沒(mei)有(you)理解能(neng)力,不識(shi)真偽好歹,怎么能(neng)算是“有(you)了真正的(de)智(zhi)能(neng)”?!GPT“一本正經(jing)地講胡話”,說(shuo)明(ming)它沒有(you)理解能(neng)力,本身意味著巨(ju)大風險,因為“胡話”可能(neng)把用戶引(yin)到(dao)錯誤方向。實際上,GPT有(you)意回避了“內容(rong)理解(jie)”難題,轉而借助同樣(yang)也是基于樣(yang)本(ben)形式特征的(de)“統計方法”來生成(cheng)語句和選擇對(dui)話的(de)“候選答案”。這種缺乏理解(jie)能力的(de)GPT離真正的人(ren)工智能(neng)還相差甚遠(yuan),更談不上“全面(mian)超人(ren)”。
不少國(guo)內外的(de)專家、院士(shi)、學者,在肯定ChatGPT、Gemini等AI大(da)模型系統的巨大(da)進(jin)步的同時,也提(ti)出了質疑和反對意見。
2024年8月1日,中國科學院院士、清華大學人工智(zhi)能(neng)研(yan)究院名(ming)譽(yu)院長張鈸在(zai)ISC.AI 2024第十二屆互聯網安全大會的演講上表示,當前人(ren)工智能還沒有理論,只有發展出來針對的模型和算法,它們都是針對特定領域的,軟件或硬件也都是專用的,市場很小,因此到現在為止還沒有發展出一個大型的人工智能產業,問題就出在這里。
張鈸院士還指出,盡管深度學習在(zai)多個領域取得了顯著(zhu)成(cheng)就(jiu),但是仍然有不少局限性,包(bao)括(kuo)對(dui)大量標注數(shu)據的(de)依賴、模(mo)型的(de)可解釋性差以及容易受到(dao)對(dui)抗性攻擊的(de)影響。他提出,未來的改進方向應包括開發更高效的學習算法、增強模型的泛化能力、提高模型的可解釋性,并探索更符合人類認知機制的智能系統。
中國(guo)科學院院士、北京大學教授鄂維南,在2024年6月26日中國科學院第二十一次院士大會期間,旗幟鮮明地表示,當前人工智(zhi)能的技(ji)術路(lu)線(xian)是不可持(chi)續(xu)的,要想找到能使我國人工智能長期穩定發展的技術路線,必須探索人工智能的基本原理。
在(zai)2024年5月20日舉辦的搜狐科技年度論壇上,中國工程院院士鄔江興指出:“他(ta)們(men)團隊對當(dang)前[敏感詞]的10種大模(mo)型進行安(an)全分析發現,90%以上的主流大模型(xing)是不可(ke)信的,而(er)采用(yong)內生安(an)全(quan)構造(zao)的問題(ti),相(xiang)比單一安(an)全(quan)具(ju)有顯著優勢,達到(dao)了幾個數量級的提升。”
鄔江興(xing)指出,深度學(xue)習(xi)模型存在“三不可”基(ji)因缺(que)陷。分別是:
第一,不可解釋性,從數據提供AI模型訓練到知識規律,到獲得應用推理階段,工作原理到現在不明確,問(wen)題發現定位非常(chang)困難,AI系統中的安全問題比破解密碼還要難。
第二,不可判(pan)識性,因為AI對序列性強依賴,不具備對(dui)內容的判(pan)識(shi)能力,所以數據存在質量差異,來源差異,就可能導致訓練出的結果有差異。
第三,不(bu)可推(tui)論性,AI的(de)推理是從已知(zhi)數據(ju)中獲得規律性,難(nan)以勝任對中長期(qi)未來事物變遷的(de)預測(ce)和推理,只(zhi)是(shi)把現有的東西歸納起來(lai),看起來(lai)它聰明無(wu)比,但僅僅是(shi)比我看得多,并沒有產生什么新(xin)的認(ren)知。
Meta人工智能(neng)首席科學家楊立昆(Yann LeCun)認為,當(dang)前(qian)的(de)LLM(大語言模型)技術存在“理解邏輯能(neng)力極其(qi)有限”、“無法對物理世界建模”、“無法形成持久記憶”、“無法進行層級規劃推理”等重大缺陷,并稱單純追求推進LLM的發展“本質是上不安全”的,無法實現真正的AGI(通(tong)用人工(gong)智能)。
楊立昆(kun)指出(chu),現有的LLM盡管在自然語言處理、對話交互、文本創作等領域表現出色,但其仍只是一種“統計建模”技術,通過學習數據中的統計規律來完成相關任務,本(ben)質上并非具備真(zhen)正的(de)“理解”和“推理”能力(li)。結論是:目前的LLM路線無法通往AGI,且(qie)非(fei)常危(wei)險,顯示(shi)出業界對AI發展(zhan)路(lu)線圖的分歧。
同(tong)濟校長(chang)鄭(zheng)慶(qing)華認為(wei),大模(mo)型(xing)已經(jing)成為(wei)當前人工智能(neng)的[敏感詞],大模(mo)型(xing)之所以強(qiang),是依托了(le)大數(shu)據、大算力和強(qiang)算法,但是也(ye)面臨著四大固(gu)有缺陷:
缺陷一是過度(du)消耗數據(ju)和算力。大模型的參數量已達到萬億級別,訓練數據規模和算力消耗與參數規模成正比。
缺陷二是災難性(xing)遺忘。在新任務上訓練會損害之前任務的性能;在問題求解階段,無法記住處理過的數據或場景,比如在無人駕駛中,人腦對路況有記憶,但自動駕駛每次都要重新計算,并為此消耗了大量能量。
缺陷三是黑盒模型邏輯推(tui)理能力弱,大模型缺乏“分而治之”能力,在處理需要邏輯、數值推理等復雜問題時表現不佳,無法舉一反三、觸類旁通。
缺陷四是大模型不知道自己錯了,也不(bu)知道為(wei)啥(sha)錯,更(geng)做不(bu)到(dao)知錯就(jiu)改。以GPT4求解算(suan)術運算(suan)題(ti)的(de)實例為例,對于在(zai)1381和1453之(zhi)間選兩個隨機數相乘(cheng)的結果(guo)給出了錯誤(wu)答案,被指出錯誤(wu)后,無法(fa)定位是語料,還是訓練等原因,更無從修正。
中國科學院院士陳潤生在接受媒體采訪時,談及過他對國產大模型的看法。他認為,好的大模型要真正解決實際問題,并具有足夠的準確度和效率。中(zhong)國現在有上百個大模(mo)型,其中(zhong)的90%沒多大用處,只會加(jia)劇資源和人力(li)的浪費(fei),應該被(bei)淘汰。
原工信部副部長(chang)楊學(xue)山(shan)教授(shou)在2019年3月21日的人(ren)工(gong)智(zhi)能春季(ji)創新大(da)會(hui)上提到一個統(tong)計數(shu)據(ju)和一個重(zhong)要觀點,麻省理工(gong)近日對16625篇人工智能的論文進行了分析總結,得出結論是:近26年(nian)來人工智能領域并(bing)沒有出現新(xin)技(ji)術。他認為,人(ren)工智能到(dao)今天為止還(huan)沒有理論基礎,沒有形成類似經典物理學的“牛頓定律”式的理論,人工(gong)智能的理論仍處于(yu)“前牛頓(dun)時期”。
楊學山在其所著《智能原理》前言中指出:智能成熟度不是以使用什么(me)算法和(he)邏輯決(jue)定(ding)的(de)。更進一步,人在(zai)進化和發展中形成這樣的本能(neng)或直覺,也沒有經過(guo)邏輯或算(suan)法的過(guo)程(cheng)。(編者注:真正的智能無需計算。通過暴力計算出來的結果,也不是真正的智能)
楊學山在《智能原理(li)》P79指(zhi)出(chu):2017年(nian),又有一些科學家(jia)預測到2136年,人工智能可以承擔所有人的工作,這樣的可能性是存在的,但前提是對一系列重大理論和方向問題要有答案。工業革(ge)命(ming)基于物理學的(de)(de)大發現,智能革(ge)命(ming)的(de)(de)理論尚未建(jian)立,任何樂觀的預言都缺乏理論基礎。
楊學(xue)山在《智能(neng)原理(li)》P085指出:不僅指導人(ren)工智(zhi)能(neng)走向未(wei)來(lai)的理(li)論尚未(wei)建(jian)立,最佳實踐也沒有達到,這是有人憂慮人工智能進入再一個冬天的原因。…還有人指出,人(ren)工(gong)智(zhi)能(neng)的神經網絡研究進(jin)展,并沒有跟上認(ren)知神經科學[敏感(gan)詞(ci)]研究的成功(gong),深度學習的算(suan)法與(yu)人(ren)腦的工(gong)作(zuo)機制幾乎沒有共(gong)同之(zhi)處。
楊學山在《智(zhi)能原理》P092指出:但是人工智能(neng)的理論研(yan)究(jiu)與具體的非生(sheng)物智能(neng)應(ying)用成果(guo)之間(jian)存在一(yi)條不協調的溝壑。
楊(yang)學山在(zai)其另一本專著《智能(neng)工程》P005指出(chu):智能(neng)和(he)通用人工(gong)智能(neng)沒有[敏感詞(ci)]的定義,常識和(he)理解這(zhe)兩個(ge)通用人工(gong)智能(neng)的必要(yao)條件(jian)也(ye)成為可(ke)望而不可(ke)即的空中樓閣。…與此相伴的是人工智能界對算法、算力和具有算法能力的人的崇拜,認(ren)為具備這三者就(jiu)一(yi)(yi)定能(neng)構造(zao)通用人工智能(neng),這是一(yi)(yi)個基本(ben)認(ren)識論的(de)錯誤(wu)。
楊學山在《智(zhi)能工(gong)程》P205指出:通(tong)過數據挖(wa)掘(jue)就(jiu)能(neng)得到知識和智(zhi)慧(hui)更是(shi)一廂(xiang)情愿,因為知識和智(zhi)慧(hui)的形成根本(ben)不是(shi)通(tong)過數據挖(wa)掘(jue)這(zhe)種模式就(jiu)能(neng)夠獲得的。我們通過大數據及利用一些計算工具和算法得到的一些有趣或有效的結論,這種局部想象泛化為知識和智慧的來源,是科學方法的不嚴謹。
中國人工智能學會原理事長鐘義信教授認為:在物質學科范式引領下的人工智能研究,雖然在技術層次上不斷取得一些淺層和局部的進展,但始終沒有(you)在基(ji)礎(chu)理論(lun)的研究上實施必要的變革,因此始終無法根治物質學科范式給人工智能研究帶來的致命性缺陷:
第一,受到“分而治之”方法論的制約,三大學派各奉所信,各行其是,分道揚鑣,無法建(jian)立統一的人(ren)工智能理論(lun),也無法研制出(chu)通用的人(ren)工智能系統。
第二,受到“唯形式化”方法論的制約,人工智能所(suo)有概(gai)念(nian)都被(bei)閹割了(le)內涵(han),成為了(le)難以理(li)解的(de)“無心(xin)概(gai)念(nian)”。因此,所有人工智能產品(當然包括GPT系列)都無法實現對概念的理解,無法生成基(ji)于理解的真實智(zhi)能。
如前所(suo)述(shu),當今的AI大模型盡管目(mu)前看起(qi)來“很成(cheng)功”,但是(shi)確實是(shi)沒有發展后勁的,其成(cheng)果是(shi)不可持續的。
上(shang)述質疑者和批評者的共性意見(jian)摘錄如下(xia):
*“當(dang)前人(ren)(ren)工智能(neng)還沒有(you)理(li)論(lun)(lun)指(zhi)導”;“指(zhi)導人(ren)(ren)工智能(neng)走向未(wei)(wei)來(lai)的理(li)論(lun)(lun)尚未(wei)(wei)建(jian)立(li)”;“人(ren)(ren)工智能(neng)到今天為止還沒有(you)理(li)論(lun)(lun)基(ji)礎(chu)”;“人(ren)(ren)工智能(neng)所(suo)有(you)概念(nian)都被閹割(ge)了內涵”;“智能(neng)革命(ming)的理(li)論(lun)(lun)尚未(wei)(wei)建(jian)立(li),任何樂觀的預言都缺(que)乏理(li)論(lun)(lun)基(ji)礎(chu)”;
*“理解邏輯能力(li)極其(qi)有(you)限”;“不(bu)可(ke)解釋(shi),不(bu)可(ke)判識,不(bu)可(ke)推論”;“本質上并非(fei)具備真正的(de)(de)‘理解’和‘推理’能力(li)”;“大(da)模型不(bu)知(zhi)道(dao)自己錯(cuo)了,也不(bu)知(zhi)道(dao)為(wei)啥錯(cuo),更做(zuo)不(bu)到(dao)知(zhi)錯(cuo)就改”;“無(wu)法(fa)生成基于理解的(de)(de)真實智能”;
*“當前人(ren)工智能的技術(shu)路線是不(bu)可持(chi)續的”;。
*“算法、算力(li)(li)和具有算法能力(li)(li)的人,這三(san)者(zhe)不可能構(gou)造AGI”;“目前的LLM路線無法通往AGI”;
*“90%以(yi)上的(de)主流大模型是(shi)不可信的(de)”;“中國(guo)現在有上百(bai)個大模型,其中的(de)90%沒多(duo)大用(yong)處”。
從上面的專家觀點(dian)可(ke)以看(kan)到,目前還不能對當今(jin)AI大(da)模型取(qu)得的巨大(da)成果過于樂(le)觀,客觀上AI大(da)模型還存在諸多弊病和偏差。如果上述(shu)專家(jia)們(men)所言(yan)屬(shu)實,那么用不了兩三年,很多現有AI大模型在技(ji)術上(shang)是走不下去的,甚至是沒有未來的。
現有人工智能缺乏理論基礎,是諸多專家詬病最多的(de)一個問題。人類(lei)幾百年的(de)近代科學史(shi)證明,缺乏理論的(de)科研,一定走(zou)不遠。
那么,該(gai)怎么辦?
當今人工智能在技術取得長足進步、市場一片喧囂之后,是時候該放慢腳步,換個思路,思考一下人工智能的理論基礎了,即研究人工智能的學科范式問題。
鐘義信教授的見解是:作為信息學科高級篇章的人工智能研究,一直遵循著經典的物質學科范式(shi)的“唯形式化”和“分而治之”的方法論,這不符合信息學科性質的需要,屬于(yu)學(xue)科范式的(de)“錯配(pei)”。應該用全新的信息(xi)學科范式來研究今天的人工智能,用中華文明中的“整體觀和辯證論”的思想去重新思考人工智能的基本問題。
物質學科只研究物質。信息學科則不僅研究物質,更要研究主體(編者注:只有主體才有智能),尤其要研究主體駕馭下的主體客體相互作用的信(xin)息生(sheng)態過程。信息學科的迅猛崛起是時代進步的需要。物(wu)質學(xue)科(ke)(ke)(ke)研究(jiu)主導(dao)的科(ke)(ke)(ke)學(xue)時(shi)(shi)代一定要向信息學(xue)科(ke)(ke)(ke)研究(jiu)主導(dao)的科(ke)(ke)(ke)學(xue)時(shi)(shi)代迅速轉(zhuan)變,才能適應時(shi)(shi)代進步和科(ke)(ke)(ke)學(xue)發展的要求。
信息學(xue)科(ke)范(fan)式(shi)在人工智(zhi)能領(ling)域取(qu)代(dai)物質學(xue)科(ke)范(fan)式(shi),并不表明(ming)物質學(xue)科(ke)范(fan)式(shi)本(ben)身存在什么問題,只是表明(ming)學(xue)科(ke)范(fan)式(shi)與(yu)學(xue)科(ke)研究的性(xing)質之(zhi)間必須和諧匹配(pei),而不應當錯位,不應當張冠李戴:人工智能是信息學科的高級篇章,因此應當遵循信息學科范式;而物質學科的研究則應當遵循物質學科的范式。各種范式都按照學科的性質各就其位,各得其所,各司其職,各領風騷,協調發展,共創輝煌。
免(mian)責聲明:本文采摘自英諾維盛(sheng)公司,本文僅代(dai)表(biao)作(zuo)者個(ge)人(ren)觀點,不代(dai)表(biao)金航標(biao)及行業觀點,只為轉(zhuan)載(zai)與(yu)分享,支(zhi)持保護知識產權,轉(zhuan)載(zai)請注明原出(chu)處及作(zuo)者,如有侵權請聯系我們刪除。
Copyright ? 深(shen)圳(zhen)市(shi)金航標電子有限公司(si) 版權所有