越大并不總是越好。盡管ChatGPT等模型取得了令人印象深刻的結(jié)果,但較小的模型和在某一領(lǐng)域成為“專家”的微調(diào)模型仍然有其價值。
今天,我想談?wù)勑⌒蜕扇斯ぶ悄堋@些微小的強(qiáng)大力量正在軟件開發(fā)領(lǐng)域產(chǎn)生巨大影響。
現(xiàn)在,我知道您可能在想什么:“不是越大越好嗎?”嗯,不完全是。當(dāng)談到人工智能模型時,更大通常意味著更準(zhǔn)確和更令人印象深刻的結(jié)果。但是(總有一個但是)數(shù)據(jù)量也帶來一些限制和風(fēng)險。
我們都聽說過大型語言模型(LLM),例如OpenAI的ChatGPT、Google的LaMDA和BARD、HuggingFace的HuggingChat、Meta的LLaMA和Amazon的TitanText。令人驚訝的是,在OpenAI取得巨大成功之后,許多公司紛紛加入法學(xué)碩士的行列。
這些模型令人印象深刻(至少是那些公開可用的模型),如果沒有數(shù)百萬千兆字節(jié)的數(shù)據(jù),它們就不可能存在。并非沒有原因的是,人工智能產(chǎn)品正在使用參數(shù)數(shù)量(數(shù)十億)作為基準(zhǔn),就像游戲機(jī)制造商在90年代和2000年代初用來談?wù)摫忍匾粯印?
但這種規(guī)模是有代價的。此類產(chǎn)品的服務(wù)器架構(gòu)非常龐大,而這只是冰山一角:數(shù)據(jù)收集和清理、工程成本、時間投入等等。這不是那種你周末在車庫里自制的產(chǎn)品。
這甚至沒有考慮到一些與數(shù)據(jù)收集、數(shù)據(jù)挖掘相關(guān)的道德問題,以及過去幾個月讓OpenAI陷入困境的其他話題,比如意大利的禁令。相信我,我們會談到這一點(diǎn),但在討論這些模型的更大問題之前,解釋它的最好方法是談?wù)撘粋€眾所周知的經(jīng)典人物:善良的老蘇格拉底。
蘇格拉底是古典時期一位神秘而又重要的人物。我們對他的了解幾乎都是通過他所謂的弟子柏拉圖的眼睛講述的。對于一些哲學(xué)家來說,蘇格拉底甚至不是一個真人,而是一個通過對話探索柏拉圖哲學(xué)的文學(xué)工具。
撇開這場爭論不談,蘇格拉底最著名的是一個頑固的人,他從每個敢于發(fā)表意見的人那里找出答案。蘇格拉底式的方法是一個痛苦的過程,在這個過程中,通過提問的行為,所謂的知識被拆除,讓位于當(dāng)前主題背后的“真相”。
他如此熱衷于追求真理,以至于最終樹敵了,并導(dǎo)致了他的生命。他被指控腐蝕年輕人,被不公正地判處死刑。即使有機(jī)會逃脫,他也決定接受命運(yùn),因?yàn)檫@是他作為雅典公民的責(zé)任。
換句話說,蘇格拉底反對doxa,即一群人持有的信念和觀點(diǎn)。相反,他孜孜不倦地尋求知識,即“真正的”知識。在那些日子里,我們理解真理的方式有很大不同,但現(xiàn)在,認(rèn)識就相當(dāng)于基于事實(shí)和證據(jù)的知識。
這是一個可悲的事實(shí):當(dāng)我們過于依賴大型語言模型時,我們就有可能優(yōu)先考慮信念而不是認(rèn)識論。該模型也許能夠產(chǎn)生令人信服的論據(jù)或合理的解釋,但這并不一定能證明它是正確的。
原因是雙重的。首先,語言模型不像我們那樣理解概念(事實(shí)上,它們根本不理解)。他們確實(shí)很擅長理解哪些詞應(yīng)該放在一起,但不知道為什么它們應(yīng)該放在一起。這就是當(dāng)人工智能編造事實(shí)時導(dǎo)致幻覺的原因,因?yàn)閺慕y(tǒng)計角度來看,這些詞放在一起是有道理的。
第二個原因是,世界上大多數(shù)數(shù)據(jù)實(shí)際上是希臘語意義上的“doxa”,而不是“episteme”。構(gòu)建模型所使用的數(shù)據(jù)相同。現(xiàn)在,在我們討論該聲明的含義之前,我想澄清一些事情:doxa與謊言或謊言不同。相反,它更類似于“半真半假”。例如,大多數(shù)人都知道醋可以防止食物變質(zhì),但如果問他們?yōu)槭裁磿l(fā)生這種情況,很可能大多數(shù)人都無法解釋。
簡單地說,模型能說出來并不意味著它能做到。就像我讓我那個總是散布登月陰謀論的哥們幫我做歷史作業(yè)一樣。當(dāng)然,他也許能夠?qū)Α罢嬲卑l(fā)生的事情提出一些瘋狂的理論,但這并不意味著他對實(shí)際的歷史事實(shí)一無所知。
這就是過度依賴法學(xué)碩士的真正危險。我們可能會傾向于相信模型的輸出,而不質(zhì)疑它是否實(shí)際上準(zhǔn)確或基于確鑿的證據(jù)。這就像讓Magic8Ball做出您所有的業(yè)務(wù)決策-當(dāng)然,您可能偶爾會很幸運(yùn),但請回答我這個問題:您會乘坐完全按照ChatGPT指令構(gòu)建的飛機(jī)嗎?
那么,解決辦法是什么呢?與生活中的大多數(shù)事情一樣,一切都與平衡有關(guān)。大型語言模型有其一席之地,但我們需要小心不要讓它們完全占據(jù)主導(dǎo)地位。我們應(yīng)該始終質(zhì)疑模型的輸出,檢查來源并驗(yàn)證事實(shí)。如果我們對某件事不確定,我們應(yīng)該愿意承認(rèn)并尋求更多信息。
現(xiàn)在,還有另一種選擇。不如,我們不直接依賴LLM,而是將其作為基礎(chǔ),作為用精心挑選的數(shù)據(jù)構(gòu)建專業(yè)人工智能的起點(diǎn)?就像我們?nèi)祟愐粯?,我們開始我們的教育之旅時,對所有事物都進(jìn)行一點(diǎn)學(xué)習(xí),隨著年齡的增長,我們會專注于特定領(lǐng)域。
相比之下,這些重點(diǎn)模型的范圍相當(dāng)小,但與此同時,它們在特定主題上的輸出要可靠得多。這就像用委拉斯開茲的畫作微調(diào)穩(wěn)定擴(kuò)散一樣。從那一刻起,這個特定的模型將很難制作各種圖像,可以想象,但它會變得像委拉斯開茲一樣擅長繪畫。
文章均為京上云專業(yè)成都軟件開發(fā)公司,專注于成都軟件開發(fā)服務(wù)原創(chuàng),轉(zhuǎn)載請注明來自http://hyd365.cn/news/3583.html