深度學習變天!Google釋出FLAN,模型引數少400億,效能超越GPT-3

編輯:LRS

【導讀】你是否抱怨過深度學習這畸形的研究發展路線,大公司才能玩得起sota,普通人連買張顯示卡都要承受幾倍的溢價!最近Google釋出了一個新的語言模型FLAN,或許能在深度學習中帶來新的發展趨勢,它相比GPT-3少了400億引數,效能還更強!

像OpenAI的GPT-3這樣的語言模型,近年來層出不窮,企業也更願意投入來研究如何利用AI技術和資料來學習文字生成等。

而GPT-3也不負眾望,它及它的後繼模型能夠像人一樣來寫電子郵件、文字摘要、甚至寫各種語言的程式碼。

深度學習變天!Google釋出FLAN,模型引數少400億,效能超越GPT-3

但它也有一個致命缺點,那就是訓練時間長,需要海量的訓練資料,並且生成的模型引數量極大,需要高效能運算裝置才能發揮全部效能。目前的研究也在朝著更大的語言模型、更多工的資料方向發展。

傳統觀點認為,模型的引數越多,它可以完成的任務就越複雜,效能也越好。在機器學習中,引數是模型在進行預測時使用的內部配置變數,透過不同的引數可以對不同的問題進行擬合。

但是越來越多的研究對這個概念提出了質疑。最近,谷歌的研究人員發表了一項研究,聲稱他們釋出了一個引數量遠小於 GPT-3 的模型——微調語言網路 (fine-tuned language net, FLAN),並且在許多有難度的基準測試中效能都大幅超過 GPT-3。

深度學習變天!Google釋出FLAN,模型引數少400億,效能超越GPT-3

論文地址:https://arxiv。org/pdf/2109。01652。pdf

與 GPT-3 的 1750 億個引數相比,FLAN 擁有 1370 億個引數,在研究人員對其進行測試的 25 項任務中,有19項超過了zero-shot 175B GPT-3。

FLAN甚至在ANLI、RTE、BoolQ、AI2-ARC、OpenbookQA和StoryCloze上的表現都大大超過了 few-shot GPT-3。

深度學習變天!Google釋出FLAN,模型引數少400億,效能超越GPT-3

消融研究表明,任務數量和模型規模是教學調整成功的關鍵因素

FLAN 與 GPT-3 的不同之處在於,FLAN 面向60 項自然語言處理任務進行了微調,這些任務透過自然語言指令來表達,例如情感分類中使用“這條影評的情緒是正面還是負面?”來表示。

深度學習變天!Google釋出FLAN,模型引數少400億,效能超越GPT-3

FLAN是Base LM的指令調優(instruction-tuned)版本。指令調優管道混合了所有資料集,並從每個資料集中隨機抽取樣本。

各個資料集的樣本數相差很大,有的資料集甚至有超過1000萬個訓練樣本(例如翻譯),因此將每個資料集的訓練樣例數量限制為30000個。

有的資料集幾乎沒有訓練樣本,例如CommitmentBank只有250個樣本,為了防止這些資料集被邊緣化,遵循樣本比例混合方案(examples-proportional mixing schema),在最大混合率為3000的情況下,使用Adafactor最佳化器以3e-5的學習率,以8192的batch size對所有模型進行30000次梯度更新的微調。

微調過程中使用的輸入和目標序列長度分別為1024和256。使用packing將多個訓練樣本組合成一個序列,使用特殊的序列結束標記將輸入與目標分離。

谷歌的研究人員表示,這種指令調節(instruction tuning)透過教模型如何執行指令描述的任務來提高模型處理和理解自然語言的能力。

在FLAN對網頁、程式語言、對話和維基百科文章的訓練後,研究人員發現,該模型可以學習按照未經明確訓練的任務進行操作,也就是說可以部分理解了自然語言的真實意圖。儘管訓練資料不如GPT-3的訓練集“乾淨”,但FLAN仍然在問答和長文摘要等任務上超過了GPT-3。

深度學習變天!Google釋出FLAN,模型引數少400億,效能超越GPT-3

除此之外,FLAN的zero-shot和few-shot效能與也比GPT-3好一些,這也表明模型有能力遵循各種指令。

除了速度優勢,更小、更仔細微調(more carefully tuned)的模型還可以解決一些大型語言模型可能產生的其他問題,例如環境影響。

2020年6月,馬薩諸塞大學艾摩斯特分校的研究人員釋出了一份報告,估計訓練和搜尋某一模型所需的電力量約為626000磅二氧化碳的排放量,相當於美國平均汽車壽命排放量的5倍。

深度學習變天!Google釋出FLAN,模型引數少400億,效能超越GPT-3

谷歌的一項研究也發現,GPT-3在訓練期間使用了1287兆瓦電,產生了552噸的二氧化碳排放。相比之下,FLAN只使用了451兆瓦電,產生了26噸的二氧化碳。

麻省理工學院最近一篇論文也說明,如果按照大型語言模型的趨勢繼續下去,從硬體、環境和資金的角度來看,訓練的成本將變得令普通人無法觸及。以低經濟的方式實現高效能目標需要更高效的硬體、更高效的演算法或其他改進,才能夠讓整體的收益保持為正。

康奈爾大學的自然語言處理研究員 Maria Antoniak 就曾公開表示,是否一定需要更大的模型才能處理好自然語言,目前來說這個問題還沒有答案。即便說基準測試的排行榜被這些大模型刷了個遍,但把更多的資料輸入到模型中,是否能繼續帶來效能提升,還是不確定的。

並且NLP的領域的評測通常是以任務為中心,研究人員通常共同解決特定資料集上的特定問題,這些任務通常是結構化的,並且所能涵蓋的自然語言問題也是比較單一的。雖然在排行榜上取得更好的成績代表模型效能更強,這種研究方法也在促進者NLP技術的發展,也可能限制研究人員在泛化性上的思考。並且這種研究結果能否最終進行真正的語言理解還有待商榷。

谷歌研究中提到大型語言模型的問題可能在於用於訓練它們的資料以及常見的訓練方法。例如奧地利維也納大學醫學院人工智慧研究所的研究人員發現,GPT-3在生物醫學領域中的表現並不如小型架構但精細的模型。

深度學習變天!Google釋出FLAN,模型引數少400億,效能超越GPT-3

即使在對生物醫學資料進行預訓練和微調後,研究者們還發現大的語言模型很難在問答、文字分類和識別上與更小的模型相媲美。

實驗結果表明,在生物醫學自然語言處理領域,多工語言模型仍有很大的發展空間,很少有模型能夠在少量訓練資料可用的情況下有效地將知識轉移到新任務。

這也可以歸結為資料質量的問題。社群驅動專案EleutherAI的資料科學家Leo Gao的另一篇論文表明,訓練資料中集中資料的管理方式會顯著影響大型語言模型的效能。

深度學習變天!Google釋出FLAN,模型引數少400億,效能超越GPT-3

通常研究人員普遍認為,使用分類器過濾掉來自「低質量源」像Common Crawl的資料可以提高訓練資料質量,但過度過濾會導致類似GPT的語言模型效能下降。

透過對分類器得分進行過度的最佳化,會使得保留的資料開始以滿足分類器要求的方式而出現偏差,從而生成一個不太豐富、多樣性不足的資料集。

從直覺上看,丟棄的資料越多,剩餘資料的質量就越高,但研究人員發現,基於淺分類器的過濾並不總是如此。相反,過濾在一定程度上提高了下游任務的效能,但隨著過濾變得過多,效能又會下降高。可以推測這是由於Goodhart定律造成的,隨著最佳化壓力的增加,agent和真實目標之間的不一致變得更加明顯。

深度學習變天!Google釋出FLAN,模型引數少400億,效能超越GPT-3

Goodhart定律內容:當一個措施本身成為目標時,它就不再是一個好的措施。

(When a measure becomes a target, it ceases to be a good measure。)

參考資料:

https://arxiv。org/pdf/2109。01652。pdf

頂部