Facebook母公司Meta針對AI人工智能研究開放研究人員能夠訪問大型語言模型Open Pretrained Transformer(OPT-175B),此為第一個具有1,750億參數(shù)的語言模型,以提供給更廣泛的人工智能研究社群加以運用。
在Meta AI的一篇文章談到,大型語言模型是具有超過1,000億個參數(shù)的自然語言處理(natural language processing,NLP)系統(tǒng),經(jīng)過大量文本訓(xùn)練,能夠閱讀并回答問題或者生成新的文本。雖然在部分情況下,研究人員可以通過付費API與這些模型進行交流,但完整的使用權(quán)限仍限于少數(shù)資源豐富的實驗室,這樣限制了研究人員理解大型語言模型如何運行。
于是Meta AI以開放科學(xué)的承諾基礎(chǔ),對外分享具有1,750億參數(shù)的大型語言模型Open Pretrained Transformer,允許更多研究人員了解這項新的基礎(chǔ)技術(shù)。
Meta表示,將授給學(xué)術(shù)研究人員以及政府機關(guān)、民間單位、相關(guān)產(chǎn)業(yè)有關(guān)人士訪問這個語言模型,目前版本包括預(yù)先訓(xùn)練模型、以及訓(xùn)練和使用它所需要的程序代碼。
人工智能技術(shù)是如Facebook這樣的大型平臺愿意投入研究和開發(fā)的關(guān)鍵領(lǐng)域,然而人工智能可能延續(xù)人們對于種族、性別等問題的社會偏見,部分研究人員擔(dān)心大型語言模型衍生的危害。
為此Meta表示,希望增加定義這類技術(shù)的道德考量及其多樣性,而為防止濫用和保持完整性,在非商業(yè)許可下發(fā)布這個語言模型,以專注于研究用途。
(首圖來源:shutterstock)