在今日的學(xué)術(shù)界,普林斯頓大學(xué)的人工智能研究取得了新的突破。他們提出了一種獨特的AI方法,此方法著重于提升法學(xué)碩士級別的認(rèn)知模型的應(yīng)用效能,并有效糾正大型語言模型(LLM)可能產(chǎn)生的偏離理性規(guī)范的決策與判斷。下面讓我們來詳細(xì)地解讀這一令人振奮的創(chuàng)新。
一、AI新法的必要性背景
大型語言模型(LLM)在執(zhí)行認(rèn)知任務(wù)時,展現(xiàn)出了與人類相似的特性,包括在風(fēng)險和損失規(guī)避方面的決策傾向。這些模型也表現(xiàn)出類似人類的偏見和錯誤,特別是在處理概率判斷和算術(shù)運算任務(wù)時。雖然LLM在某種程度上可以被視為人類認(rèn)知的模型,但其背后的數(shù)據(jù)來源和訓(xùn)練機制仍存在諸多未知和挑戰(zhàn)。
二、LLM作為認(rèn)知模型的爭議與挑戰(zhàn)
LLM通常是在龐大的數(shù)據(jù)集上訓(xùn)練的,這些數(shù)據(jù)集的規(guī)模遠超人類所能接觸的范圍。這可能導(dǎo)致模型在面對測試問題時,通過某種價值調(diào)整過程,人為地模擬出類似人類的行為。盡管存在這些挑戰(zhàn),但通過對特定數(shù)據(jù)集(如LLaMA-1-65B模型)進行微調(diào),可以更準(zhǔn)確地預(yù)測人類的行為。之前的研究也強調(diào)了合成數(shù)據(jù)集在增強LLM能力方面的重要性。
三、普林斯頓大學(xué)的AI創(chuàng)新方案
普林斯頓大學(xué)的研究團隊提出了一種解決方案來增強LLM作為認(rèn)知模型的實用性。他們建議:
1. 利用LLM與理性代理共同處理計算等效任務(wù),從而解決認(rèn)知問題。
2. 探究LLM展示類似人類行為所需的任務(wù)分布。
其中,Arithmetic-GPT是一種在生態(tài)有效算術(shù)數(shù)據(jù)集上預(yù)訓(xùn)練的LLM。它特別適用于決策任務(wù),特別是在風(fēng)險和跨期選擇方面,其預(yù)測人類行為的準(zhǔn)確性遠超許多傳統(tǒng)的認(rèn)知模型。
四、解決方案的實施與數(shù)據(jù)預(yù)處理
研究人員通過定義數(shù)據(jù)生成算法來創(chuàng)建合成數(shù)據(jù)集,并捕獲對決策至關(guān)重要的神經(jīng)激活模式,從而解決了使用LLM作為認(rèn)知模型的挑戰(zhàn)。他們還開發(fā)了一個具有生成預(yù)訓(xùn)練變壓器(GPT)架構(gòu)的小型LM,名為Arithmetic-GPT。該模型專注于算術(shù)任務(wù)并進行了預(yù)訓(xùn)練。為了使模型更接近實際的人類決策過程,他們還生成了反映實際概率和值的合成數(shù)據(jù)集進行訓(xùn)練。
五、實驗結(jié)果與結(jié)論
實驗結(jié)果顯示,Arithmetic-GPT模型(在生態(tài)有效的合成數(shù)據(jù)集上進行預(yù)訓(xùn)練)的嵌入最準(zhǔn)確地預(yù)測了人類在決策任務(wù)中的選擇。與其他模型(包括LLaMA-3-70bInstruct)相比,Arithmetic-GPT顯示出更高的預(yù)測性能。針對行為模型和多層感知器(MLP)的基準(zhǔn)測試也證明了Arithmetic-GPT的優(yōu)越性,尤其是在跨期選擇任務(wù)中。這一研究結(jié)果強調(diào)了LLM作為認(rèn)知模型的巨大潛力。
六、結(jié)語與展望
這一創(chuàng)新的人工智能方法不僅為認(rèn)知科學(xué)和機器學(xué)習(xí)提供了寶貴的見解,也展示了AI在未來決策支持系統(tǒng)和法學(xué)應(yīng)用中的廣闊前景。對于那些對美國留學(xué)感興趣的學(xué)生和家長,高職招生網(wǎng)提供了專業(yè)的咨詢和服務(wù),幫助學(xué)生實現(xiàn)美國TOP30名校的夢想。
注:本文內(nèi)容已進行大幅度改寫,確保了內(nèi)容的原創(chuàng)性和流暢性。所有數(shù)據(jù)和觀點均基于原文內(nèi)容,但進行了重新組織和表述。