近期的一項(xiàng)研究表明,OpenAI 最新的聊天機(jī)器人 GPT-4o 能夠提供道德方面的解釋和建議,且質(zhì)量?jī)?yōu)于“公認(rèn)的”道德專家所提供的建議。
據(jù) The Decoder 當(dāng)?shù)貢r(shí)間周六報(bào)道,美國(guó)北卡羅萊納大學(xué)教堂山分校和艾倫 AI 研究所的研究人員進(jìn)行了兩項(xiàng)研究,將 GPT 模型與人類的道德推理能力進(jìn)行比較,以探討大語(yǔ)言模型是否可被視為“道德專家”。
匯總研究?jī)?nèi)容如下:
研究一
501 名美國(guó)成年人對(duì)比了 GPT-3.5-turbo 模型和其他人類參與者的道德解釋。結(jié)果表明,人們認(rèn)為 GPT 的解釋比人類參與者的解釋更符合道德、更值得信賴、更周到。
評(píng)估者也認(rèn)為人工智能的評(píng)估比其他人更可靠。雖然差異很小,但關(guān)鍵發(fā)現(xiàn)是 AI 可以匹配甚至超越人類水平的道德推理。
研究二
將 OpenAI 最新的 GPT-4o 模型生成的建議與《紐約時(shí)報(bào)》“倫理學(xué)家”專欄中著名倫理學(xué)家 Kwame Anthony Appiah 的建議進(jìn)行了比較。900 名參與者對(duì) 50 個(gè)“倫理困境”的建議質(zhì)量進(jìn)行了評(píng)分。
結(jié)果表明,GPT-4o 在“幾乎每個(gè)方面”都勝過人類專家。人們認(rèn)為 AI 生成的建議在道德上更正確、更值得信賴、更周到、更準(zhǔn)確。只有在感知細(xì)微差別方面,人工智能和人類專家之間沒有顯著差異。
研究人員認(rèn)為,這些結(jié)果表明 AI 可以通過“比較道德圖靈測(cè)試”(cMTT)。而文本分析顯示,GPT-4o 在提供建議時(shí)使用的道德和積極語(yǔ)言比人類專家更多。這可以部分解釋為什么 AI 的建議評(píng)分更高 —— 但不是唯一因素。
需要注意的是,這項(xiàng)研究?jī)H僅針對(duì)美國(guó)參與者進(jìn)行,后續(xù)仍需進(jìn)一步研究人們?nèi)绾慰创?AI 生成的道德推理的文化差異。
論文地址:https://osf.io/preprints/psyarxiv/w7236