(資料圖片)
心智理論對人類社交互動十分重要,是人類溝通交流和產生共鳴的關鍵。之前的研究表明,LLM這類人工智能(AI)可以解決復雜的認知任務,如多選決策。不過,人們一直不清楚LLM在心智理論任務(被認為是人類獨有的能力)中的表現是否也能比肩人類。
此次,德國漢堡—埃彭多夫大學醫學中心團隊選擇了能測試心智理論不同方面的任務,包括發現錯誤想法、理解間接言語以及識別失禮。他們隨后比較了1907人與兩個熱門LLM家族——GPT和LLaMA2模型完成任務的能力。
團隊發現,GPT模型在識別間接要求、錯誤想法和誤導方面的表現能達到甚至超越人類平均水平,而LLaMA2的表現遜于人類水平;在識別失禮方面,LLaMA2強于人類但GPT表現不佳。研究人員指出,LLaMA2的成功是因為回答的偏見程度較低,而不是因為真的對失禮敏感;GPT看起來的失利,其實是因為對堅持結論的超保守態度,而不是因為推理錯誤。
研究團隊認為,LLM在心智理論任務上的表現堪比人類,不等于它們具有人類般的“情商”,也不意味著它們能掌握心智理論。但他們也指出,這些結果是未來研究的重要基礎,并建議進一步研究LLM在心理推斷上的表現,以及這些表現會如何影響人類在人機交互中的認知。
關鍵詞: