from NatureAsia
論文によると、2種類の大規模言語モデル(LLM)が、他者の心の理論(精神状態を理解する能力)を追跡する課題において、人間と同程度かそれ以上の性能を示すことが明らかになった。この研究では、1907人の被験者を対象に、GPTモデルとLLaMA2モデルを用いて、心の理論に関する様々な側面を検討した。
結果として、GPTモデルは人間と同程度かそれ以上の成績を収めた一方、LLaMA2モデルは人間よりも性能が低かった。研究者は、LLaMA2の成功は応答の偏りによるものであり、GPTの失敗は超保守的なアプローチによるものだと述べている。しかし、LLMが心の理論を有することや人間と同様の能力を持つことを意味するわけではないとしている。
今回の知見は、今後の研究においてLLMの心的推論が人間の認知にどのような影響を及ぼすかを調査する重要な基盤となる可能性がある。
*Disclamer:本キュレーションはNatureAsiaからピックおよび自動生成されました。正確な内容や詳細を知りたい方はリンク先の元コンテンツをご覧ください。