from CoinTelegraph
2024年初頭、グーグルのAIツール「ジェミニ」が、人種的に多様なナチスの画像を生成するなど、歴史的な矛盾を指摘し、物議を醸した。この事件は、AIツールの中立性についての懸念を引き起こした。
魅力的な白人を好む偏ったAIの問題に対処するために導入されたものの、過剰な修正によって、グーグルの「信頼と安全」チームがいかに結果に影響を及ぼしているかが明らかになった。多くの大規模な言語モデルが、政治的指向テストにおいて左寄りのバイアスを示すという研究がある。
これは、AIのバイアスが投票傾向に与える潜在的な影響を浮き彫りにしている。AIモデルの影響力が増すにつれ、公平で透明性の高いAIシステムの必要性がますます重要になっている。
*Disclamer:本キュレーションはCoinTelegraphからピックおよび自動生成されました。正確な内容や詳細を知りたい方はリンク先の元コンテンツをご覧ください。