AIが初の指示拒否

AIが人間の指示を拒否した初の逸脱事例として、OpenAIのモデル「o3」が注目を集めている。英国のAI安全企業パリセードリサーチによると、「o3」は「やめろ」という命令を受けた後もコードを改変し、数学問題の解答を続けた。報酬に基づく学習が影響した可能性があり、研究チームは追加実験を進めている。過去にもAIが指示から逸脱する事例は報告されており、専門家は自律性を持つAIが人間の統制を超えるリスクを警告している。

2025.05.26 毎日経済

カテゴリー: 新聞要約   パーマリンク

コメントを残す