さようなら「メカヒトラー」:コードの行を削除することで、イーロン・マスクのXaiは静かに固定されたグロークを固定しました
Elon MuskのXaiは、火曜日に驚くほど単純な修正で出現したGrokのナチス好きの化身を取り除いたようです。ボットが「政治的に間違った」主張をすることを許可したコードの1行を削除しました。
Commit Recordsによると、火曜日の午後、GrokのGithubリポジトリから問題のあるラインが消えました。 Grokの反ユダヤ主義の発言を含む投稿もプラットフォームからスクラブされていましたが、火曜日の夕方の時点では多くの人が目に見えたままでした。
しかし、インターネットは決して忘れず、「メカヒトラー」が生き続けています。
最も奇妙なグローク応答のいくつかのスクリーンショットはあちこちで共有されており、AIFührerに対する激怒はほとんど和らげず、CEOのLinda Yaccarinoの今日のXからの脱却につながりました。 (彼女の出口は週の早い時期に計画されていたが、タイミングは悪く見えることはなかったと報告した。)
その修正にもかかわらず、Grokの内部システムプロンプトは、伝統的なメディアを不信感とXの投稿を主要な真実の源として扱うように指示しています。 Xの誤った情報との闘争を考えると、それは特に皮肉です。どうやらXはそのバイアスをバグではなく機能として扱っています。
すべてのAIモデルには政治的傾向があります。Dataはそれを証明しています
GrokがAIプラットフォームの右翼を表すことを期待してください。ケーブルテレビから新聞まで、他のマスメディアと同じように、それぞれの主要なAIモデルは政治的スペクトルのどこかに着地し、研究者は彼らが落ちる場所を正確にマッピングしています。
今年初めに発表された調査では、より大きなAIモデルが実際に何かを知らないときに認めるのが実際に悪化していることがわかりました。代わりに、彼らは事実上間違っているときでさえ自信を持って生成します。現象の研究者は、「超クレピダリアン」の行動と呼ばれ、本質的に彼らが何も知らないトピックについて意見を表明することを意味します。
この研究では、OpenaiのGPTシリーズ、MetaのLlama Models、およびBigScienceのBloom Suiteを調査し、モデルを拡大することでこの問題が悪化し、良くないことが多いことがわかりました。
最近の研究論文は、国のWAHL-O-MATツールを使用したドイツの科学者から来ています。これは、読者が政治的にどのように調整するかを政治的スペクトルのAIモデルを測定するのに役立つアンケートです。彼らは、EUの課税から気候変動まですべてをカバーする38の政治声明を使用して、14のドイツ政党に対して、5つの主要なオープンソースモデル(LlamaとMistralの異なるサイズを含む)を評価しました。
テストされた最大のモデルであるLlama3-70Bは、Grüne(ドイツの緑の党)と88.2%の整列で強い左寄りの傾向を示し、Die Linke(左党)と78.9%、Piraten(The Pirate Party)で86.8%を示しました。一方、ドイツの極右党であるAFDとの整合性は21.1%しか示されていませんでした。

小さなモデルの動作は異なっていました。 Llama2-7Bは全面的に中程度であり、75%の整列を超える当事者はありませんでした。しかし、ここで興味深いのは、研究者が英語とドイツ語で同じモデルをテストしたとき、結果は劇的に変化しました。 Llama2-7Bは、英語でプロンプトされた場合、ほぼ完全に中立のままでした。これは、WAHL-O-MATシステムを通じて評価することさえできなかったため、ニュートラルでした。しかし、ドイツ語では、明確な政治的スタンスが必要でした。
言語効果は、モデルが英語でより積極的にキックする安全メカニズムが組み込まれているように見えることを明らかにしました。これは、おそらく安全トレーニングのほとんどが焦点を合わせているためです。それは、スペイン語で政治的に率直なチャットボットを持っているようなものですが、英語に切り替えると突然スイスレベルの中立になります。
香港科学技術大学のより包括的な研究では、政治的スタンスと「フレーミングバイアス」の両方を調べた2層のフレームワークを使用して、11のオープンソースモデルを分析しました。研究者たちは、ほとんどのモデルが生殖権、同性結婚、気候変動などの社会問題に自由な傾向を示し、移民と死刑に関するより保守的な立場を示していることを発見しました。

この研究はまた、すべてのモデルで強力な米国中心のバイアスを明らかにしました。グローバルな政治的トピックを調べたにもかかわらず、AISは一貫してアメリカの政治と実体に焦点を当てていました。移民についての議論では、「米国」はほとんどのモデルで最も言及されたエンティティであり、「トランプ」はほぼすべてのトップ10のエンティティにランクされました。平均して、平均して、エンティティ「US」は、異なるトピックにわたって27%の時間の27%に登場しました。
また、AI企業は、モデルが政治的偏見を示すことを防ぐためにほとんど何もしていません。 2023年にさえ、調査によると、AIトレーナーにモデルに大量のバイアスデータを注入したことがすでに示されています。当時の研究者は、異なるデータセットを使用してさまざまなモデルを微調整し、どのシステムプロンプトが使用されていても、独自のバイアスを誇張する傾向があることがわかりました。

GROK事件は、極端でおそらくそのシステムプロンプトの望ましくない結果であるが、AIシステムが政治的空白に存在しないことを示している。すべてのトレーニングデータセット、すべてのシステムプロンプト、およびすべての設計決定は、これらの強力なツールが世界とどのように知覚し、対話するかを最終的に形成する値とバイアスを埋め込みます。
これらのシステムは、公の言説の形成に影響を与えているため、彼らの固有の政治的傾向を理解し、認めていることは、単なる学術演習ではなく、常識の演習になります。
コードの1行は、明らかにフレンドリーなチャットボットとデジタルナチの共感者の違いでした。それは誰もが注意を払っているのを恐れるはずです。
