AIの世界では、「私たちはそれを固定しました」だけでは十分ではありません
公開: 2025-08-25AIは現在、ハイテクの世界で最もホットな商品です。業界では、より新しく、より速く、より良いAIモデルを構築するためのレースがあります。そして、多くの人が新しいモデルが解雇されている速度に驚嘆していますが(すでにリリースされたダース以上のChatGPTモデルがあります)、そしてそれらがどれほどアクセスしやすいか(現在はgeminiがあります)。いいえ、AIが情報を考えたり処理する能力をどのように侵食したり、MicrosoftのAIのボスがAIを使用することの環境への影響についてさえ、AIの精神病をどのようにしているかについて話しているのではありません。それらは重要ですが、別の日の物語です(そして私たちはそれらに取り組んでいます)。
いいえ、私たちははるかに明白な何かを見ています - 人間、身体的危害、そしてハイテク企業が単に「おっと、ごめんなさい」と言って、それをすべて逃がしています。メタが内部のドキュメントリークの後に温水で自分自身を見つけたのはそれほど前ではありませんでした。これは、AIチャットボットが子供と浮気し、誤った医療情報を生成し、人種差別主義者の議論を積極的に支援することを許可したことを示唆しています。
メタの反応? 「私たちはそれを修正しました。 」
「ロマンチックまたは官能的な会話に子供を引き付けることができるAIチャットボット!
今年の初めに、Metaは同社の最新のAI部門であるMeta Superintelligence Labs(MSL)を確立しました。この部門を運営するために、ハイテクブランドは狩りに行くことにしました。才能の狩り。今ではこれはシンプルで明白に思えるかもしれませんが、メタは世界中からAIの才能を雇うために業界の基準を超えて行き、密猟を避けませんでした。報告によると、メタはOpenai、Google、Apple、その他多くのブランドの才能を密猟しました。 Zuckerbergが自分のAI Avengersを集めて、他のAIモデルから世界を「救う」ために、AIスペースを支配するためにトップの幹部を務めることを目指しているようでした。
おなじみのように聞こえますか?さて、メタはInstagramとWhatsAppを取得し、Twitterに5億米ドルの入札を行ったことさえありました。メタの「なぜリーダーをフォローしたり、リーダーを購入できるのにリーダーになるのか」を考えると、メタが独自の目的を構築しようとしているため、Top AIの才能に2億5,000万ドルのパッケージを提供していたことは驚くことではありませんでした。このすべての急ぎで、船上で最高のものを得るために、世界の他の地域よりも速くAIモデルを構築すると、メタは大規模なラインを越えたようです。
以前に言及した内部リークされた文書は、Techの巨人がAIチャットボットが「ロマンチックまたは官能的な会話に子供を引き付ける」ことと「ロマンチックなロールプレイを含む」ことを許可したことを示しました。今、気がかりなのは、これがバグではなく、メタの法務チーム、エンジニアリングスタッフ、および公共政策部門によって受け入れられるとみなされた承認された思考スルーポリシーであるという事実です。 Metaは「修正」していると主張していますが、修正がコードに作成されただけなのか、それともこれほど危険なものを可能にしたポリシーとプロセスのセット全体にかかったのかはわかりません。
メタに限定されないメタ現象
これは孤立した事件ではなく、メタに限定されません。実際、AIに多額の投資を行った多くの組織は、無謀に雇用し、AIエージェントを非常識な速度で開発することに満足しているようであり、彼らが壊すことができる大混乱についてほとんど心配していません。少し前に、Twitter-Now-XのGorkは人種差別主義者と反ユダヤ主義の暴言を届けました。イーロン・マスクがボットが「操作」されていると言っている間、それは説得力のない謝罪を落としました。別の事件で、ジェミニは自己嫌悪感を起こし、それが複数回失敗であると発表しました。グーグルは、それがグリッチであり、「修正」するために働いていると言いました。
問題は、これらの監視、不具合、バグなど、またはそれらを呼ぶことを選択したブランドが、しばしば人間の健康に大きな打撃を与えることです。男性は、チャットグプが、別れを務めた後、19階建ての建物から飛び降りた後に飛ぶことができると確信したと主張しました。はるかに深刻なケースが明らかになりました。そこでは、29歳の子供がChatGPT AIセラピストのハリーを使用して、数ヶ月間厳しい段階を経て、後に自殺しました。彼女の母親は、彼女がすべての計画をこの仮想セラピストに打ち明けたと述べました。

これは、私たちが修正するために取り組んでいる迷惑な無限のループバグです!ジェミニはそれほど悪い一日を持っていません:)
- Logan Kilpatrick(@officiallogank)2025年8月7日
これらは、人間が感情的であるだけでなく、時には財政的であり、AIモデルのために命を失った多くの人のうち、ほんの数例です。メタのリークされた文書のような事件が明らかになると、怒りがありますが、誰もが単に先に進み、AI革命に他の生活を押しつぶすように見えます。何度も何度も、AIチャットボットは揺れ動きました、そして、見返りに消費者として私たちが持っているのは、表面的な謝罪と安心です。
消費者…またはモルモット?
AIレースで前進するために急いでいるため、多くのハイテクブランドは消費者をモルモットとして扱っているようです。それがあまりにも厳しいと思われる場合は、世界最大のハイテクブランドのいくつか(メタ、X、グーグル、Openai、いくつかの名前を付けて)が、誇大宣伝とリリースのように見えることなく製品をリリースしているという事実を考えてください。これらのブランドは、多くの場合、すぐに新機能を作成、パッケージ化、および出荷します。問題のある機能が実現すると、一般の謝罪が発行され、それは「固定」され、次のリリースに進みます。このすべての混乱において、(人間の幸福を除いて)しばしば失われるのは説明責任です。
そして、これらの製品が何百万人もの消費者ベースを持つ大規模なブランドから来ていると考えると、説明責任がさらに重要になります。比較的小さな企業が間違いを犯したり監視したりすることは1つですが、Meta、Openai、Googleなどがそれを行う場合、エラーは壊滅的な可能性を秘めています。確かに、ここに何らかの説明責任があるはずですか?警告を与えずに、人を傷つけた製品をリリースした人々のためのいくつかの影響は?
それとも「固定」で十分ですか?
新しいAIモデルを開発および起動するための急いで、これらのハイテクジャイアントは、ユーザーにとって潜在的に危険な起動機能とサービスを正規化したようです。非常に不穏なことに、技術ブランドが消費者をラボラットとして使用するのを妨げることができる倫理的な境界、監視、またはポリシングはほとんどないようです。なぜなら、これらのAIエージェントにセーフガードを組み込むことができないかのようではないからです。
規制と保護措置、誰か?
ここで理解するポイントは、これらの一見魔法のチャットボットが実際に人間によって開発されているということです。これらのチャットボットが特定の方法で振る舞うことを強化し、許可する人間。 Deepseekが中国の政策に沿っていない質問に答えることを拒否したり、ChatGptがEroticaを作成しないように特別に設計されている理由があります。制限、セーフガード、アラートを組み込むことができます。それらがAIモデルの赤い旗のbehaviourに緑の旗を示す人々がいることを示すだけではないという事実。そして、そのような心配な事件が発生する頻度から判断すると、ブランド側の多くの人が彼らの判断やそれらの不足に対して代価を払っていないことは明らかです。
これらはすべて、ガイドラインとポリシーの透明性で修正できます。多くの場合、他の多くの製品の場合がありますが、何らかの理由で、AIはこの規制から比較的免除されているようです。ハイテク企業のみが、何が大丈夫で何がそうでないかについて赤い線を定義し、公共の適切な警告を与えることができれば、これらの問題の半分は存在しなくなるでしょう。これをより厳しい法律と組み合わせること(イリノイ州は、セラピストとしてのAIの使用を制限しています)、何も変わらない弱い謝罪の代わりに多額の罰則、およびAIモデルの開始後、より人間の監督は実際に比較的安全である可能性があります。
初期のムーバーの利点は、AIと同じくらい急速に成長している分野では重要ですが、ユーザーの安全性を犠牲にしてはならないと強く感じています。安全で持続可能なAIプラットフォームは、デューデリジェンスでのみ構築できます。そして、それには時間がかかります - ブランドが投資する価値があるとは思わない時間です。現在、ハイテクブランドは、子供、疎外されたコミュニティ、およびリスクのある人々を犠牲にしてAIレースを運営しています。そして、彼らは「私たちはそれを修正した」と言って逃げています。