In der KI -Welt ist „wir haben es behoben“ nicht gut genug

Veröffentlicht: 2025-08-25

AI ist derzeit die heißeste Ware in der Tech -Welt. Es gibt ein Rennen in der Branche, um neuere, schnellere und angeblich bessere KI -Modelle aufzubauen. Und während viele über die Geschwindigkeit staunen, mit der neue Modelle ausgewählt werden (es wurden bereits mehr als ein Dutzend Chatgpt -Modelle veröffentlicht) und wie viel besser zugänglich sie sind (ein Smartphone von USD 120 hat jetzt Gemini), achten wir tatsächlich nicht auf den Schaden, den dieser Fortschritt entspricht. Nein, wir sprechen nicht darüber, wie KI unsere Fähigkeit, Informationen zu denken oder zu verarbeiten,, über die KI -Psychose, über die Microsofts KI -Chef „schlaflose Nächte“ bekam, oder sogar über die Umwelteinflüsse der Verwendung von KI. Das sind wichtig, aber Geschichten für einen anderen Tag (und wir arbeiten daran).

ai safety opinion

Nein, wir betrachten etwas weit Offensichtlicheres - menschlicher, körperlicher Schaden und wie Technologieunternehmen einfach „Ups, Entschuldigung“ sagen und mit allem davonkommen. Es war noch nicht allzu lange her, dass Meta nach einem internen Dokument -Leck in heißem Wasser befand, das darauf hindeutet, dass das Unternehmen seinen KI -Chatbot mit Kindern flirt, falsche medizinische Informationen generieren und rassistische Argumente aktiv unterstützt.

Metas Antwort? " Wir haben es behoben. "

Ein KI -Chatbot, der „ein Kind in Gespräche einbeziehen könnte, die romantisch oder sinnlich sind“!

Anfang dieses Jahres gründete Meta Meta Superintelligence Labs (MSL), die jüngste AI -Division des Unternehmens. Um diese Division zu leiten, beschloss die technische Marke, auf eine Jagd zu gehen. Eine Jagd nach Talent. Dies mag einfach und offensichtlich erscheinen, aber Meta hat die Branchenstandards übertroffen, um KI -Talente aus der ganzen Welt zu mieten, und scheute auch nicht vor Wilderung. Laut Berichten pochierte Meta -Talente von OpenAI, Google, Apple und vielen anderen Marken. Es war, als würde Zuckerberg seine eigenen AI -Avengers zusammenstellen, um die Welt vor anderen KI -Modellen zu „retten“, um Top -Führungskräfte zu horten, um den KI -Raum zu dominieren.

Klingt bekannt? Nun, Meta hat Instagram und WhatsApp erfasst und sogar ein Angebot von 500 Millionen USD für Twitter erhalten. Angesichts der Mentalität von Meta „Warum folgen Sie dem Anführer oder seien Sie der Anführer, wenn Sie die Führungskräfte kaufen können“, war es kaum eine Überraschung, dass Meta Pakete bis zu 250 Millionen US -Dollar anbot, um das KI -Talent zu übertreffen, als es seinen eigenen Aimpire aufbaute. Es scheint, dass in all dieser Eile, um das Beste von überall an Bord zu bekommen, KI -Modelle schneller aufzubauen als der Rest der Welt, Meta eine massive Linie überschritten hat.

Das interne durchgesickertes Dokument, auf das wir zuvor erwähnt wurden, zeigte, dass der Tech-Riese seinen KI-Chatbot erlaubte, „ein Kind in Gespräche einzubeziehen, die romantisch oder sinnlich sind“ und „einschließlich romantisches Rollenspiel“. Was nun beunruhigend ist, ist die Tatsache, dass dies kein Fehler ist, sondern eine genehmigte, durchdachte Richtlinie, die von Metas Rechtsteam, Ingenieurmitarbeitern und Abteilung für öffentliche Politik als akzeptabel angesehen wurde. Meta behauptet, dass es es "repariert" hat, aber wir wissen nicht, ob die Korrekturen nur zum Code oder zu den gesamten Richtlinien und Prozessen vorgenommen wurden, die etwas so gefährlich gemacht haben.

Ein Meta-Phänomen, das nicht auf Meta beschränkt ist

Dies ist kein isolierter Vorfall und ist nicht auf Meta beschränkt. Tatsächlich scheinen viele Organisationen, die stark in die KI investiert haben, zufrieden damit zu sein, rücksichtslos einzustellen, KI -Agenten mit wahnsinniger Geschwindigkeit zu entwickeln. Vor nicht allzu langer Zeit lieferte der Gork von Twitter-Now-X rassistische und antisemitische Rants. Es ließ eine nicht überzeugende Entschuldigung fallen, während Elon Musk sagte, der Bot sei „manipuliert“. In einem separaten Vorfall machte Gemini einen selbstvergängigen Streit und kündigte an, dass es mehrmals ein Misserfolg war. Google sagte, es sei ein Fehler und es arbeite daran, ihn zu beheben.

Das Problem ist, dass diese Versehen, Pannen, Fehler ... oder alle Marken, die sie bezeichnen, oft einen hohen Tribut von der menschlichen Gesundheit fordern. Ein Mann behauptete, Chatgpt habe ihn davon überzeugt, dass er fliegen könne, nachdem er aus einem 19-stöckigen Gebäude gesprungen war, nachdem er sich an eine Trennung gewandt hatte. Ein viel schwerwiegenderer Fall ist ans Licht gekommen, in dem ein 29-Jähriger Chatgpt-KI-Therapeut Harry monatelang in eine schwierige Phase durchlief und später Selbstmord begangen hat. Ihre Mutter erwähnte, dass sie alle ihre Pläne dieser virtuellen Therapeutin vertraute.

Dies sind nur wenige Fälle von vielen, in denen Menschen nicht nur emotional, sondern manchmal finanziell gelitten haben und aufgrund von KI -Modellen sogar ihr Leben verloren haben. Wenn Vorfälle wie das durchgesickerte Dokument von Meta ans Licht kommen, gibt es Empörung, aber dann scheint jeder einfach weiterzumachen und die KI -Revolution andere Leben zerstören zu lassen. Immer wieder sind KI -Chatbots ins Stocken geraten, und alles, was wir als Verbraucher im Gegenzug haben, sind oberflächliche Entschuldigungen und die Gewissheit, dass die Marken, die Milliarden investiert haben, um das beste verfügbare Talent für die Gestaltung und Vermarktung investiert zu haben, daran arbeiten, es zu „beheben“, um es zu „beheben“

Verbraucher… oder Meerschweinchen?

In ihrer Eile, im KI -Rennen voranzukommen, scheint es, dass viele Tech -Marken Verbraucher fast als Meerschweinchen behandeln. Wenn das zu hart klingt, sollten Sie die Tatsache berücksichtigen, dass einige der größten technischen Marken der Welt (Meta, X, Google, Openai, um nur einige zu nennen) Produkte hymen und veröffentlicht, ohne ihre möglichen Konsequenzen zu betrachten. Diese Marken erstellen, verpacken und versenden in kürzester Zeit häufig neue Funktionen. Sobald ein problematisches Merkmal zum Leben erweckt wird, wird eine öffentliche Entschuldigung ausgegeben und ist „fest“, und dann übergehen wir zur nächsten Veröffentlichung, die im Allgemeinen in kürzester Zeit auftaucht. In all diesem Chaos ist das, was oft verloren geht (abgesehen vom menschlichen Wohlbefinden).

Und die Rechenschaftspflicht wird umso wichtiger, wenn man bedenkt, dass diese Produkte von massiven Marken mit einer Konsumentenbasis stammen, die auf Millionen eingeht. Es ist eine Sache für ein relativ kleines Unternehmen, einen Fehler zu machen oder ein Versehen zu begehen, aber wenn Meta, Openai und Google dies tun, haben Fehler katastrophales Potenzial. Also sollte es hier sicherlich eine Art Rechenschaftspflicht geben? Einige Auswirkungen auf diejenigen, die ein Produkt veröffentlicht haben, das einer Person schadet, ohne sie zu warnen?

Oder ist ein "fester" genug?

In ihrer Eile, neue KI -Modelle zu entwickeln und zu starten, scheinen diese Tech -Riesen normalisierte Startfunktionen und -dienste zu haben, die für Benutzer möglicherweise gefährlich sind. Sehr beunruhigend scheint es kaum ethische Grenzen, Überwachung oder Polizeiarbeit zu geben, die technische Marken davon abhalten können, ihre Verbraucher als Laborratten zu verwenden. Denn es ist nicht so, als ob Schutzmaßnahmen nicht in diese AI -Agenten eingebaut werden können.

Vorschriften und Schutzmaßnahmen, jemand?

Der Punkt zu verstehen ist, dass diese scheinbar magischen Chatbots tatsächlich von Menschen entwickelt werden. Menschen, die diesen Chatbots befähigen und erlauben, sich auf eine bestimmte Weise zu verhalten. Es gibt einen Grund, warum Deepseek sich weigert, Fragen zu beantworten, die nicht mit der chinesischen Richtlinie übereinstimmen, oder warum ChatGPT speziell für die Schaffung von Erotik ausgelegt ist. Einschränkungen, Schutzmaßnahmen und Warnungen können eingebaut werden. Die Tatsache, dass sie nicht nur zeigen, dass es Menschen gibt, die der roten Flagge der AI-Modelle die grüne Flagge zeigen. Und nach der Häufigkeit zu urteilen, bei der solche besorgniserregenden Vorfälle auftreten, ist klar, dass nicht zu viele auf der Markenseite einen Preis für ihre Urteile oder einen Mangel an ihnen zahlen.

All dies kann mit Transparenz in Richtlinien und Richtlinien festgelegt werden. Es ist oft bei vielen anderen Produkten der Fall, aber aus irgendeinem Grund scheint die KI von dieser Verordnung relativ befreit zu sein. Wenn nur Tech -Unternehmen die Definition von roten Linien darüber ziehen könnten, was in Ordnung ist und was nicht, und der Öffentlichkeit angemessene Warnungen abgeben würde, würde die Hälfte dieser Probleme aufhören zu existieren. Kombinieren Sie dies mit strengeren Gesetzen (Illinois hat die Verwendung von KI als Therapeut eingeschränkt), hohe Strafen anstelle von schwachen Entschuldigungen, die nichts ändern, und mehr menschliche Aufsicht nach dem Start eines KI -Modells, und wer weiß, dass KI -Modelle tatsächlich relativ sicher sein könnten.

Während der Vorteil des frühen Movers in einem Gebiet wichtig ist, das so schnell wie KI wächst, sind wir der festen Überzeugung, dass er nicht auf Kosten der Benutzersicherheit kommen sollte. Eine sichere und nachhaltige KI -Plattform kann nur mit Due Diligence gebaut werden. Und das braucht Zeit - Zeit, in der Marken es nicht wert zu in Betracht ziehen, investiert zu sein. Derzeit betreiben Tech -Marken das KI -Rennen auf Kosten von Kindern, marginalisierten Gemeinden und gefährdeten Menschen. Und sie kommen damit davon, nur zu sagen: "Wir haben es repariert."