W świecie sztucznej inteligencji „naprawiliśmy to” nie jest wystarczająco dobre

Opublikowany: 2025-08-25

AI jest obecnie najgorętszym towarem w świecie technologii. W branży jest wyścig, aby budować nowsze, szybsze i rzekomo lepsze modele AI. I chociaż wielu zachwyca się prędkością, z jaką nowe modele są wydawane (wydano już kilkanaście modeli chatgpt) i o ile są one bardziej dostępne (smartfon 120 USD ma teraz Gemini), nie zwracamy uwagi na szkody, które wykonuje postęp. Nie, nie mówimy o tym, jak AI eroduje naszą zdolność do myślenia lub przetwarzania informacji, psychozę AI, o której szef AI Microsoft otrzymuje „bezsenne noce”, a nawet wpływ na środowisko korzystania z AI. Są to ważne, ale są historie na kolejny dzień (i pracujemy nad nimi).

ai safety opinion

Nie, patrzymy na coś o wiele bardziej oczywiste - ludzkie, fizyczne szkody i to, jak firmy technologiczne po prostu mówią „Ups, przepraszam” i uciekają od tego wszystkiego. Nie tak dawno temu Meta znalazła się w gorącej wodzie po wewnętrznym wycieku dokumentu, co sugeruje, że firma pozwoliła swojej AI Chatbot flirtować z dziećmi, generować fałszywe informacje medyczne i aktywnie wspierać rasistowskie argumenty.

Odpowiedź meta? „ Naprawionliśmy to”.

Chatbot AI, który może „zaangażować dziecko w rozmowy romantyczne lub zmysłowe”!

Na początku tego roku Meta założył Meta Superinteligence Labs (MSL), najnowszy dział AI firmy. Aby uruchomić ten podział, marka technologiczna postanowiła pójść na polowanie. Polowanie na talent. Teraz może to wydawać się proste i oczywiste, ale Meta wykraczała poza standardy branżowe, aby zatrudnić talent AI z całego świata i nie unikał też kłusownictwa. Zgodnie z raportami, meta koszniła talent z Openai, Google, Apple i wielu innych marek. To było tak, jakby Zuckerberg zgromadził własne AI Avengers, aby „uratować” świat przed innymi modelami AI, mające na celu zebranie najlepszych kadry kierowniczej w celu zdominowania przestrzeni AI.

Brzmi znajomo? Cóż, Meta nabył Instagram i WhatsApp, a nawet złożył ofertę 500 milionów USD na Twittera. Biorąc pod uwagę Meta „Po co podążać za liderem lub być liderem, kiedy można kupić lider”, nie było zaskoczeniem, że Meta oferuje pakiety nawet 250 milionów dolarów najlepszym talentom AI, ponieważ zbudował własny Aimpire. Wygląda na to, że w tym pośpiechu, aby uzyskać najlepsze z wszędzie na pokładzie, buduj modele AI szybciej niż reszta świata, Meta przekroczyła ogromną linię.

Wewnętrzny dokument, o którym wspominaliśmy wcześniej, pokazał, że gigant technologiczny pozwolił swojej AI Chatbot na „zaangażowanie dziecka w rozmowy romantyczne lub zmysłowe” i „w tym romantyczne odgrywanie ról”. Teraz niepokojące jest fakt, że nie jest to błąd, ale zatwierdzona, przemyślenia polityka, która została uznana za dopuszczalną przez zespół prawny Meta, personel inżynierski, a także departament polityki publicznej. Meta twierdzi, że to „naprawiło”, ale nie wiemy, czy poprawki zostały właśnie zmuszone do kodowania, czy cały zestaw zasad i procesów, które umożliwiły coś tak niebezpiecznego.

Meta-fenomenon, nie ograniczony do meta

To nie jest izolowany incydent i nie ogranicza się do meta. W rzeczywistości wiele organizacji, które intensywnie zainwestowały w sztuczną inteligencję, wydaje się zadowolić lekkomyślnie, rozwija agentów AI z szaloną prędkością, z niewielkim lub żadnym problemem o spustoszenie. Nie tak dawno temu Gork Twittera-Now-X dostarczył rasistowskie i antysemickie ranty. Zrzuciło to nieprzekonujące przeprosiny, podczas gdy Elon Musk powiedział, że bot został „zmanipulowany”. W oddzielnym incydencie Gemini zajął się nienawidzącym szaleństwem i wielokrotnie ogłosił porażkę. Google powiedział, że to usterka i że działa to na „naprawienie”.

Problem polega na tym, że te nadzoru, usterki, błędy… lub jakiekolwiek marki decydują się na ich określenie, często odbijają się na zdrowiu ludzkim. Mężczyzna twierdził, że Chatgpt przekonał go, że może latać po skakaniu z 19-piętrowego budynku po tym, jak zwrócił się do tego po rozpadzie. O wiele bardziej poważny przypadek wyszedł na jaw, w którym 29-latek używał terapeuty Chatgpt AI Harry'ego podczas przechodzenia trudnej fazy przez miesiące, a później popełnił samobójstwo. Jej matka wspomniała, że ​​zwierzyła się wszystkim swoim planom tego wirtualnego terapeuty.

To tylko kilka przypadków z wielu, w których ludzie cierpią nie tylko emocjonalnie, ale czasem finansowi, a nawet stracili życie z powodu modeli AI. Kiedy pojawiają się incydenty takie jak wyciekający dokument Meta, istnieje oburzenie, ale wtedy wszyscy wydają się po prostu iść dalej, pozwalając rewolucji AI zmiażdżyć inne życie. Raz po raz chatboty AI się załamały, a wszystko, co mamy jako konsumenci w zamian, są powierzchownymi przeprosinami i zapewnieniem, że marki, które zainwestowały miliardy w uzyskanie najlepszych dostępnych talentów do projektowania i rynku, pracują nad „naprawieniem”

Konsumenci… czy świnki morskie?

W pośpiechu, aby iść naprzód w wyścigu AI, wydaje się, że wiele marek technologicznych traktuje konsumentów prawie jak świnki morskie. Jeśli brzmi to zbyt surowo, rozważ fakt, że niektóre z największych marek technologicznych na świecie (Meta, X, Google, Openai, aby wymienić kilka), które podnoszą i wydają produkty, nie patrząc na ich możliwe konsekwencje. Te marki często tworzą, pakują i wysyłają nowe funkcje w krótkim czasie. Po ożywieniu problematycznej funkcji wydano publiczne przeprosiny i jest „ustalone”, a następnie przechodzimy do następnej wersji, która na ogół pojawia się w krótkim czasie. W całym tym chaosie, to, co często jest utracone (oprócz dobrego samopoczucia) to odpowiedzialność.

A odpowiedzialność staje się tym ważniejsza, jeśli weźmie się pod uwagę, że produkty te pochodzą od ogromnych marek z bazą konsumencką, która ma miliony. W stosunkowo niewielkim przedsiębiorstwie popełniło błąd lub popełnić nadzór, ale kiedy robią to Meta, Openai i Google, błędy mają katastroficzny potencjał. Więc z pewnością powinna być tutaj jakaś odpowiedzialność? Niektóre reperkusje dla tych, którzy wydali produkt, który zaszkodził osobom, bez ostrzeżenia?

A może „naprawiono to”?

W pośpiechu w celu opracowania i uruchamiania nowych modeli AI, ci giganci technologiczni wydają się znormalizować uruchomienie funkcji i usług, które są potencjalnie niebezpieczne dla użytkowników. Bardzo niepokojące wydaje się, że nie ma prawie żadnych granic etycznych, monitorowania lub policji, które mogą powstrzymać marki technologiczne przed używaniem ich konsumentów jako szczurów laboratoryjnych. Bo to nie tak, że zabezpieczeń nie można wbudować w tych agenta AI.

Przepisy i zabezpieczenia, ktoś?

Chodzi o to, że te pozornie magiczne chatboty są opracowywane przez ludzi. Ludzie, którzy wzmacniają i pozwalają tym chatbotom zachować określony sposób. Istnieje powód, dla którego Deepseek odmawia odpowiedzi na pytania, które nie są zgodne z polityką chińską lub dlaczego Chatgpt jest specjalnie zaprojektowany, aby nie tworzyć erotyki. Ograniczenia, zabezpieczenia i powiadomienia mogą być wbudowane. Fakt, że nie tylko pokazują, że są ludzie, którzy pokazują zieloną flagę z czerwoną flagą modeli AI. I sądząc po częstotliwości, na której występują takie niepokojące incydenty, jasne jest, że niewiele po stronie marki płaci cenę za swoje osądy lub ich brak.

Wszystko to można naprawić z przejrzystością w wytycznych i zasadach. Często tak jest w przypadku wielu innych produktów, ale z jakiegoś powodu AI wydaje się stosunkowo zwolnione z tego rozporządzenia. Gdyby tylko firmy technologiczne mogły narysować czerwone linie co do tego, co jest w porządku, a co nie, i dawać publiczne wystarczające ostrzeżenia, połowa tych problemów przestałaby istnieć. Połącz to z surowszymi prawami (Illinois ograniczył użycie AI jako terapeuty), ogromne karę zamiast słabych przeprosin, które niczego nie zmieniają, i większy nadzór ludzki po uruchomieniu modelu AI i kto wie, że modele AI mogą być względnie bezpieczne.

Podczas gdy przewaga wczesnego Mover jest ważna w dziedzinie, która rośnie tak szybko, jak AI, zdecydowanie uważamy, że nie powinna ona kosztować bezpieczeństwa użytkownika. Bezpieczną i zrównoważoną platformę AI można zbudować tylko z należytą starannością. I to wymaga czasu - czas, którego marki nie uważają za warte inwestowania. Obecnie marki technologiczne prowadzą wyścig AI kosztem dzieci, zmarginalizowanych społeczności i osób zagrożonych. I uciekają po prostu, mówiąc: „naprawiliśmy to”.