În lumea AI, „ne -am rezolvat” nu este suficient de bun

Publicat: 2025-08-25

AI este cea mai tare marfă din lumea tehnologiei chiar acum. Există o cursă în industrie pentru a construi modele AI mai noi, mai rapide și se presupune mai bune. Și în timp ce mulți se minunează de viteza cu care sunt eliminate noi modele (au fost lansate deja mai mult de o duzină de modele Chatgpt) și cât de mult sunt mai accesibile (un smartphone USD 120 USD are acum Gemini), nu acordăm atenție de fapt daunelor pe care le face progresele. Nu, nu vorbim despre modul în care AI ne erodează capacitatea noastră de a gândi sau de a procesa informații, despre psihoza AI despre care șeful AI al Microsoft a obținut „nopți nedormite” despre sau chiar impactul asupra mediului al utilizării AI. Acestea sunt importante, dar sunt povești pentru o altă zi (și lucrăm la ele).

ai safety opinion

Nu, ne uităm la ceva mult mai evident - rău uman, fizic și modul în care companiile tehnologice spun pur și simplu „oops, îmi pare rău” și scapă de toate. Nu a fost prea mult timp în urmă, Meta s -a regăsit în apă caldă după o scurgere internă de documente, ceea ce sugerează că compania a permis chatbot -ului AI să flirteze cu copiii, să genereze informații medicale false și să susțină activ argumente rasiste.

Răspunsul meta? „ Am remediat -o.

Un chatbot AI care ar putea „angaja un copil în conversații romantice sau senzuale”!

La începutul acestui an, Meta a înființat Meta Superintelligence Labs (MSL), cea mai recentă divizie AI a companiei. Pentru a conduce această divizie, brandul tehnologic a decis să meargă la o vânătoare. O vânătoare de talent. Acum, acest lucru poate părea simplu și evident, dar Meta a trecut dincolo de standardele industriei pentru a angaja talent AI din întreaga lume și nici nu s -a ferit de braconaj. Conform rapoartelor, meta -talent -ul a fost de la OpenAI, Google, Apple și multe alte mărci. Era ca și cum Zuckerberg își asambla propriii AI AVENGERS pentru a „salva” lumea de alte modele AI, urmărind să -i asigure pe directori de top pentru a domina spațiul AI.

Sună familiar? Ei bine, Meta a achiziționat Instagram și WhatsApp și chiar a introdus o ofertă de 500 de milioane USD pentru Twitter. Având în vedere că Meta a „De ce să -l urmărești pe lider sau să fii lider atunci când poți cumpăra mentalitatea liderului”, nu a fost o surpriză faptul că Meta oferea pachete de până la 250 de milioane de dolari pentru a -și face talentul AI, în timp ce se referă la construirea propriului Aimpire. Se pare că, în toată această grabă, să obții tot ce este mai bun de pretutindeni la bord, să construiești modele AI mai repede decât restul lumii, Meta a trecut o linie masivă.

Documentul scurs intern la care ne-am referit anterior a arătat că gigantul tehnologic a permis chatbot-ului său AI să „angajeze un copil în conversații romantice sau senzuale” și „inclusiv joc de rol romantic”. Acum, ceea ce este deranjant este faptul că aceasta nu este o eroare, ci o politică aprobată, gândită, care a fost considerată acceptabilă de echipa juridică a meta-ului, de personal de inginerie, precum și de departamentul de politici publice. Meta susține că „a rezolvat -o”, dar nu știm dacă corecțiile au fost făcute doar la cod sau la întregul set de politici și procese care au făcut ca ceva să fie posibil să fie posibil.

Un meta-fenomen, fără a se limita la meta

Acesta nu este un incident izolat și nu se limitează la meta. De fapt, multe organizații care au investit foarte mult în AI par să se mulțumească să se angajeze în mod imprudent, să dezvolte agenți AI cu viteză nebună, fără prea multe îngrijorări cu privire la ravagii pe care le pot provoca. Nu cu mult timp în urmă, Gork-ul Twitter-Now-X a continuat să ofere rafturi rasiste și antisemite. A renunțat la o scuză neconvingătoare, în timp ce Elon Musk a spus că botul a fost „manipulat” în el. Într-un incident separat, Gemeni a mers într-o rază de autodepășire și a anunțat că este un eșec de mai multe ori. Google a spus că a fost un glitch și că funcționează pentru a -l „repara”.

Problema este că aceste supravegheri, sclipici, bug -uri ... sau orice ar alege brandurile să le numească, adesea au un efect mare asupra sănătății umane. Un bărbat a afirmat că Chatgpt l-a convins că poate zbura după ce a sărit dintr-o clădire de 19 etaje, după ce a apelat la el după o despărțire. Un caz mult mai grav a apărut în cazul în care un tânăr de 29 de ani a folosit terapeutul AI Chatgpt Harry în timp ce trece printr-o fază grea luni întregi, iar ulterior s-a sinucis. Mama ei a menționat că a mărturisit toate planurile sale pentru acest terapeut virtual.

Acestea sunt doar câteva cazuri din multe în care oamenii au suferit nu doar emoțional, ci uneori financiar și chiar și -au pierdut viața din cauza modelelor AI. Când incidentele precum documentul scurs al Meta ies la iveală, există ultraj, dar atunci toată lumea pare să continue pur și simplu, lăsând revoluția AI să zdrobească alte vieți. Din nou, chatbot -urile AI au falimentat și tot ceea ce avem în calitate de consumatori în schimb sunt scuze superficiale și reasigurare că mărcile care au investit miliarde pentru a obține cel mai bun talent disponibil pentru proiectarea și comercializarea acestora lucrează pentru a „repara”

Consumatori ... sau cobai?

În graba lor pentru a merge mai departe în cursa AI, se pare că multe mărci de tehnologie tratează consumatorii aproape ca cobai. Dacă sună o judecată prea aspră, atunci luați în considerare faptul că unele dintre cele mai mari mărci tehnologice din lume (meta, x, Google, Openai, pentru a numi câteva) sunt înconjurate și eliberează produse fără să se uite la posibilele lor consecințe. Aceste mărci creează adesea, împachetează și livrează noi funcții în cel mai scurt timp. Odată ce o caracteristică problematică devine viață, se emite o scuză publică și este „fixă”, iar apoi trecem la următoarea versiune, care, în general, suprafeță în cel mai scurt timp. În tot acest haos, ceea ce se pierde adesea (în afară de bunăstarea umană) este responsabilitatea.

Și responsabilitatea devine cu atât mai importantă atunci când considerați că aceste produse provin de la mărci masive cu o bază de consum care se ocupă de milioane. Este un lucru pentru o întreprindere relativ mică să facă o greșeală sau să comită o supraveghere, dar atunci când le place Meta, OpenAI și Google, erorile au potențial catastrofal. Deci, cu siguranță, ar trebui să existe un fel de responsabilitate aici? Unele repercusiuni pentru cei care au lansat un produs care a afectat o persoană, fără a le da vreun avertisment?

Sau este suficient de „fixat”?

În graba lor de a dezvolta și lansa noi modele AI, acești giganți tehnologici par să fi normalizat funcții și servicii de lansare care sunt potențial periculoase pentru utilizatori. Foarte deranjant, se pare că nu există nici o limită etică, monitorizare sau poliție care poate împiedica mărcile tehnologice să folosească consumatorii ca șobolani de laborator. Căci nu este ca și cum nu se pot încorpora garanții în acești agenți AI.

Reglementări și garanții, cineva?

Ideea de înțeles aici este că aceste chatbot -uri aparent magice sunt de fapt dezvoltate de oameni. Oamenii care împuternicesc și permit acestor chatbots să se comporte într -un anumit fel. Există un motiv pentru care Deepseek refuză să răspundă la întrebări care nu se aliniază politicii chineze sau de ce ChatGPT este conceput special pentru a nu crea erotică. Restricțiile, garanțiile și alertele pot fi încorporate. Faptul că nu numai că sunt să arate că există oameni care arată steagul verde către comportamentul roșu al pavilionului roșu al modelelor AI. Și judecând după frecvența la care apar astfel de incidente îngrijorătoare, este clar că nu prea mulți din partea mărcii plătesc un preț pentru judecățile lor sau lipsa acestora.

Toate acestea pot fi fixate cu transparență în ghiduri și politici. Adesea este cazul cu multe alte produse, dar din anumite motive, AI pare relativ scutită de acest regulament. Dacă numai companiile tehnologice ar putea atrage linii roșii definitorii cu privire la ceea ce este în regulă și ce nu, și să ofere publicului avertismente adecvate, jumătate din aceste probleme ar înceta să mai existe. Combinați acest lucru cu legi mai stricte (Illinois a restricționat utilizarea AI ca terapeut), penalități grele în loc de scuze slabe care nu schimbă nimic și mai multă supraveghere umană în urma lansării unui model AI și cine știe, modelele AI ar putea fi de fapt relativ sigure.

În timp ce avantajul timpuriu al lui Mover este important într -un domeniu care crește la fel de rapid ca AI, simțim cu tărie că nu ar trebui să coste siguranța utilizatorilor. O platformă AI sigură și durabilă poate fi construită doar cu diligență cuvenită. Și asta necesită timp - timpul pe care mărcile nu pare să -l ia în considerare în valoare de investiții. În momentul de față, mărcile tehnologice aleargă cursa AI cu prețul copiilor, comunităților marginalizate și a persoanelor cu risc. Și ei scapă doar spunând „Am remediat -o”.