Nel mondo dell'IA, "l'abbiamo risolto" non è abbastanza buono
Pubblicato: 2025-08-25L'IA è la merce più calda nel mondo della tecnologia in questo momento. C'è una gara nel settore per costruire modelli AI più nuovi, più veloci e presumibilmente migliori. E mentre molti si stanno meravigliando della velocità con cui i nuovi modelli vengono sfornati (ci sono già stati più di una dozzina di modelli Chatgpt rilasciati) e quanto sono più accessibili (uno smartphone USD ora ha Gemini), in realtà non stiamo prestando attenzione al danno che questo progresso sta facendo. No, non stiamo parlando di come l'IA stia erodendo la nostra capacità di pensare o elaborare informazioni, la psicosi AI su cui il capo dell'IA di Microsoft ha avuto "notti insonni" o persino l'impatto ambientale dell'uso dell'IA. Quelle sono importanti, ma sono storie per un altro giorno (e ci stiamo lavorando).
No, stiamo guardando qualcosa di molto più ovvio: danni umani, fisici e come le aziende tecnologiche stanno semplicemente dicendo "oops, scusa" e se ne vanno via. Non è stato molto tempo fa che Meta si è trovata in acqua calda dopo una perdita interna del documento, il che suggerisce che la società ha permesso al suo chatbot di intelligenza artificiale di flirtare con i bambini, generare false informazioni mediche e supportare attivamente argomenti razzisti.
La risposta di Meta? " L'abbiamo risolto. "
Un chatbot di intelligenza artificiale che potrebbe "coinvolgere un bambino in conversazioni romantiche o sensuali"!
All'inizio di quest'anno, Meta ha istituito Meta Soprintetingigence Labs (MSL), l'ultima divisione AI dell'azienda. Per gestire questa divisione, il marchio tecnologico ha deciso di andare a caccia. Una caccia al talento. Ora questo può sembrare semplice e ovvio, ma Meta è andata al di là degli standard del settore per assumere talenti di AI da tutto il mondo e non ha nemmeno evitato il bracconaggio. Secondo quanto riferito, il talento meta cotto di Openai, Google, Apple e molti altri marchi. Era come se Zuckerberg stesse assemblando i suoi AI Avengers per "salvare" il mondo da altri modelli di intelligenza artificiale, con l'obiettivo di accumulare i migliori dirigenti per dominare lo spazio AI.
Sembra familiare? Bene, Meta ha acquisito Instagram e WhatsApp e ha persino messo un'offerta di 500 milioni di USD per Twitter. Dato la mentalità di Meta "Why Segui The Leader o Be the Leader quando puoi acquistare la leader", non è stata una sorpresa che Meta offrisse pacchetti fino a $ 250 milioni per il più alto talento di intelligenza artificiale mentre ha costruito il proprio AIMPIRE. Sembra che in tutta questa fretta di ottenere il meglio da ovunque a bordo, costruire modelli di intelligenza artificiale più velocemente del resto del mondo, Meta ha attraversato una linea enorme.
Il documento interno trapelato a cui ci siamo riferiti in precedenza ha mostrato che il gigante della tecnologia ha permesso al suo chatbot di intelligenza artificiale di "coinvolgere un bambino in conversazioni romantiche o sensuali" e "incluso il gioco di ruolo romantico". Ora ciò che è inquietante è il fatto che questo non è un bug ma una politica approvata e di pensiero che è stata ritenuta accettabile dal team legale di Meta, dal personale ingegneristico e dal dipartimento di politica pubblica. Meta afferma che "lo ha risolto", ma non sappiamo se le correzioni siano state appena fatte per codificare o all'intera serie di politiche e processi che hanno reso qualcosa di così pericoloso possibile.
Un meta-fenomeno, non limitato al meta
Questo non è un incidente isolato e non è limitato al meta. In effetti, molte organizzazioni che hanno investito pesantemente nell'intelligenza artificiale sembrano accontentarsi di assumere incautamente, sviluppare agenti di intelligenza artificiale a velocità folle, con poca o nessuna preoccupazione per il caos che possono provocare. Non molto tempo fa, Gork di Twitter-Now-X ha continuato a fornire letanti razzisti e antisemiti. Ha lasciato cadere scuse non convincenti mentre Elon Musk ha detto che il bot è stato "manipolato". In un incidente separato, Gemini ha fatto una follia per il disprezzo e ha annunciato che è stato un fallimento più volte. Google ha detto che era un problema tecnico e che sta funzionando per "ripararlo".
Il problema è che queste sviste, glitch, bug ... o qualunque cosa i marchi scelgano di chiamarli, spesso hanno un forte impatto sulla salute umana. Un uomo ha affermato che Chatgpt lo ha convinto che poteva volare dopo essere saltato da un edificio di 19 piani dopo essersi rivolto a una rottura. Un caso molto più serio è venuto alla luce in cui un 29enne ha usato il terapista dell'IA CHATGPT Harry mentre attraversava una fase difficile per mesi e successivamente si è suicidato. Sua madre ha detto che ha confidato tutti i suoi piani a questo terapista virtuale.

Questo è un fastidioso bug di loop infinito che stiamo lavorando per risolvere! Gemelli non sta vivendo così male di un giorno :)
- Logan Kilpatrick (@officiallogank) 7 agosto 2025
Questi sono solo alcuni casi di molti in cui gli umani hanno sofferto non solo emotivi, ma a volte finanziari e persino hanno perso la vita a causa dei modelli di intelligenza artificiale. Quando gli incidenti come il documento trapelato di Meta vengono alla luce, c'è indignazione, ma poi tutti sembrano semplicemente andare avanti, lasciando che la rivoluzione dell'IA schiacciasse altre vite. Di volta in volta, i chatbot di AI hanno vacillato e tutto ciò che abbiamo come consumatori in cambio sono scuse superficiali e rassicurazioni che i marchi che hanno investito miliardi nel ottenere i migliori talenti disponibili per progettarli e commercializzarli stanno lavorando per "ripararlo"
Consumatori ... o cavie?
Nella loro fretta di andare avanti nella gara dell'IA, sembra che molti marchi tecnologici stiano trattando i consumatori quasi come cavie. Se questo sembra un giudizio troppo duro, allora considera il fatto che alcuni dei più grandi marchi tecnologici al mondo (Meta, X, Google, Openi, per citarne alcuni) stanno ipotizzando e rilasciando prodotti senza apparentemente guardare alle loro possibili conseguenze. Questi marchi spesso creano, confezionano e spediscono nuove funzionalità in pochissimo tempo. Una volta che una caratteristica problematica prende vita, viene emessa una scusa pubblica ed è "fissa", quindi passiamo alla prossima versione, che generalmente emerge in nessun momento. In tutto questo caos, ciò che viene spesso perso (a parte il benessere umano) è la responsabilità.
E la responsabilità diventa tanto più importante se si considera che questi prodotti provengono da enormi marchi con una base di consumatori che si svolge in milioni. Una cosa è un'impresa relativamente piccola commettere un errore o commettere una svista, ma quando artisti del calibro di Meta, Openi e Google lo fanno, gli errori hanno un potenziale catastrofico. Quindi sicuramente, dovrebbe esserci una sorta di responsabilità qui? Alcune ripercussioni per coloro che hanno rilasciato un prodotto che ha danneggiato una persona, senza dare loro alcun avvertimento?
O è abbastanza "fisso"?
Nella loro fretta di sviluppare e lanciare nuovi modelli AI, questi giganti tecnologici sembrano avere funzionalità di lancio normalizzate e servizi potenzialmente pericolosi per gli utenti. In modo molto inquietante, sembra non esserci quasi alcun confine etico, monitoraggio o polizia che può impedire ai marchi tecnologici di utilizzare i loro consumatori come ratti di laboratorio. Perché non è come se le salvaguardie non potessero essere integrate in questi agenti di intelligenza artificiale.
Regolamenti e garanzie, chiunque?
Il punto per capire qui è che questi chatbot apparentemente magici sono effettivamente sviluppati dagli umani. Gli umani che danno potere e permettono a questi chatbot di comportarsi in un certo modo. C'è un motivo per cui DeepSeek rifiuta di rispondere a domande che non si allineano con la politica cinese o il motivo per cui Chatgpt è specificamente progettato per non creare erotica. Le restrizioni, le garanzie e gli avvisi possono essere costruiti. Il fatto che non solo dimostra che ci sono persone che mostrano la bandiera verde al comportamento rosso della bandiera dei modelli AI. E a giudicare dalla frequenza in cui si verificano tali incidenti preoccupanti, è chiaro che non troppi dal lato del marchio stanno pagando un prezzo per i loro giudizi o la loro mancanza.
Tutto ciò può essere fissato con trasparenza nelle linee guida e nelle politiche. Spesso è il caso di molti altri prodotti, ma per qualche ragione, l'IA sembra relativamente esente da questo regolamento. Se solo le aziende tecnologiche potessero tracciare linee rosse su ciò che va bene e ciò che non lo è, e dare al pubblico avvertimenti adeguati, la metà di questi problemi smetterebbe di esistere. Combina questo con leggi più rigorose (l'Illinois ha limitato l'uso dell'IA come terapista), pesanti sanzioni invece di scuse deboli che non cambiano nulla e più supervisione umana a seguito del lancio di un modello AI e chissà, i modelli AI potrebbero effettivamente essere relativamente sicuri.
Mentre il vantaggio del primo motore è importante in un campo che sta crescendo rapidamente quanto l'intelligenza artificiale, riteniamo fortemente che non dovrebbe essere a costo della sicurezza degli utenti. Una piattaforma AI sicura e sostenibile può essere costruita solo con la dovuta diligenza. E questo richiede tempo: il tempo che i marchi non sembrano prendere in considerazione la pena investire. In questo momento, i marchi tecnologici gestiscono la gara AI a costo di bambini, comunità emarginate e persone a rischio. E si stanno allontanando solo dicendo "L'abbiamo risolto".