No mundo da IA, "nós consertamos" não é bom o suficiente

Publicados: 2025-08-25

AI é a mercadoria mais quente do mundo da tecnologia agora. Há uma corrida na indústria para construir modelos de IA mais novos, mais rápidos e supostamente melhores. E enquanto muitos estão maravilhados com a velocidade com que novos modelos estão sendo produzidos (já houve mais de uma dúzia de modelos de chatgpt lançados) e quão mais acessíveis eles são (um smartphone de US $ 120 agora tem Gemini), na verdade não estamos prestando atenção ao dano que esse progresso está causando. Não, não estamos falando sobre como a IA está corroendo nossa capacidade de pensar ou processar informações, a psicose da IA ​​que o chefe da IA ​​da Microsoft está recebendo 'noites sem dormir' ou mesmo sobre o impacto ambiental do uso da IA. Essas são importantes, mas são histórias para outro dia (e estamos trabalhando neles).

ai safety opinion

Não, estamos olhando para algo muito mais óbvio - danos físicos humanos, e como as empresas de tecnologia estão simplesmente dizendo "opa, desculpe" e se safar de tudo. Não faz muito tempo que a Meta se viu em água quente após um vazamento de documentos internos, o que sugere que a empresa permitiu que seu chatbot de IA flertasse com crianças, gerasse informações médicas falsas e apoiassem ativamente argumentos racistas.

Resposta de Meta? " Nós consertamos isso. "

Um chatbot da AI que poderia "envolver uma criança em conversas românticas ou sensuais"!

No início deste ano, a Meta estabeleceu o Meta Superintelligence Labs (MSL), a mais recente divisão de IA da empresa. Para administrar esta divisão, a marca de tecnologia decidiu fazer uma caçada. Uma caçada por talento. Agora, isso pode parecer simples e óbvio, mas a Meta foi além dos padrões da indústria para contratar talentos de IA de todo o mundo e também não se esquivou de caçar. De acordo com os relatórios, o talento escalfado da meta do OpenAI, Google, Apple e muitas outras marcas. Era como se Zuckerberg estivesse montando seus próprios Vingadores de AI para "salvar" o mundo de outros modelos de IA, com o objetivo de acumular os principais executivos para dominar o espaço da IA.

Parece familiar? Bem, a Meta adquiriu o Instagram e o WhatsApp e até fez uma oferta de US $ 500 milhões para o Twitter. Dada a mentalidade de "por que seguir o líder ou ser o líder da Meta quando você pode comprar o líder", não foi uma surpresa que a Meta estava oferecendo pacotes de US $ 250 milhões para o topo do talento da IA, pois foi construir seu próprio aimpirado. Parece que, em toda essa corrida para obter o melhor de todos os lugares a bordo, construir modelos de IA mais rapidamente do que o resto do mundo, a Meta cruzou uma linha enorme.

O documento vazado interno ao qual nos referimos anteriormente mostrou que a gigante da tecnologia permitiu que seu chatbot da AI “envolva uma criança em conversas românticas ou sensuais” e “incluindo papéis românticos”. Agora, o que é perturbador é o fato de que isso não é um bug, mas uma política aprovada e de pensamento que foi considerada aceitável pela equipe jurídica da Meta, pela equipe de engenharia e pelo departamento de políticas públicas. A Meta afirma que 'consertou', mas não sabemos se as correções foram feitas apenas para codificar ou para todo o conjunto de políticas e processos que tornaram algo tão perigoso possível.

Um meta-fenômeno, não limitado a meta

Este não é um incidente isolado e não se limita à meta. De fato, muitas organizações que investiram fortemente na IA parecem estar contentes em contratar de forma imprudente, desenvolvem agentes de IA em velocidade insana, com pouca ou nenhuma preocupação com o caos que podem causar. Não faz muito tempo, Gork, do Twitter-No-X, passou a entregar discursos racistas e anti-semitas. Ele abandonou um pedido de desculpas não convincente, enquanto Elon Musk disse que o bot era "manipulado" nele. Em um incidente separado, Gêmeos fez uma onda de auto-ataque e anunciou que foi um fracasso várias vezes. O Google disse que era uma falha e que está trabalhando para "consertar".

O problema é que essas supervisões, falhas, insetos ... ou quaisquer que sejam as marcas que optem por denominar, geralmente afetam a saúde humana. Um homem alegou que o Chatgpt o convenceu de que poderia voar depois de pular de um prédio de 19 andares depois que ele se virou para postar um rompimento. Um caso muito mais sério veio à tona, onde um homem de 29 anos usou o terapeuta da IA ​​ChatGPT Harry enquanto passava por uma fase difícil por meses e depois cometeu suicídio. Sua mãe mencionou que ela confidenciou todos os seus planos a esse terapeuta virtual.

Estes são apenas alguns casos em muitos em que os humanos sofreram não apenas emocionais, mas às vezes financeiros, e até perderam a vida por causa dos modelos de IA. Quando incidentes como o documento vazado de Meta vêm à tona, há indignação, mas todo mundo parece simplesmente seguir em frente, deixando a revolução da IA ​​esmagar outras vidas. Repetidas vezes, os chatbots da AI vacilaram, e tudo o que temos como consumidores em troca são desculpas superficiais e garantias de que as marcas que investiram bilhões na disponibilização do melhor talento para projetar e comercializá -las estão trabalhando para "consertar"

Consumidores ... ou porquinhos -da -índia?

Na pressa de avançar na corrida de IA, parece que muitas marcas de tecnologia estão tratando os consumidores quase como porquinhos -da -índia. Se isso parecer um julgamento muito severo, considere o fato de que algumas das maiores marcas de tecnologia do mundo (meta, x, google, openai, para citar alguns) estão exaltando e liberando produtos sem aparentemente olhar para suas possíveis consequências. Essas marcas geralmente criam, embalam e enviam novos recursos em pouco tempo. Uma vez que um recurso problemático ganha vida, um pedido de desculpas público é emitido e é "fixo" e depois passamos para o próximo lançamento, que geralmente surge em quase nenhum tempo. Em todo esse caos, o que geralmente se perde (além do bem-estar humano) é a responsabilidade.

E a responsabilidade se torna ainda mais importante quando você considera que esses produtos vêm de marcas maciças com uma base de consumidores que chega a milhões. Uma coisa é uma empresa relativamente pequena para cometer um erro ou cometer uma supervisão, mas quando os gostos de Meta, Openai e Google o fazem, os erros têm potencial catastrófico. Então, certamente, deve haver algum tipo de responsabilidade aqui? Algumas repercussões para aqueles que lançaram um produto que prejudicaram uma pessoa, sem dar nenhum aviso?

Ou é um "fixo" o suficiente?

Na pressa de desenvolver e lançar novos modelos de IA, esses gigantes da tecnologia parecem ter normalizado os recursos e serviços de lançamento que são potencialmente perigosos para os usuários. Muito perturbador, parece haver quase limites éticos, monitoramento ou policiamento que podem impedir que as marcas de tecnologia usam seus consumidores como ratos de laboratório. Pois não é como se salvaguardas não pudessem ser incorporadas nesses agentes de IA.

Regulamentos e salvaguardas, alguém?

O ponto a entender aqui é que esses chatbots aparentemente mágicos são realmente desenvolvidos por humanos. Os seres humanos que capacitam e permitem que esses chatbots se comportem de uma certa maneira. Há uma razão pela qual o DeepSeek se recusa a responder a perguntas que não se alinham à política chinesa ou pelas quais o ChatGPT é projetado especificamente para não criar Erotica. Restrições, salvaguardas e alertas podem ser incorporados. O fato de que eles não são apenas para mostrar que existem pessoas que mostram a bandeira verde para a bandeira vermelha-comportamento dos modelos de IA. E, a julgar pela frequência com que esses incidentes preocupantes ocorrem, fica claro que não muitos do lado da marca estão pagando um preço por seus julgamentos ou por falta deles.

Tudo isso pode ser corrigido com transparência nas diretrizes e políticas. Muitas vezes, é o caso de muitos outros produtos, mas, por algum motivo, a IA parece relativamente isenta desse regulamento. Se apenas as empresas de tecnologia pudessem desenhar linhas vermelhas definindo o que está bem e o que não é, e dar aos avisos adequados ao público, metade desses problemas deixaria de existir. Combine isso com leis mais rigorosas (Illinois restringiu o uso de IA como terapeuta), penalidades pesadas em vez de desculpas fracas que não mudam nada e mais supervisão humana após o lançamento de um modelo de IA e quem sabe, os modelos de IA podem realmente ser relativamente seguros.

Embora a vantagem do motorista precoce seja importante em um campo que cresce tão rapidamente quanto a IA, sentimos fortemente que ela não deve ter o custo da segurança do usuário. Uma plataforma de IA segura e sustentável só pode ser construída com devida diligência. E isso leva tempo - quais marcas não parecem considerar que vale a pena investir. No momento, as marcas de tecnologia estão executando a corrida de IA à custa de crianças, comunidades marginalizadas e pessoas em risco. E eles estão se afastando apenas dizendo "nós consertamos".