En el mundo de la IA, "lo arreglamos" no es lo suficientemente bueno

Publicado: 2025-08-25

La IA es el mejor producto en el mundo tecnológico en este momento. Hay una carrera en la industria para construir modelos AI más nuevos, más rápidos y supuestamente mejores. Y aunque muchos se maravillan de la velocidad a la que se están produciendo nuevos modelos (ya se han lanzado más de una docena de modelos de chatgpt) y cuánto más accesibles son (un teléfono inteligente USD 120 ahora tiene Gemini), en realidad no estamos prestando atención al daño que este progreso está haciendo. No, no estamos hablando de cómo AI está erosionando nuestra capacidad de pensar o procesar información, la psicosis de IA de la que el jefe de IA de Microsoft ha estado recibiendo 'noches de insomnio', o incluso el impacto ambiental de usar IA. Esas son importantes, pero son historias para otro día (y estamos trabajando en ellas).

ai safety opinion

No, estamos viendo algo mucho más obvio: el daño humano, físico y cómo las empresas tecnológicas simplemente dicen "Ups, lo siento" y saliéndose con la suya. No fue hace mucho tiempo que Meta se encontró en agua caliente después de una fuga de documentos internos, lo que sugiere que la compañía permitió que su chatbot Ai coqueteara con los niños, genere información médica falsa y apoyara activamente argumentos racistas.

¿Respuesta de Meta? " Lo arreglamos".

¡Un chatbot de IA que podría "involucrar a un niño en conversaciones que son románticas o sensuales"!

A principios de este año, Meta estableció Meta Superintelligence Labs (MSL), la última división de IA de la compañía. Para dirigir esta división, la marca tecnológica decidió cazar. Una búsqueda de talento. Ahora, esto puede parecer simple y obvio, pero Meta fue más allá de los estándares de la industria para contratar talento de IA de todo el mundo y tampoco rehuyó la caza furtiva. Según los informes, el talento metaescticio de OpenAi, Google, Apple y muchas otras marcas. Era como si Zuckerberg estuviera reuniendo a sus propios AI Avengers para "salvar" el mundo de otros modelos de IA, con el objetivo de acumular a los altos ejecutivos para dominar el espacio de IA.

¿Suena familiar? Bueno, Meta adquirió Instagram y WhatsApp, e incluso realizó una oferta de USD 500 millones para Twitter. Dado el "por qué seguir al líder o ser el líder cuando puedes comprar el líder", no fue una sorpresa que Meta estuviera ofreciendo paquetes de hasta $ 250 millones para superar el talento de la IA a medida que construyó su propio Aimpire. Parece que en todo este apuro para obtener lo mejor de todas partes a bordo, construir modelos de IA más rápido que el resto del mundo, Meta cruzó una línea masiva.

El documento filtrado interno al que nos referimos mostró anteriormente que el gigante tecnológico permitió que su chatbot de IA "involucre a un niño en conversaciones que son románticas o sensuales" e "incluido el juego de roles romántico". Ahora, lo que es inquietante es el hecho de que este no es un error, sino una política aprobada y pensada que fue considerada aceptable por el equipo legal, el personal de ingeniería de Meta, así como el departamento de políticas públicas. Meta afirma que lo "arregló", pero no sabemos si las correcciones se hicieron en el código o en todo el conjunto de políticas y procesos que hicieron algo tan peligroso posible.

Un metafenómeno, no limitado a meta

Este no es un incidente aislado, y no se limita a Meta. De hecho, muchas organizaciones que han invertido fuertemente en IA parecen estar contenta de contratar imprudentemente, desarrollar agentes de IA a una velocidad loca, con poca o ninguna preocupación por los estragos que pueden causar. No hace mucho tiempo, Gork de Twitter-Now-X pasó a ofrecer diatribas racistas y antisemitas. Dejó una disculpa poco convincente, mientras que Elon Musk dijo que el bot fue "manipulado" en ella. En un incidente separado, Géminis fue a una juerga autocomplaciente y anunció que fue un fracaso varias veces. Google dijo que era una falla y que está funcionando para "arreglarlo".

El problema es que estos descuidos, fallas, errores ... o cualquier marca que elijan para calificarlos, a menudo afectan mucho la salud humana. Un hombre afirmó que Chatgpt lo convenció de que podía volar después de saltar de un edificio de 19 pisos después de que se volvió hacia él después de una ruptura. Un caso mucho más grave ha salido a la luz en el que un terapeuta ChatGPT AI de 29 años Harry usó Harry mientras pasaba por una fase difícil durante meses, y luego se suicidó. Su madre mencionó que confió todos sus planes a este terapeuta virtual.

Estos son solo unos pocos casos de muchos donde los humanos han sufrido no solo emocionales, sino a veces financieros, e incluso han perdido la vida debido a los modelos de IA. Cuando los incidentes como el documento filtrado de Meta salen a la luz, hay indignación, pero luego todos parecen simplemente seguir adelante, dejando que la revolución de la IA aplasten otras vidas. Una y otra vez, los chatbots de IA han vacilado, y todo lo que tenemos como consumidores a cambio son disculpas y tranquilizaciones superficiales de que las marcas que han invertido miles de millones para obtener el mejor talento disponible para diseñarlos y comercializarlos están trabajando para "arreglarlo"

Consumidores ... o conejillos de indias?

En su prisa por avanzar en la carrera de IA, parece que muchas marcas tecnológicas están tratando a los consumidores casi como conejillos de indias. Si eso suena un juicio demasiado duro, entonces considere el hecho de que algunas de las marcas tecnológicas más grandes del mundo (Meta, X, Google, OpenAi, por nombrar algunos) están promocionando y liberando productos sin mirar sus posibles consecuencias. Estas marcas a menudo crean, empaquetan y envían nuevas funciones en poco tiempo. Una vez que una característica problemática cobra vida, se emite una disculpa pública, y se "arregla", y luego pasamos a la próxima versión, que generalmente aparece en casi un momento. En todo este caos, lo que a menudo se pierde (aparte del bienestar humano) es la responsabilidad.

Y la responsabilidad se vuelve aún más importante cuando considera que estos productos provienen de marcas masivas con una base de consumidores que se encuentra en millones. Una cosa es que una empresa relativamente pequeña cometa un error o comete un supervisión, pero cuando los gustos de Meta, OpenAi y Google lo hacen, los errores tienen un potencial catastrófico. Entonces, seguramente, ¿debería haber algún tipo de responsabilidad aquí? ¿Algunas repercusiones para aquellos que lanzaron un producto que dañó a una persona, sin darles ninguna advertencia?

¿O es suficiente "lo arregla"?

En su prisa por desarrollar y lanzar nuevos modelos de IA, estos gigantes tecnológicos parecen haber normalizado características y servicios de lanzamiento que son potencialmente peligrosos para los usuarios. Muy inquietante, parece que apenas hay límites éticos, monitoreo o vigilancia que pueda evitar que las marcas tecnológicas usen a sus consumidores como ratas de laboratorio. Porque no es como si las salvaguardas no se puedan integrar en estos agentes de IA.

Regulaciones y salvaguardas, ¿alguien?

El punto a entender aquí es que estos chatbots aparentemente mágicos son realmente desarrollados por humanos. Los humanos que empoderan y permiten que estos chatbots se comporten de cierta manera. Hay una razón por la cual Deepseek se niega a responder preguntas que no se alineen con la política china o por qué ChatGPT está específicamente diseñado para no crear erótica. Se pueden incorporar restricciones, salvaguardas y alertas. El hecho de que no solo sean demuestre que hay personas que muestran la bandera verde al trasero rojo-behaviour de los modelos de IA. Y a juzgar por la frecuencia a la que ocurren tales incidentes preocupantes, está claro que no demasiados en el lado de la marca están pagando un precio por sus juicios o falta de ellos.

Todo esto se puede solucionar con transparencia en pautas y políticas. A menudo es el caso con muchos otros productos, pero por alguna razón, la IA parece relativamente exenta de esta regulación. Si solo las empresas tecnológicas pudieran dibujar las líneas rojas definidas en cuanto a lo que está bien y lo que no, y dar al público advertencias adecuadas, la mitad de estos problemas dejarían de existir. Combine esto con leyes más estrictas (Illinois ha restringido el uso de IA como terapeuta), fuertes sanciones en lugar de disculpas débiles que no cambian nada, y una supervisión más humana después del lanzamiento de un modelo de IA, y quién sabe, los modelos de IA podrían ser relativamente seguros.

Si bien la ventaja de la motor temprana es importante en un campo que está creciendo tan rápido como la IA, creemos que no debe tener costo de seguridad del usuario. Una plataforma de IA segura y sostenible solo se puede construir con diligencia debida. Y eso lleva tiempo, tiempo que las marcas no parecen considerar que valga la pena invertir. En este momento, las marcas tecnológicas están ejecutando la carrera de IA a costa de los niños, las comunidades marginadas y las personas en riesgo. Y se están saliendo con la suya con solo decir "lo arreglamos".