Dans le monde de l'IA, «nous le réparons» n'est pas assez bon

Publié: 2025-08-25

L'IA est la marchandise la plus chaude du monde de la technologie en ce moment. Il y a une course dans l'industrie pour construire des modèles d'IA plus récents, plus rapides et prétendument meilleurs. Et bien que beaucoup s'émerveillent de la vitesse à laquelle de nouveaux modèles sont projetés (il y a déjà eu plus d'une douzaine de modèles Chatgpt publiés) et à quel point ils sont plus accessibles (un smartphone de 120 USD a maintenant des Gémeaux), nous ne faisons pas attention aux dommages que ce progrès fait. Non, nous ne parlons pas de la façon dont l'IA érode notre capacité à penser ou à traiter les informations, à la psychose de l'IA dont le patron de l'IA de Microsoft a obtenu des `` nuits blanches '', ou même l'impact environnemental de l'utilisation de l'IA. Celles-ci sont importantes, mais ce sont des histoires pour un autre jour (et nous y travaillons).

ai safety opinion

Non, nous examinons quelque chose de bien plus évident - des dommages humains et physiques et comment les entreprises technologiques disent simplement «oups, désolé» et s'enfuir avec tout cela. Il n'y a pas si longtemps, Meta s'est retrouvée dans l'eau chaude après une fuite de document interne, ce qui suggère que l'entreprise a permis à son chatbot d'IA de flirter avec des enfants, de générer de fausses informations médicales et de soutenir activement les arguments racistes.

La réponse de la méta? « Nous l'avons réparé. »

Un chatbot IA qui pourrait «engager un enfant dans des conversations romantiques ou sensuelles»!

Plus tôt cette année, Meta a créé Meta Superitelligence Labs (MSL), la dernière division d'IA de la société. Pour gérer cette division, la marque technologique a décidé de faire une chasse. Une chasse au talent. Maintenant, cela peut sembler simple et évident, mais Meta est allé au-delà des normes de l'industrie pour embaucher des talents de l'IA du monde entier et n'a pas hésité à braconner non plus. Selon les rapports, les talents de méta-bracent d'Openai, Google, Apple et de nombreuses autres marques. C'était comme si Zuckerberg assemblait ses propres Ai Avengers pour «sauver» le monde des autres modèles d'IA, visant à thésauter les cadres supérieurs afin de dominer l'espace d'IA.

Cela semble familier? Eh bien, Meta a acquis Instagram et WhatsApp, et a même fait une offre de 500 millions USD pour Twitter. Étant donné que META «Pourquoi suivre le leader ou être le leader lorsque vous pouvez acheter le leader», il n'était guère une surprise que Meta offrait des forfaits pouvant atteindre 250 millions de dollars pour les talents de l'IA alors qu'il a fait la construction de son propre AIMPIRE. Il semble que dans toute cette précipitation pour tirer le meilleur parti de partout à bord, construire des modèles AI plus rapidement que le reste du monde, Meta a franchi une ligne massive.

Le document interne divulgué auquel nous avons fait référence précédemment a montré que le géant de la technologie a permis à son chatbot d'IA de «engager un enfant dans des conversations romantiques ou sensuelles» et «y compris un jeu de rôle romantique». Maintenant, ce qui est dérangeant, c'est qu'il ne s'agit pas d'un bogue mais d'une politique approuvée et réfléchie qui a été jugée acceptable par l'équipe juridique de Meta, le personnel d'ingénierie, ainsi que le département des politiques publiques. Meta affirme que cela le «a corrigé», mais nous ne savons pas si les correctifs ont été faits pour coder ou à l'ensemble des politiques et des processus qui ont rendu quelque chose de dangereux possible.

Un méta-phénomène, non limité aux méta

Ce n'est pas un incident isolé, et il ne se limite pas à Meta. En fait, de nombreuses organisations qui ont investi massivement dans l'IA semblent se contenter d'embaucher de manière imprudente, développer des agents d'IA à une vitesse folle, avec peu ou pas de souci concernant les ravages qu'ils peuvent faire. Il n'y a pas si longtemps, Gork de Twitter-Now-X a ensuite livré des diatribes racistes et antisémites. Il a laissé tomber des excuses peu convaincantes tandis qu'Elon Musk a déclaré que le bot y était «manipulé». Dans un incident séparé, Gemini a fait une vague de dégoût de soi et a annoncé que c'était un échec à plusieurs reprises. Google a dit que c'était un problème et qu'il fonctionne pour «le réparer».

Le problème est que ces surveillants, pépins, bugs… ou quelles que soient les marques choisissent de les qualifier, passent souvent un lourd tribut sur la santé humaine. Un homme a affirmé que Chatgpt l'avait convaincu qu'il pouvait voler après avoir sauté d'un bâtiment de 19 étages après avoir tourné vers lui après une rupture. Un cas beaucoup plus grave est apparu où un joueur de 29 ans a utilisé le thérapeute de l'IA Chatgpt Harry tout en traversant une phase difficile pendant des mois, et s'est ensuite suicidé. Sa mère a mentionné qu'elle avait confié tous ses plans à ce thérapeute virtuel.

Ce ne sont que quelques cas parmi beaucoup de personnes où les humains ont souffert non seulement émotionnel, mais parfois financier, et ont même perdu la vie à cause des modèles d'IA. Lorsque des incidents tels que le document divulgué de Meta sont révélés, il y a l'indignation, mais que tout le monde semble simplement passer à autre chose, laissant la révolution de l'IA écraser d'autres vies. À maintes reprises, les chatbots d'IA ont faibli, et tout ce que nous avons en tant que consommateurs en retour sont des excuses superficielles et l'assurance que les marques qui ont investi des milliards pour obtenir les meilleurs talents disponibles pour les concevoir et les commercialiser travaillent pour «le réparer»

Les consommateurs… ou les cobayes?

Dans leur hâte d'aller de l'avant dans la course de l'IA, il semble que de nombreuses marques technologiques traitent les consommateurs presque comme des cobayes. Si cela semble un jugement trop sévère, considérez le fait que certaines des plus grandes marques technologiques du monde (Meta, X, Google, Openai, pour n'en nommer que quelques-unes) sont des produits et de publier des produits sans avoir apparemment examiné leurs conséquences possibles. Ces marques créent, emballent et expédient souvent de nouvelles fonctionnalités en un rien de temps. Une fois qu'une caractéristique problématique a pris vie, des excuses publiques sont présentées, et elle est «fixe», puis nous passons à la prochaine version, qui fait généralement surface en un rien de temps. Dans tout ce chaos, ce qui est souvent perdu (à part le bien-être humain) est la responsabilité.

Et la responsabilité devient d'autant plus importante si l'on considère que ces produits proviennent de marques massives avec une base de consommateurs qui se déroule en millions. C'est une chose pour une entreprise relativement petite de commettre une erreur ou de commettre une supervision, mais lorsque Meta, Openai et Google le font, les erreurs ont un potentiel catastrophique. Donc, il devrait sûrement y avoir une sorte de responsabilité ici? Quelques répercussions pour ceux qui ont publié un produit qui a nui à une personne, sans leur donner d'avertissement?

Ou est-ce qu'un «fixé» est-il suffisant?

Dans leur hâte pour développer et lancer de nouveaux modèles d'IA, ces géants de la technologie semblent avoir normalisé des fonctionnalités et des services qui sont potentiellement dangereux pour les utilisateurs. Très inquiétant, il ne semble pas y avoir de limites éthiques, de surveillance ou de police qui peuvent empêcher les marques technologiques d'utiliser leurs consommateurs comme rats de laboratoire. Car ce n'est pas comme si des garanties ne pouvaient pas être intégrées à ces agents d'IA.

Règlements et garanties, quelqu'un?

Le point de comprendre ici est que ces chatbots apparemment magiques sont réellement développés par les humains. Les humains qui autonomisent et permettent à ces chatbots de se comporter d'une certaine manière. Il y a une raison pour laquelle Deepseek refuse de répondre aux questions qui ne s'alignent pas sur la politique chinoise ou pourquoi le chatppt est spécifiquement conçu pour ne pas créer d'érotisme. Des restrictions, des garanties et des alertes peuvent être intégrées. Le fait qu'ils ne sont pas seulement pour montrer qu'il y a des gens qui montrent le drapeau vert au drapeau rouge-comportement des modèles d'IA. Et à en juger par la fréquence à laquelle de tels incidents inquiétants se produisent, il est clair que pas trop de la marque paient un prix pour leurs jugements ou leur absence.

Tout cela peut être fixé avec la transparence dans les directives et les politiques. C'est souvent le cas avec de nombreux autres produits, mais pour une raison quelconque, l'IA semble relativement exempte de ce règlement. Si seules les entreprises technologiques pouvaient tracer la définition de lignes rouges sur ce qui va bien et ce qui ne l'est pas, et donner au public des avertissements adéquats, la moitié de ces problèmes cesseraient d'exister. Combinez cela avec des lois plus strictes (l'Illinois a limité l'utilisation de l'IA en tant que thérapeute), de lourdes pénalités au lieu de faibles excuses qui ne changent rien, et une supervision plus humaine après le lancement d'un modèle d'IA, et qui sait, les modèles d'IA pourraient en fait être relativement sûrs.

Bien que l'avantage du début du moteur soit important dans un domaine qui se développe aussi rapidement que l'IA, nous pensons fortement qu'il ne devrait pas se faire au prix de la sécurité des utilisateurs. Une plate-forme d'IA sûre et durable ne peut être construite qu'avec une diligence raisonnable. Et cela prend du temps - le temps que les marques ne semblent pas envisager la peine d'investir. À l'heure actuelle, les marques technologiques gèrent la course d'IA au prix des enfants, des communautés marginalisées et des personnes à risque. Et ils s'en sortent en disant simplement «nous l'avons réparé».