В мире искусственного интеллекта «Мы исправили это» недостаточно хорошо

Опубликовано: 2025-08-25

ИИ - самый горячий товар в мире технологий прямо сейчас. В отрасли есть гонка, чтобы создать новые, более быстрые и якобы лучшие модели искусственного интеллекта. И хотя многие восхищаются скоростью, с которой выпущены новые модели (уже выпущены более дюжины моделей CATGPT), и насколько они более доступны (смартфон 120 долларов США теперь имеет Близнецы), мы на самом деле не обращаем внимания на ущерб, который наносит этот прогресс. Нет, мы не говорим о том, как ИИ разрушает нашу способность думать или обрабатывать информацию, психоз ИИ, о котором босс Microsoft AI становится «бессонными ночами» или даже воздействием использования ИИ на окружающую среду. Они важны, но это истории для другого дня (и мы работаем над ними).

ai safety opinion

Нет, мы смотрим на нечто гораздо более очевидное - человека, физический вред и то, как технологические компании просто говорят «упс, извините» и сойдут с рук. Не так давно Meta оказалась в горячей воде после утечки внутренней документа, которая предполагает, что компания позволила своему AI Chatbot флиртовать с детьми, генерировать ложную медицинскую информацию и активно поддерживать расистские аргументы.

Мета ответ? « Мы исправили это».

Ай чат -бот, который может «вовлечь ребенка в разговоры, которые являются романтичными или чувственными»!

Ранее в этом году Meta создала Meta Superintelligence Labs (MSL), последнее подразделение ИИ компании. Чтобы запустить это подразделение, технический бренд решил отправиться на охоту. Охота на талант. Теперь это может показаться простым и очевидным, но Мета вышла за рамки отраслевых стандартов, чтобы нанять талантов ИИ со всего мира и не уклонялась от браконьерства. Согласно отчетам, мета -талант между Openai, Google, Apple и многими другими брендами. Как будто Цукерберг собирал своих собственных Мстителей ИИ, чтобы «спасти» мир от других моделей искусственного интеллекта, направленного на то, чтобы накопить лучших руководителей, чтобы доминировать в пространстве ИИ.

Звучит знакомо? Что ж, Meta действительно приобрела Instagram и WhatsApp и даже поступила на 500 миллионов долларов США за Twitter. Учитывая менталитет Meta «Зачем следить за лидером или быть лидером, когда вы можете купить лидер», вряд ли удивительно, что Meta предлагает пакеты до 250 миллионов долларов для лучших талантов ИИ, поскольку он построил свой собственный Aimpire. Похоже, что во всем этом стремлении получить лучшее из везде на борту, построить модели искусственного интеллекта быстрее, чем остальной мир, Meta пересекла массивную линию.

Внутренний утечка документа, о котором мы упоминали ранее, показал, что технический гигант позволил своему чатботу ИИ «вовлечь ребенка в разговоры, которые являются романтичными или чувственными» и «включая романтическую ролевую игру». Теперь это беспокоит тот факт, что это не ошибка, а утвержденная, продуманная политика, которая была признана приемлемой юридической командой Meta, инженерным персоналом, а также отделом государственной политики. Meta действительно утверждает, что это «исправило это», но мы не знаем, были ли только что исправлены код или весь набор политик и процессов, которые сделали что -то опасное возможным.

Мета-феноменон, не ограничиваясь мета

Это не изолированный инцидент, и он не ограничивается мета. Фактически, многие организации, которые вложили значительные средства в ИИ, по -видимому, довольны безрассудными, развивая агенты ИИ на безумной скорости, и практически не заботятся о хаосе, которое они могут нанести. Не так давно Горк из Twitter-Now-X поставлял расистские и антисемитские разглагольствования. Это сбросило неубедительные извинения, в то время как Элон Маск сказал, что бот «манипулирован» в этом. В отдельном инциденте Близнецы отправились в ненависть к себе и объявили, что это был провал несколько раз. Google сказал, что это был сбой, и что он работает, чтобы «исправить это».

Проблема заключается в том, что эти надзоры, глюки, ошибки ... или любые бренды выбирают их, часто сказываются на здоровье человека. Человек утверждал, что Чатгп убедил его, что он может летать после того, как выпрыгнул из 19-этажного здания после того, как он повернулся к нему. Гораздо более серьезный случай выяснился, когда 29-летний футболист использовал терапевта по ИИ CATGPT Гарри, проходя трудный в течение нескольких месяцев, а затем покончил жизнь самоубийством. Ее мать упомянула, что она доверила все свои планы этому виртуальному терапевту.

Это всего лишь несколько случаев из многих, где люди страдали не только эмоциональными, но иногда финансовыми, и даже погибли из -за моделей ИИ. Когда такие инциденты, как утечка Meta, появляются на свете, появляется возмущение, но тогда все, кажется, просто движутся, позволяя революции ИИ раздавить другие жизни. Снова и снова, чат -боты ИИ колебались, и все, что мы получили в качестве потребителей, - это поверхностные извинения и уверенность в том, что бренды, которые инвестировали миллиарды в получение лучших талантов для разработки и продажи их, работают, чтобы «исправить»

Потребители ... или морские свинки?

В своей спешке, чтобы продвинуться вперед в гонке искусственного интеллекта, кажется, что многие технические бренды рассматривают потребителей почти как морские свинки. Если это звучит слишком сурово суждение, то подумайте о том, что некоторые из крупнейших технических брендов в мире (Meta, x, Google, Openai, и многие другие), раскручивают и выпускают продукты, не рассматривая их возможные последствия. Эти бренды часто создают, упаковывают и отправляют новые функции в кратчайшие сроки. После того, как проблематичная особенность оживает, публичные извинения возникают, и оно «фиксировано», а затем мы переходим к следующему выпуску, который обычно появляется рядом с ними. Во всем этом хаосе, то, что часто теряется (кроме человеческого благополучия), является подотчетностью.

И подотчетность становится еще более важной, если учесть, что эти продукты поступают от массовых брендов с потребительской базой, которая составляет миллионы. Одно дело для относительно небольшого предприятия, чтобы совершить ошибку или совершить контроль, но когда такие, как Meta, Openai и Google, ошибки имеют катастрофический потенциал. Так конечно, здесь должна быть какая -то ответственность? Некоторые последствия для тех, кто выпустил продукт, который причинил вред человеку, не давая им никакого предупреждения?

Или достаточно «исправить»?

В своем стремлении к разработке и запускам новых моделей искусственного интеллекта эти технологические гиганты, похоже, нормализовали функции запуска и услуги, которые потенциально опасны для пользователей. Похоже, что вряд ли существуют какие -либо этические границы, мониторинг или полицейская деятельность, которые могут не дать техническим брендам использовать своих потребителей в качестве лабораторных крыс. Потому что это не так, как если бы гарантия не могут быть встроены в эти агенты ИИ.

Правила и гарантии, кто -нибудь?

Смысл понять здесь, что эти, казалось бы, волшебные чат -боты на самом деле развиваются людьми. Люди, которые расширяют возможности и позволяют этим чат -ботам вести себя определенным образом. Существует причина, по которой DeepSeek отказывается отвечать на вопросы, которые не соответствуют политике Китая или почему Chatgpt специально разработан для создания эротики. Можно встроить ограничения, гарантии и оповещения. Тот факт, что они не только показывают, что есть люди, которые показывают зеленый флаг на красном флаге-поведении моделей ИИ. И, судя по частоте, с которой происходят такие тревожные инциденты, ясно, что не так уж много на стороне бренда платят цену за свои суждения или их отсутствие.

Все это может быть зафиксировано с прозрачностью в руководящих принципах и политиках. Это часто относится ко многим другим продуктам, но по какой -то причине ИИ кажется относительно освобожденным от этого регулирования. Если бы только технологические компании могли бы нарисовать определение красных линий относительно того, что в порядке, а что нет, и дать публичные адекватные предупреждения, половина этих проблем перестанет существовать. Объедините это с более строгими законами (Иллинойс ограничил использование ИИ в качестве терапевта), огромные штрафы вместо слабых извинений, которые ничего не меняют, и больше человеческого наблюдения после запуска модели ИИ, и кто знает, модели ИИ могут быть относительно безопасными.

Хотя преимущество раннего двигателя важно в области, которая растет так же быстро, как ИИ, мы твердо чувствуем, что оно не должно быть за счет безопасности пользователей. Безопасная и устойчивая платформа ИИ может быть построена только с должной осмотрительностью. И это требует времени - времени, которое бренды, кажется, не считают достойным инвестиций. Прямо сейчас технические бренды управляют гонкой ИИ за счет детей, маргинализированных сообществ и людей, подверженных риску. И они сходят с рук, просто говорят: «Мы исправили это».