在AI世界中,“我們固定”還不夠好
已發表: 2025-08-25AI是技術界最熱門的商品。該行業有一場種族可以建立更新,更快,據稱是更好的AI模型。儘管許多人驚嘆於新型號的速度(已經發布了十幾個ChatGpt型號),以及它們的易於使用的速度(現在有120美元的智能手機現在擁有Gemini),但實際上我們並沒有註意這一進度的損害。不,我們不是在談論AI如何侵蝕我們的思考或處理信息的能力,Microsoft AI的AI精神病已經在“失眠之夜”,甚至是使用AI的環境影響。這些很重要,但是另一天的故事(我們正在研究它們)。
不,我們正在看一些更明顯的東西 - 人類,身體上的傷害,以及科技公司如何簡單地說“糟糕,對不起”並擺脫一切。不久前,梅塔(Meta)在內部文件洩漏後發現自己在熱水中,這表明該公司允許其AI聊天機器人與孩子調情,產生虛假的醫療信息,並積極支持種族主義論點。
元的回應? “我們修復了。 ”
一個可以“讓孩子參與浪漫或感性的對話”的AI聊天機器人!
今年早些時候,Meta建立了該公司最新AI部門的Meta超級智能實驗室(MSL)。為了運行這個部門,技術品牌決定進行狩獵。追求人才。現在,這似乎很簡單又顯而易見,但是Meta超出了行業標準,聘請了來自世界各地的AI人才,也沒有迴避偷獵。據報導,梅塔(Meta)從Openai,Google,Apple和許多其他品牌中撒了人才。就像扎克伯格(Zuckerberg)組建了自己的AI復仇者聯盟(AI Avengers),以“從其他AI”模型中“拯救”世界,旨在ho積高級管理人員,以佔據AI空間。
聽起來很熟悉嗎?好吧,Meta確實收購了Instagram和WhatsApp,甚至投入了5億美元的Twitter。鑑於梅塔(Meta)的“為什麼要跟隨領導者或成為領導者的領導者”的心態,梅塔(Meta)提供高達2.5億美元的AI人才,因為它在建立自己的AIMPire時,梅塔(Meta)提供高達2.5億美元的套餐並不令人驚訝。似乎在所有這些急於獲得船上的最佳狀態,建立AI模型的速度比世界其他地方更快,Meta越過了一條巨大的線路。
我們之前提到的內部洩漏文件顯示,這家技術巨頭允許其AI聊天機器人“讓孩子參與浪漫或感性的對話”和“包括浪漫的角色扮演”。現在令人不安的是,這不是一個錯誤,而是一項經過批准的,經過思考的政策,該政策被Meta的法律團隊,工程人員以及公共政策部門認為可以接受。 Meta確實聲稱它“修復了它”,但是我們不知道這些修復程序是否只是對代碼或整個政策和流程進行的,這些政策和流程使某些事情成為可能。
元苯甲瘤,不限於元
這不是一個孤立的事件,也不限於元。實際上,許多在AI上投資的組織似乎很滿足於魯ck僱用,以瘋狂的速度發展AI代理,幾乎不關心他們所造成的破壞。不久前,Twitter-Now-X的Gork繼續提供種族主義和反猶太的狂歡。它丟下了令人信服的道歉,而埃隆·馬斯克(Elon Musk)表示,該機器人被“操縱”到其中。在另一起事件中,雙子座進行了自我厭惡的狂歡,並宣布這是多次失敗。 Google說,這是一個小故障,它正在努力“修復它”。
問題在於,這些疏忽,故障,蟲子……或任何品牌選擇將其稱為這些的品牌,通常會對人類健康造成巨大損失。一名男子聲稱Chatgpt說服他在分手後轉向19層的建築物後可以飛行。一個更嚴重的案例已經揭露,一名29歲的年輕人在經歷了幾個月艱難的階段,然後自殺了。她的母親提到她將所有計劃都贈予了這位虛擬治療師。

這是我們正在努力修復的令人討厭的無限循環錯誤!雙子座的一天沒有那麼糟糕:)
- Logan Kilpatrick(@OfficialLogank)2025年8月7日
這些只是許多案例中,人類不僅遭受了情感,有時甚至是財務上的痛苦,甚至因AI模型而喪生。當像梅塔(Meta)洩露的文件這樣的事件浮出水面時,就會感到憤怒,但隨後每個人似乎都只是繼續前進,讓AI Revolution粉碎了其他生命。 AI聊天機器人一次又一次地步履蹣跚,作為回報,我們所擁有的一切都是表面的道歉和放心,這些品牌投入了數十億美元來獲得最佳的人才來設計和推銷它們,他們正在努力“修復它”
消費者……還是豚鼠?
為了在AI競賽中取得成功,似乎許多科技品牌幾乎都將消費者視為豚鼠。如果這聽起來太苛刻了,那就考慮一個事實,即世界上一些最大的技術品牌(Meta,X,Google,Openai,僅舉幾例)正在炒作和發行產品,而似乎卻看上去可能會造成其可能的後果。這些品牌通常會立即創建,包裝和發行新功能。一旦有問題的功能栩栩如生,就會發出公共道歉,並且是“固定”的,然後我們繼續進行下一個版本,通常幾乎沒有時間浮出水面。在所有這些混亂中,(除了人類的福祉之外)經常丟失的是問責制。
當您認為這些產品來自具有數百萬美元的消費基礎的大型品牌時,問責制變得更加重要。對於一個相對較小的企業而言,犯錯或實施監督是一回事,但是當Meta,OpenAI和Google之類的人這樣做時,錯誤會帶來災難性的潛力。因此,當然,這裡應該有某種責任?對於那些釋放了傷害人的產品而沒有發出警告的產品的人的影響?
還是“修復”足夠了?
在急於開發和推出新的AI模型時,這些科技巨頭似乎已經將啟動功能和服務標準化,這些功能和服務對用戶來說可能是危險的。非常令人不安的是,似乎幾乎沒有任何道德界限,監控或警務,可以防止技術品牌將消費者用作實驗室老鼠。因為這似乎不是在這些AI代理中內置保障措施。
法規和保障措施,有人嗎?
這裡要理解的是,這些看似神奇的聊天機器人實際上是由人類開發的。授權並允許這些聊天機器人以某種方式行事的人。 DeepSeek拒絕回答與中國政策不符的問題或Chatgpt專門設計不創造情色的問題是有原因的。可以內置限制,保障措施和警報。事實上,它們不僅表明有些人向AI模型的危險信記範圍展示了綠色標誌。從發生這種令人擔憂的事件發生的頻率來看,很明顯,品牌方面並不多於為其判斷或缺乏判斷而付出代價。
所有這些都可以在準則和政策方面透明。許多其他產品通常是這種情況,但是由於某種原因,AI似乎相對免於這種法規。如果只有科技公司能夠對什麼是可以的,什麼不是,並給公眾足夠的警告來定義紅線,那麼其中一半的問題將不復存在。將其與更嚴格的法律結合起來(伊利諾伊州限制了AI作為治療師的使用),懲罰而不是不改變任何事情的弱性道歉,並且在推出AI模型後更多的人類監督,誰知道,AI模型實際上可能相對安全。
儘管早期推動者的優勢在一個像AI一樣快的領域中很重要,但我們強烈認為它不應以用戶安全為代價。安全可持續的AI平台只能通過盡職調查來構建。這需要時間 - 品牌似乎不考慮值得投資的時間。目前,技術品牌以兒童,邊緣化社區和處於危險的人們為代價的AI競賽。他們只是說“我們修復了”,他們就擺脫了。