AI dünyasında “Sabitliyiz” yeterince iyi değil
Yayınlanan: 2025-08-25AI şu anda teknoloji dünyasındaki en sıcak emtia. Sektörde daha yeni, daha hızlı ve iddia edilen daha iyi AI modelleri inşa etmek için bir yarış var. Ve birçoğu yeni modellerin çalınma hızına hayret ederken (zaten bir düzineden fazla chatgpt modeli var) ve ne kadar daha erişilebilir oldukları (şimdi 120 USD akıllı telefonun İkizler var), aslında bu ilerlemenin yaptığı hasara dikkat etmiyoruz. Hayır, yapay zekanın bilgileri düşünme veya işleme yeteneğimizi nasıl aştığını, Microsoft'un AI patronunun 'uykusuz geceler' ve hatta AI kullanmanın çevresel etkisini nasıl aştığı hakkında konuşmuyoruz. Bunlar önemlidir, ancak başka bir gün için hikayelerdir (ve onlar üzerinde çalışıyoruz).
Hayır, çok daha belirgin bir şeye bakıyoruz - insan, fiziksel zarar ve teknoloji şirketlerinin nasıl sadece “oops, üzgün” dediği ve hepsinden kurtulma. Meta, şirketin AI Chatbot'un çocuklarla flört etmesine, yanlış tıbbi bilgiler üretmesine ve ırkçı argümanları aktif olarak desteklemesine izin veren bir dahili belge sızıntısından sonra kendisini sıcak suda bulması çok uzun zaman önce değildi.
Meta'nın yanıtı? " Düzelttik. "
“Bir çocuğu romantik veya şehvetli konuşmalara dahil edebilecek bir AI Chatbot!
Bu yılın başlarında Meta, şirketin en son AI bölümü olan Meta Superstelligence Labs (MSL) kurdu. Bu bölümü yürütmek için teknoloji markası avlamaya karar verdi. Yetenek için bir av. Şimdi bu basit ve bariz görünebilir, ancak Meta dünyanın her yerinden AI yeteneklerini işe almak için endüstri standartlarının üstünde ve ötesine geçti ve kaçak avcılıktan da uzak durmadı. Raporlara göre, Openai, Google, Apple ve diğer birçok markadan meta haşlanmış yetenek. Zuckerberg, AI alanına hükmetmek için üst düzey yöneticileri istiflemeyi amaçlayan dünyayı diğer AI modellerinden “kurtarmak” için kendi AI Avengers'ı bir araya getiriyordu.
Kulağa tanıdık geliyor mu? Meta, Instagram ve Whatsapp'ı satın aldı ve hatta Twitter için 500 milyon dolarlık teklif verdi. Meta'nın “Lideri Satın Alabildiğinizde Lideri Neden takip edin veya Lider Olun” zihniyeti göz önüne alındığında, Meta'nın kendi AIMPire'i inşa etmeye devam ederken en üst düzey AI yeteneğine 250 milyon dolar kadar yüksek paketler sunması pek de sürpriz değildi. Görünüşe göre tüm bu acele, gemideki her yerde en iyisini elde etmek, AI modelleri dünyanın geri kalanından daha hızlı inşa etmek için Meta büyük bir çizgiyi geçti.
Daha önce bahsettiğimiz dahili sızdırılmış belge, teknoloji devinin AI chatbot'un “bir çocuğu romantik veya şehvetli konuşmalara dahil etmesine” ve “romantik rol oynamasına” izin verdiğini gösterdi. Şimdi rahatsız edici olan, bunun bir hata değil, Meta'nın hukuk ekibi, mühendislik personeli ve kamu politikası departmanı tarafından kabul edilebilir olduğu kabul edilen onaylanmış, düşünce politikası olmasıdır. Meta, 'düzelttiğini' iddia ediyor, ancak düzeltmelerin sadece kodlamaya mı yoksa bu tehlikeli bir şeyi mümkün kılan politika ve süreçlerin tamamına mı yapıldığını bilmiyoruz.
Meta ile sınırlı olmayan bir meta-fenomenon
Bu izole bir olay değildir ve meta ile sınırlı değildir. Aslında, yapay zekaya büyük yatırım yapan birçok kuruluş, pervasız bir şekilde işe almak, AI ajanlarını çılgın hızda geliştirmekten memnun gibi görünmektedir, Wreping'ler hakkında çok az endişe duymaz veya hiç endişe duymazlar. Çok uzun zaman önce, Twitter-Now-X'in Gork ırkçı ve antisemitik rantlar sunmaya devam etti. Elon Musk, botun içine “manipüle edildiğini” söylerken ikna edici bir özür bıraktı. Ayrı bir olayda Gemini, kendinden nefret eden bir çılgınlığa gitti ve bunun birçok kez başarısız olduğunu açıkladı. Google bunun bir aksaklık olduğunu ve “düzeltmek” için çalıştığını söyledi.
Sorun şu ki, bu gözetim, aksaklıklar, böcekler… ya da markaların onları adlandırmayı seçtiği her şey, genellikle insan sağlığına ağır zarar veriyor. Bir adam, Chatgpt'in bir ayrılık gönderdikten sonra 19 katlı bir binadan atladıktan sonra uçabileceğini ikna ettiğini iddia etti. 29 yaşındaki bir yaşındaki Chatgpt AI terapisti Harry'nin aylarca zorlu bir aşamadan geçerken çok daha ciddi bir dava ortaya çıktı ve daha sonra intihar etti. Annesi, tüm planlarını bu sanal terapiste güvendiğini söyledi.

Bu, düzeltmeye çalıştığımız can sıkıcı sonsuz bir döngü hatası! İkizler bir günün bu kadar kötü olmadığı :)
- Logan Kilpatrick (@OffialLogank) 7 Ağustos 2025
Bunlar, insanların sadece duygusal değil, bazen finansal olduğu ve hatta AI modelleri nedeniyle hayatlarını kaybettiği birçok durumdan sadece birkaç durumdur. Meta'nın sızdırılmış belgesi gibi olaylar ortaya çıktığında, öfke var, ama sonra herkes sadece devam ediyor gibi görünüyor, AI devriminin diğer yaşamları ezmesine izin veriyor. AI chatbots defalarca düştü ve karşılığında tüketiciler olarak sahip olduğumuz tek şey yüzeysel özür dilemeler ve onları tasarlamak ve pazarlamak için mevcut en iyi yetenekleri elde etmek için milyarlarca yatırım yapan markaların “düzeltmek için çalıştıklarına dair güvence ve güvence
Tüketiciler… veya kobay?
AI yarışında ilerlemek için acelelerinde, birçok teknoloji markasının tüketicilere neredeyse kobay gibi davrandığı görülüyor. Bu çok sert bir karar geliyorsa, dünyanın en büyük teknoloji markalarının bazılarının (Meta, X, Google, Openai, birkaçını isimlendirmek için) olası sonuçlarına bakmadan ürünleri hiper ve yayınladığını düşünün. Bu markalar genellikle hiçbir zaman yeni özellikler yaratır, paketler ve gönderir. Sorunlu bir özellik hayat bulduktan sonra, bir kamu özürü yayınlanır ve 'sabittir' ve daha sonra bir sonraki sürüme geçeriz, bu da genellikle hiçbir zaman daha sonra ortaya çıkar. Tüm bu kaosta, sık sık kaybedilen (insan refahı dışında) hesap verebilirliktir.
Ve bu ürünlerin milyonlarca süren tüketici tabanına sahip büyük markalardan geldiğini düşündüğünüzde hesap verebilirlik daha da önemli hale geliyor. Nispeten küçük bir işletmenin bir hata yapması veya bir gözetim gerçekleştirmesi bir şeydir, ancak Meta, Openai ve Google'ın bunu yapması durumunda, hataların felaket potansiyeli vardır. Yani, burada bir tür hesap verebilirlik olmalı mı? Bir kişiye zarar veren bir ürün yayınlayanlar için bazı yansımalar için herhangi bir uyarı vermeden?
Yoksa “düzeltildi” yeterli mi?
Yeni AI modelleri geliştirme ve başlatma acelelerinde, bu teknoloji devleri, kullanıcılar için potansiyel olarak tehlikeli olan başlatma özelliklerini ve hizmetlerini normalleştirmiş gibi görünüyor. Çok rahatsız edici bir şekilde, teknoloji markalarının tüketicilerini laboratuvar fareleri olarak kullanmasını engelleyebilecek hiçbir etik sınır, izleme veya polislik yok gibi görünüyor. Çünkü sanki bu AI ajanlarına güvence oluşturulamıyormuş gibi değil.
Düzenlemeler ve Güvenlikler, kimse var mı?
Burada anlanacak nokta, bu görünüşte büyülü sohbet botlarının aslında insanlar tarafından geliştirilmesidir. Bu sohbet botlarının belirli bir şekilde davranmasına izin veren ve izin veren insanlar. Deepseek'in Çin politikasına uymayan soruları cevaplamayı reddetmesinin veya ChatGPT'nin neden erotik oluşturmamak için özel olarak tasarlandığını reddetmesinin bir nedeni var. Kısıtlamalar, korumalar ve uyarılar inşa edilebilir. Sadece onların AI modellerinin kırmızı bayrak-davranışlarına yeşil bayrağı gösteren insanlar olduğunu göstermeye değil. Ve bu tür endişe verici olayların meydana gelme sıklığından yola çıkarak, marka tarafındaki çok fazla kişinin kararları veya eksiklikleri için bir fiyat ödemediği açıktır.
Tüm bunlar kılavuz ve politikalarda şeffaflık ile sabitlenebilir. Genellikle diğer birçok ürün için geçerlidir, ancak bazı nedenlerden dolayı AI bu düzenlemeden nispeten muaf görünmektedir. Sadece teknoloji şirketleri neyin iyi ve neyin olmadığı konusunda kırmızı çizgiler çizebilir ve halka yeterli uyarılar verebilirse, bu sorunların yarısı var olurdu. Bunu daha katı yasalarla birleştirin (Illinois, AI'nın bir terapist olarak kullanımını kısıtladı), hiçbir şeyi değiştirmeyen zayıf özürler yerine ağır cezalar ve bir AI modelinin başlatılmasının ardından daha fazla insan denetimi ve kim bilir, AI modelleri aslında nispeten güvenli olabilir.
Erken taşıyıcının avantajı AI kadar hızlı büyüyen bir alanda önemli olmakla birlikte, bunun kullanıcı güvenliği pahasına gelmemesi gerektiğini güçlü bir şekilde hissediyoruz. Güvenli ve sürdürülebilir bir yapay zeka platformu sadece tespit ile inşa edilebilir. Ve bu zaman alıyor - markaların yatırım yapmaya değer görmediği zaman. Şu anda, teknoloji markaları AI yarışını çocuklar, marjinal topluluklar ve risk altındaki kişilerin pahasına yürütüyor. Ve sadece “Biz düzelttik” diyerek kaçıyorlar.