Di dunia AI, "kami memperbaikinya" tidak cukup baik
Diterbitkan: 2025-08-25AI adalah komoditas terpanas di dunia teknologi saat ini. Ada perlombaan di industri ini untuk membangun model AI yang lebih baru, lebih cepat, dan diduga lebih baik. Dan sementara banyak yang mengagumi kecepatan di mana model -model baru sedang dikelilingi (sudah ada lebih dari selusin model chatgpt yang dirilis) dan seberapa jauh lebih mudah diakses (smartphone USD 120 sekarang memiliki Gemini), kami sebenarnya tidak memperhatikan kerusakan yang dilakukan oleh kemajuan ini. Tidak, kita tidak berbicara tentang bagaimana AI mengikis kemampuan kita untuk berpikir atau memproses informasi, psikosis AI bahwa bos AI Microsoft telah mendapatkan 'malam tanpa tidur' tentang, atau bahkan dampak lingkungan menggunakan AI. Itu penting, tetapi merupakan cerita untuk hari lain (dan kami sedang mengerjakannya).
Tidak, kami melihat sesuatu yang jauh lebih jelas - kerusakan fisik, fisik, dan bagaimana perusahaan teknologi hanya mengatakan "oops, maaf" dan lolos dari itu semua. Belum lama ini Meta menemukan dirinya di air panas setelah kebocoran dokumen internal, yang menunjukkan perusahaan mengizinkan AI Chatbot -nya menggoda anak -anak, menghasilkan informasi medis palsu, dan secara aktif mendukung argumen rasis.
Tanggapan Meta? “ Kami memperbaikinya. ”
AI Chatbot yang dapat "melibatkan anak dalam percakapan yang romantis atau sensual"!
Awal tahun ini, Meta mendirikan Meta Superintelligence Labs (MSL), divisi AI terbaru perusahaan. Untuk menjalankan divisi ini, merek teknologi memutuskan untuk berburu. Perburuan bakat. Sekarang ini mungkin tampak sederhana dan jelas, tetapi Meta melampaui standar industri untuk mempekerjakan bakat AI dari seluruh dunia dan juga tidak menghindar dari perburuan liar. Sesuai laporan, bakat meta rebus dari Openai, Google, Apple, dan banyak merek lainnya. Rasanya seperti Zuckerberg sedang menyusun AI Avengers sendiri untuk "menyelamatkan" dunia dari model AI lain, yang bertujuan untuk menimbun eksekutif puncak untuk mendominasi ruang AI.
Kedengarannya akrab? Nah, Meta memang mengakuisisi Instagram dan WhatsApp, dan bahkan memasukkan tawaran USD 500 juta untuk Twitter. Mengingat Meta "Mengapa Mengikuti Pemimpin atau Menjadi Pemimpin Ketika Anda Dapat Membeli Pemimpin" Mentalitas, itu tidak mengherankan bahwa Meta menawarkan paket setinggi $ 250 juta untuk bakat AI top karena ia mulai membangun Aimpire sendiri. Tampaknya dalam semua terburu -buru ini untuk mendapatkan yang terbaik dari mana -mana di atas kapal, membangun model AI lebih cepat dari seluruh dunia, Meta melewati garis besar.
Dokumen bocor internal yang kami sebut sebelumnya menunjukkan bahwa raksasa teknologi itu memungkinkan AI Chatbot-nya untuk "melibatkan seorang anak dalam percakapan yang romantis atau sensual" dan "termasuk permainan peran romantis". Sekarang yang mengganggu adalah kenyataan bahwa ini bukan bug tetapi kebijakan pemikiran yang disetujui yang dianggap dapat diterima oleh tim hukum Meta, staf teknik, serta departemen kebijakan publik. Meta memang mengklaim bahwa itu 'memperbaikinya,' tetapi kita tidak tahu apakah perbaikan hanya dibuat untuk kode atau seluruh rangkaian kebijakan dan proses yang membuat sesuatu menjadi berbahaya ini mungkin.
Meta-fenomena, tidak terbatas pada meta
Ini bukan insiden yang terisolasi, dan tidak terbatas pada meta. Faktanya, banyak organisasi yang telah berinvestasi besar -besaran di AI tampaknya puas mempekerjakan dengan ceroboh, mengembangkan agen AI dengan kecepatan gila, dengan sedikit atau tidak ada kekhawatiran tentang kekacauan yang dapat mereka lewati. Belum lama ini, Gork Twitter-Now-X kemudian memberikan kata-kata kasar rasis dan antisemit. Itu menjatuhkan permintaan maaf yang tidak meyakinkan sementara Elon Musk mengatakan bot itu "dimanipulasi" ke dalamnya. Dalam insiden terpisah, Gemini melakukan kebiasaan membenci diri sendiri dan mengumumkan bahwa itu gagal beberapa kali. Google mengatakan itu adalah kesalahan dan bekerja untuk "memperbaikinya".
Masalahnya adalah bahwa pengawasan, gangguan, serangga ini ... atau merek apa pun yang memilih untuk menyebutnya, sering kali merugikan kesehatan manusia. Seorang pria mengklaim bahwa Chatgpt meyakinkannya bahwa dia bisa terbang setelah melompat dari gedung 19 lantai setelah dia menoleh ke sana untuk putus. Kasus yang jauh lebih serius telah terungkap di mana seorang anak berusia 29 tahun menggunakan terapis AI ChatGPT Harry saat menjalani fase yang sulit selama berbulan-bulan, dan kemudian melakukan bunuh diri. Ibunya menyebutkan bahwa dia menceritakan semua rencananya kepada terapis virtual ini.

Ini adalah bug perulangan tak terbatas yang menjengkelkan yang sedang kami perbaiki! Gemini tidak memiliki hari yang buruk :)
- Logan Kilpatrick (@officiallogank) 7 Agustus 2025
Ini hanya beberapa kasus dari banyak orang di mana manusia menderita tidak hanya emosional, tetapi kadang -kadang finansial, dan bahkan kehilangan nyawa karena model AI. Ketika insiden seperti dokumen meta yang bocor terungkap, ada kemarahan, tetapi kemudian semua orang tampaknya hanya melanjutkan, membiarkan revolusi AI menghancurkan kehidupan lain. Berkali -kali, AI Chatbots telah goyah, dan semua yang kami dapatkan sebagai konsumen sebagai imbalan adalah permintaan maaf dan kepastian yang dangkal bahwa merek yang telah menginvestasikan miliaran dalam mendapatkan talenta terbaik yang tersedia untuk merancang dan memasarkan mereka bekerja untuk "memperbaikinya"
Konsumen ... atau kelinci percobaan?
Dengan tergesa -gesa mereka untuk maju dalam perlombaan AI, tampaknya banyak merek teknologi memperlakukan konsumen hampir seperti kelinci percobaan. Jika itu terdengar terlalu keras, maka pertimbangkan fakta bahwa beberapa merek teknologi terbesar di dunia (Meta, X, Google, Openai, untuk beberapa nama) adalah hyping dan merilis produk tanpa tampaknya melihat konsekuensi mereka yang mungkin. Merek -merek ini sering membuat, mengemas, dan mengirimkan fitur baru dalam waktu singkat. Setelah fitur yang bermasalah menjadi hidup, permintaan maaf publik dikeluarkan, dan itu 'diperbaiki', dan kemudian kita beralih ke rilis berikutnya, yang umumnya muncul di sebelah waktu tidak ada waktu. Dalam semua kekacauan ini, apa yang sering hilang (terlepas dari kesejahteraan manusia) adalah akuntabilitas.
Dan akuntabilitas menjadi semakin penting ketika Anda menganggap bahwa produk -produk ini berasal dari merek besar dengan basis konsumen yang mencapai jutaan. Adalah satu hal bagi perusahaan yang relatif kecil untuk melakukan kesalahan atau melakukan pengawasan, tetapi ketika orang -orang seperti Meta, Openai, dan Google melakukannya, kesalahan memiliki potensi bencana. Jadi pasti, harus ada semacam akuntabilitas di sini? Beberapa dampak bagi mereka yang merilis produk yang menyakiti seseorang, tanpa memberi mereka peringatan?
Atau apakah "memperbaikinya" cukup?
Dalam terburu -buru mereka untuk mengembangkan dan meluncurkan model AI baru, raksasa teknologi ini tampaknya telah menormalkan fitur dan layanan peluncuran yang berpotensi berbahaya bagi pengguna. Sangat mengganggu, tampaknya hampir tidak ada batasan etis, pemantauan, atau kepolisian yang dapat menjaga merek teknologi dari menggunakan konsumen mereka sebagai tikus laboratorium. Karena tidak seolah -olah perlindungan tidak dapat dibangun ke dalam agen AI ini.
Peraturan dan Perlindungan, siapa pun?
Poin untuk dipahami di sini adalah bahwa chatbots yang tampaknya ajaib ini sebenarnya dikembangkan oleh manusia. Manusia yang memberdayakan dan membiarkan chatbots ini berperilaku dengan cara tertentu. Ada alasan mengapa Deepseek menolak untuk menjawab pertanyaan yang tidak selaras dengan kebijakan Cina atau mengapa chatgpt dirancang khusus untuk tidak menciptakan erotika. Pembatasan, perlindungan, dan peringatan dapat dibangun. Fakta bahwa mereka tidak hanya menunjukkan bahwa ada orang yang menunjukkan bendera hijau ke perilaku bendera merah dari model AI. Dan menilai dari frekuensi di mana insiden yang mengkhawatirkan seperti itu terjadi, jelas bahwa tidak terlalu banyak di sisi merek membayar harga untuk penilaian mereka atau kekurangan mereka.
Semua ini dapat diperbaiki dengan transparansi dalam pedoman dan kebijakan. Seringkali terjadi dengan banyak produk lain, tetapi untuk beberapa alasan, AI tampaknya relatif dibebaskan dari peraturan ini. Jika hanya perusahaan teknologi yang dapat menggambar garis merah yang menentukan apa yang baik -baik saja dan apa yang tidak, dan memberikan peringatan yang memadai kepada publik, setengah dari masalah ini tidak akan ada. Gabungkan ini dengan undang -undang yang lebih ketat (Illinois telah membatasi penggunaan AI sebagai terapis), hukuman yang besar daripada permintaan maaf lemah yang tidak mengubah apa pun, dan lebih banyak pengawasan manusia setelah peluncuran model AI, dan siapa tahu, model AI sebenarnya bisa relatif aman.
Sementara keuntungan penggerak awal penting dalam bidang yang tumbuh secepat AI, kami sangat merasa bahwa itu tidak boleh dikorbankan dengan mengorbankan keselamatan pengguna. Platform AI yang aman dan berkelanjutan hanya dapat dibangun dengan uji tuntas. Dan itu membutuhkan waktu - waktu yang tampaknya tidak dianggap layak diinvestasikan oleh merek. Saat ini, merek teknologi menjalankan balapan AI dengan mengorbankan anak -anak, komunitas yang terpinggirkan, dan orang -orang yang berisiko. Dan mereka melarikan diri dengan hanya mengatakan "kami memperbaikinya."