在AI世界中,“我们固定”还不够好

已发表: 2025-08-25

AI是技术界最热门的商品。该行业有一场种族可以建立更新,更快,据称是更好的AI模型。尽管许多人惊叹于新型号的速度(已经发布了十几个ChatGpt型号),以及它们的易于使用的速度(现在有120美元的智能手机现在拥有Gemini),但实际上我们并没有注意这一进度的损害。不,我们不是在谈论AI如何侵蚀我们的思考或处理信息的能力,Microsoft AI的AI精神病已经在“失眠之夜”,甚至是使用AI的环境影响。这些很重要,但是另一天的故事(我们正在研究它们)。

ai safety opinion

不,我们正在看一些更明显的东西 - 人类,身体上的伤害,以及科技公司如何简单地说“糟糕,对不起”并摆脱一切。不久前,梅塔(Meta)在内部文件泄漏后发现自己在热水中,这表明该公司允许其AI聊天机器人与孩子调情,产生虚假的医疗信息,并积极支持种族主义论点。

元的回应? “我们修复了。

一个可以“让孩子参与浪漫或感性的对话”的AI聊天机器人!

今年早些时候,Meta建立了该公司最新AI部门的Meta超级智能实验室(MSL)。为了运行这个部门,技术品牌决定进行狩猎。追求人才。现在,这似乎很简单又显而易见,但是Meta超出了行业标准,聘请了来自世界各地的AI人才,也没有回避偷猎。据报道,梅塔(Meta)从Openai,Google,Apple和许多其他品牌中撒了人才。就像扎克伯格(Zuckerberg)组建了自己的AI复仇者联盟(AI Avengers),以“从其他AI”模型中“拯救”世界,旨在ho积高级管理人员,以占据AI空间。

听起来很熟悉吗?好吧,Meta确实收购了Instagram和WhatsApp,甚至投入了5亿美元的Twitter。鉴于梅塔(Meta)的“为什么要跟随领导者或成为领导者的领导者”的心态,梅塔(Meta)提供高达2.5亿美元的AI人才,因为它在建立自己的AIMPire时,梅塔(Meta)提供高达2.5亿美元的套餐并不令人惊讶。似乎在所有这些急于获得船上的最佳状态,建立AI模型的速度比世界其他地方更快,Meta越过了一条巨大的线路。

我们之前提到的内部泄漏文件显示,这家技术巨头允许其AI聊天机器人“让孩子参与浪漫或感性的对话”和“包括浪漫的角色扮演”。现在令人不安的是,这不是一个错误,而是一项经过批准的,经过思考的政策,该政策被Meta的法律团队,工程人员以及公共政策部门认为可以接受。 Meta确实声称它“修复了它”,但是我们不知道这些修复程序是否只是对代码或整个政策和流程进行的,这些政策和流程使某些事情成为可能。

元苯甲瘤,不限于元

这不是一个孤立的事件,也不限于元。实际上,许多在AI上投资的组织似乎很满足于鲁ck雇用,以疯狂的速度发展AI代理,几乎不关心他们所造成的破坏。不久前,Twitter-Now-X的Gork继续提供种族主义和反犹太的狂欢。它丢下了令人信服的道歉,而埃隆·马斯克(Elon Musk)表示,该机器人被“操纵”到其中。在另一起事件中,双子座进行了自我厌恶的狂欢,并宣布这是多次失败。 Google说,这是一个小故障,它正在努力“修复它”。

问题在于,这些疏忽,故障,虫子……或任何品牌选择将其称为这些的品牌,通常会对人类健康造成巨大损失。一名男子声称Chatgpt说服他在分手后转向19层的建筑物后可以飞行。一个更严重的案例已经揭露,一名29岁的年轻人在经历了几个月艰难的阶段,然后自杀了。她的母亲提到她将所有计划都赠予了这位虚拟治疗师。

这些只是许多案例中,人类不仅遭受了情感,有时甚至是财务上的痛苦,甚至因AI模型而丧生。当像梅塔(Meta)泄露的文件这样的事件浮出水面时,就会感到愤怒,但随后每个人似乎都只是继续前进,让AI Revolution粉碎了其他生命。 AI聊天机器人一次又一次地步履蹒跚,作为回报,我们所拥有的一切都是表面的道歉和放心,这些品牌投入了数十亿美元来获得最佳的人才来设计和推销它们,他们正在努力“修复它”

消费者……还是豚鼠?

为了在AI竞赛中取得成功,似乎许多科技品牌几乎都将消费者视为豚鼠。如果这听起来太苛刻了,那就考虑一个事实,即世界上一些最大的技术品牌(Meta,X,Google,Openai,仅举几例)正在炒作和发行产品,而似乎却看上去可能会造成其可能的后果。这些品牌通常会立即创建,包装和发行新功能。一旦有问题的功能栩栩如生,就会发出公共道歉,并且是“固定”的,然后我们继续进行下一个版本,通常几乎没有时间浮出水面。在所有这些混乱中,(除了人类的福祉之外)经常丢失的是问责制。

当您认为这些产品来自具有数百万美元的消费基础的大型品牌时,问责制变得更加重要。对于一个相对较小的企业而言,犯错或实施监督是一回事,但是当Meta,OpenAI和Google之类的人这样做时,错误会带来灾难性的潜力。因此,当然,这里应该有某种责任?对于那些释放了伤害人的产品而没有发出警告的产品的人的影响?

还是“修复”足够了?

在急于开发和推出新的AI模型时,这些科技巨头似乎已经将启动功能和服务标准化,这些功能和服务对用户来说可能是危险的。非常令人不安的是,似乎几乎没有任何道德界限,监控或警务,可以防止技术品牌将消费者用作实验室老鼠。因为这似乎不是在这些AI代理中内置保障措施。

法规和保障措施,有人吗?

这里要理解的是,这些看似神奇的聊天机器人实际上是由人类开发的。授权并允许这些聊天机器人以某种方式行事的人。 DeepSeek拒绝回答与中国政策不符的问题或Chatgpt专门设计不创造情色的问题是有原因的。可以内置限制,保障措施和警报。事实上,它们不仅表明有些人向AI模型的危险信记范围展示了绿色标志。从发生这种令人担忧的事件发生的频率来看,很明显,品牌方面并不多于为其判断或缺乏判断而付出代价。

所有这些都可以在准则和政策方面透明。许多其他产品通常是这种情况,但是由于某种原因,AI似乎相对免于这种法规。如果只有科技公司能够对什么是可以的,什么不是,并给公众足够的警告来定义红线,那么其中一半的问题将不复存在。将其与更严格的法律结合起来(伊利诺伊州限制了AI作为治疗师的使用),惩罚而不是不改变任何事情的弱性道歉,并且在推出AI模型后更多的人类监督,谁知道,AI模型实际上可能相对安全。

尽管早期推动者的优势在一个像AI一样快的领域中很重要,但我们强烈认为它不应以用户安全为代价。安全可持续的AI平台只能通过尽职调查来构建。这需要时间 - 品牌似乎不考虑值得投资的时间。目前,技术品牌以儿童,边缘化社区和处于危险的人们为代价的AI竞赛。他们只是说“我们修复了”,他们就摆脱了。