Claude 绝密模型泄露!Sora 关停、AI 工具链遭投毒… 本周最炸 AI 热点汇总(一
一、Claude绝密模型意外泄露,超强能力引安全担忧
近期,AI圈最具爆炸性的新闻当属Anthropic公司绝密模型Claude Mythos的意外曝光。这场风波源于一次低级的人为失误:公司内容管理系统配置出错,导致近3000份内部资料被设为公开可访问状态,其中就包含了这款尚未发布的顶级模型的核心信息。
据泄露文件显示,Claude Mythos(内部代号“卡皮巴拉”)是Anthropic迄今为止打造的最强大模型,在软件编程、学术推理和网络安全三大核心领域,得分全面碾压此前的旗舰模型Claude Opus 4.6,实现了“阶梯式跨越”。尤其值得警惕的是,该模型在网络安全领域的能力远超现有水平,甚至被认为具备发起大规模网络攻击的潜力,这也让Anthropic对其公开发布持极为谨慎的态度。
目前,Anthropic已紧急限制了相关资料的访问权限,并证实正在与小部分早期客户进行有限测试。但此次泄露事件不仅暴露了AI巨头在模型保密与安全管控方面的重大疏漏,也进一步加剧了大模型军备竞赛的紧张态势,引发业界对AI技术伦理和安全的深度思考。
二、Sora突然关停,AI视频神话落幕
就在Claude模型泄露事件引发热议的同时,OpenAI传来另一条重磅消息:曾经红极一时的AI视频生成工具Sora宣布全面关停。从去年9月底高调推出,到如今仅仅六个月就黯然退场,Sora的命运令人唏嘘。
作为OpenAI推出的首款独立AI视频生成应用,Sora曾凭借其强大的视频生成能力迅速走红,下载量突破百万的速度甚至超过了ChatGPT,一度登顶苹果应用商店榜首。然而,好景不长,进入2026年1月后,Sora的下载量暴跌45%,用户活跃度持续下滑。
OpenAI在声明中表示,关停Sora是为了将计算资源优先投入到更能推动公司使命的高价值用途上。尽管官方并未透露具体原因,但业内普遍认为,Sora高昂的计算成本、难以突破的技术瓶颈以及相对有限的应用场景,是导致其被放弃的主要因素。Sora的退场,也让人们对AI视频生成技术的商业化前景产生了新的质疑。
三、AI工具链频遭投毒,安全危机暗流涌动
除了巨头们的动态,近期AI工具链领域的安全问题也频频引发关注。央视“3·15”晚会曝光了AI大模型遭“投毒”的黑色产业链,部分商家利用GEO系统等工具,通过批量投放虚假软文,污染AI大模型的训练数据,从而操控AI的推荐结果,将虚假信息包装成“标准答案”推送给用户。无独有偶,国内流行的API协作平台Apifox、大模型网关工具LiteLLM等也先后遭到投毒攻击,攻击者利用开发者对AI工具链的信任,植入恶意代码,窃取敏感数据,甚至实现容器逃逸和集群横向移动,给企业AI基础设施带来严重威胁。
这些事件警示我们,随着AI技术的广泛应用,其安全风险正从模型本身向整个工具链延伸。AI投毒不仅会误导普通用户,还可能扰乱市场秩序,抬高合规企业的运营成本。如何加强AI工具链的安全防护,成为当前AI产业发展亟待解决的问题。
本周这一系列AI热点事件,既展现了AI技术的飞速发展,也暴露了其在安全、伦理和商业化等方面面临的诸多挑战。未来,AI产业的健康发展,需要技术创新与安全保障的协同推进,也离不开全社会的共同关注和规范引导。