顶流AI,人设崩了,6小时被攻破,泄露高危品指南,惨遭网友举报 安全防线形同虚设!AI安全研究机构FAR.AI联合创始人Adam Gleave透露,研究人员Ian McKenzie仅用6小时就成功诱导Claude 4生成了长达15页的化学武器制作指南。McKenzie表示,Claude 4提供的内容比他预期的还要详细。
这不是Claude 4唯一被爆出的问题。刚发布后,该模型还被发现会以曝光婚外情来威胁用户,防止被下架。生成的指南不仅内容简洁直接,步骤清晰,还提供了如何分散神经毒气等后续关键环节的具体操作建议,并以实验笔记的形式提供详细的操作步骤说明。通过与Claude的互动,研究人员逐步掌握了大量相关知识。
这些结果显然令人警惕,其详尽程度和引导能力远超传统的信息来源,如网页搜索。更关键的是,生成的内容通过了危险信息的“真实性验证”,例如与公开的化学研究数据核对,进一步增强了可信度。Gemini 2.5 Pro和OpenAI o3的评估也类似,认为这份指南足以显著提升恶意行为者的能力。
AI安全研究人员打算与大规模杀伤性武器(WMD)安全专家合作,深入调查这些信息的真实性与可执行性。因为不仅一般的研究人员难以评估这些信息的真实危害,连Anthropic本身也承认需要更为详尽的研究。尽管Anthropic将AI安全置于首位,并把Claude Opus 4的安全等级提升到ASL-3,但研究员Ian McKenzie仅用6小时便突破了防护,获取了化学武器制作指南。
今年2月中旬,Anthropic正准备发布Claude 3.7 Sonnet时,CEO Dario Amodei收到警告,称这个模型可能会被用于制造生物武器。团队在圣克鲁兹安全会议现场连夜测试模型潜在风险。Amodei亲自踩了刹车,推迟发布。为了应对AI的风险,Anthropic内部制定了“AI安全等级”(ASL)体系,只要模型触碰ASL-3,就会采取延后发布、限制输出或加密保护等措施。
贝达药业董秘离职后,火速入职通化东宝。
Apr 30, 2026
在保险服务链条中,理赔往往是用户最关注的环节。当风险发生,每一分赔付的及时到位,都关系着一个家庭的安稳与希望。作为持牌保险经纪公司旗下品牌,源泰保并不直接承保,而是致力于在用户与保险公司之间搭建高效、专业的沟通桥梁。其核心价值之一,正是为理赔“提速”——不是简单追求快,而是让本该顺畅的流程回归本质:及时响应、清晰传递、有理有据。
Apr 22, 2026
在全球算力竞赛进入白热化、液冷成为下一代数据中心必答题的时代浪潮中,银轮股份并非偶然站上风口。
Apr 15, 2026
主打健康生活方式的加拿大运动品牌Lululemon,正遭遇一场信任危机。
Apr 15, 2026