AI安全初创公司 Irregular 从红杉资本筹集8000万美元,用于测试OpenAI和Anthropic模型应对网络攻击的能力

作者
Tomorrow Capital
12 分钟阅读

4.5亿美元之问:为何硅谷精英们正大举押注AI的“黑暗面”

9月的一个周三上午,正当人工智能公司竞相构建功能日益强大的模型时,一家相对不为人知的以色列初创公司秘密浮出水面,携带着8000万美元的充裕资金,肩负着一项严峻的使命:在AI模型进入世界之前,测试其潜在危害。

这家名为Irregular(前身为Pattern Labs)的公司宣布完成了由红杉资本和红点投资领投、Wiz首席执行官阿萨夫·拉帕波特(Assaf Rappaport)参与的巨额融资。据知情人士透露,该公司估值约为4.5亿美元——对于一家员工不到三十几人、在本周之前大多数行业观察者都闻所未闻的公司来说,这是一个惊人的数字。

然而,Irregular的印记已经深深融入了我们时代最具影响力的AI系统中。该公司的安全评估在OpenAI为其o3和o4-mini模型发布的系统卡片中占据显著位置,而Anthropic则在其对Claude 3.7 Sonnet的评估中认可了双方的合作。他们用于衡量AI漏洞检测的SOLVE框架已成为行业标准,正在悄然塑造着全球最先进AI系统发布前的测试方式。

当硅谷的顶尖人才开始担忧AI战争时

这笔融资反映了科技行业对人工智能风险看法的根本性转变。以往的担忧主要集中在偏见或错误信息上,而今天的担忧则更为深刻:能够发起自主网络攻击、进行复杂漏洞发现,以及通过多AI代理协调行动从而压垮传统防御体系的AI系统。

联合创始人丹·拉哈夫(Dan Lahav)向行业观察人士解释说:“很快,大量的经济活动将来自于人与AI互动以及AI与AI互动,这将从多方面突破现有的安全堆栈。”他的合伙人兼首席技术官奥默·内沃(Omer Nevo)则以军事般的精确性描述了他们的方法:“我们进行复杂的网络模拟,其中AI既扮演攻击者的角色,也扮演防御者的角色。当新模型发布时,我们就能看到防御措施在哪里有效,在哪里失效。”

这并非理论上的推测。今年夏天,OpenAI因担忧企业间谍活动而全面修改了其内部安全协议。与此同时,前沿AI模型已展现出识别软件漏洞日益复杂的能力——这些能力既可用于防御,也可用于攻击。近期评估显示,这些系统能够规划复杂的攻击,尽管在没有人为协助的情况下,它们往往无法完全执行。

“涌现行为”(即AI系统规模扩大时出现的意想不到的能力)的出现,已经造成了安全专家所说的“动态目标问题”。为良性目的训练的模型,可能会自发地发展出其创造者从未预料到的技能,从关于网络战争的高级推理到与其他AI系统的自主协调。

数字红队的科学

Irregular的方法核心是精心设计的模拟环境,这些环境能模拟真实世界的网络架构。与试图诱骗AI模型产生有害反应的简单“越狱”尝试不同,他们的测试涉及复杂的、多步骤的场景,其中AI代理必须在真实的网络防御中导航、提升权限并完成特定目标。

该公司的SOLVE评分系统提供了关于AI模型如何处理漏洞发现和利用任务的细致评估。该框架已在整个行业中获得认可,出现在主要AI实验室和政府机构进行的评估中。英国政府和Anthropic都在其安全评估中引用了SOLVE,这表明该框架可能成为AI安全评估的事实标准。

Irregular与传统网络安全公司的不同之处在于,他们专注于涌现风险——这些威胁尚未在现实世界中显现,但随着AI能力的进步,它们可能会出现。他们的模拟环境不仅测试当前模型的能力,还测试可能通过持续训练或与其他系统互动而产生的潜在未来行为。

行业分析师指出,Irregular能够提前接触到主要实验室的预发布AI模型,这为其提供了显著的竞争优势。这种定位使其能够在公开部署之前识别安全漏洞,从而有可能预防现实世界中的事件发生。

推动安全军备竞赛的市场力量

AI安全市场正经历前所未有的增长,预计到2028年支出将超过200亿美元。这一增长反映了AI系统应用的不断扩大以及对相关风险认识的提高。近期事件,包括AI生成的深度伪造造成数十亿美元的欺诈损失,以及对AI助推关键基础设施攻击的担忧,已将安全问题从一个事后考量提升为部署的先决条件。

监管压力正在加速AI安全解决方案的采用。欧盟《人工智能法案》(European Union's AI Act)已于2025年8月生效,该法案要求对高能力AI系统进行全面的风险评估。类似的法规要求正在全球各司法管辖区出现,从而产生了对标准化评估框架和第三方安全评估的需求。

竞争格局显示,这是一个分散的市场,整合时机已经成熟。主要的网络安全平台已开始收购专业的AI安全公司:思科(Cisco)收购了Robust Intelligence,派拓网络(Palo Alto Networks)收购了Protect AI,而Check Point则收购了Lakera。这些举动表明,业界认识到AI安全需要超越传统网络安全方法的专业知识。

Irregular作为评估提供商和潜在标准制定者的定位,使其处于这场整合浪潮的中心。他们与主要AI实验室和政府机构的关系提供了战略价值,这超越了其当前的收入——尽管该公司最近才秘密浮出水面,但据消息人士称,其年收入已达数百万美元。

不确定格局下的投资启示

对于机构投资者而言,Irregular代表着对AI部署基础设施层的押注,而非AI能力本身。随着AI系统变得越来越强大和普及,安全层的重要性也日益凸显——其价值也随之增长。

该公司4.5亿美元的估值反映了战略而非纯粹的财务考量。通过接触OpenAI、Anthropic和Google DeepMind的预发布模型,Irregular在AI生态系统中占据了独特的地位。这种接触,加上他们对行业标准日益增长的影响力,为创造巨大的平台价值带来了潜力。

市场动态有利于能够提供全面AI安全解决方案的公司。向AI与AI互动(即多个AI系统自主协调)的转变,带来了传统方法无法解决的安全挑战。Irregular对多代理模拟的专注使其能够很好地应对这一转型。

风险因素包括主要AI实验室可能开发内部安全能力,从而减少对外部评估服务的需求。然而,监管机构对独立评估的要求以及先进AI安全测试的复杂性,预示着对专业提供商的需求将持续存在。

有远见的投资者应关注几个关键指标:Irregular从评估扩展到运行时安全控制的情况,其框架被监管机构采纳的程度,以及随着AI系统日益复杂,其扩展测试能力的能力。

AI优先世界中的前进之路

Irregular的出现反映了AI行业的更广泛成熟,其中安全考量日益成为部署决策的主导因素。该公司从秘密浮出水面到接近独角兽的估值,这一快速崛起表明投资者认识到AI安全既是必需也是机遇。

此次融资公告发布之际,AI行业正努力平衡创新速度与安全考量。近期评估表明,尽管当前的AI系统可以协助网络攻击,但与熟练的人类操作员相比,它们的能力仍然有限。然而,其发展轨迹指向了更强大、更自主的系统,这些系统可能会从根本上改变网络安全格局。

随着AI系统在关键基础设施、金融服务和国家安全应用中变得越来越普遍,正确处理安全问题的风险也持续升高。像Irregular这样的公司充当着关键的看门人,在AI能力部署之前测试其边界。

对Irregular的8000万美元投资,预示着业界对AI安全将成为一个重要市场类别的更广泛信心。对于寻求投资AI基础设施而非直接AI能力的投资者来说,提供安全评估和运行时保护的公司在一个快速发展的格局中代表着引人注目的机会。

Irregular能否将其早期的评估成功转化为平台主导地位仍是一个悬而未决的问题。然而,其在AI进步和安全需求交汇点的定位,表明他们将在塑造社会如何管理日益强大的人工智能系统所带来的风险和益处方面发挥影响力。

您可能也喜欢

本文是根据我们的用户在 新闻提交规则和指南下提交的。封面照片是计算机生成的艺术作品,仅用于说明目的;不表明实际内容。如果您认为本文侵犯了版权,请毫不犹豫地通过 发送电子邮件给我们来举报。您的警惕和合作对帮助我们维护尊重和合法合规的社区至关重要。

订阅我们的通讯

通过独家预览了解我们的新产品,获取企业业务和技术的最新资讯

我们网站使用Cookie来启用某些功能,为您提供更相关的信息并优化您在我们网站上的体验。更多信息请参阅我们的 隐私政策 和我们的 服务条款 。强制性信息可在 法律声明