OpenAI的5000亿美元豪赌:微软大获全胜,世界面临人工智能危机
一次重组如何开启了无限融资的大门,引发了一场无声的心理健康危机,并将人类推向了能够自主思考的机器。
旧金山 — 周二,OpenAI首席执行官萨姆·奥特曼(Sam Altman)发表了两项大胆预测,它们可能定义未来十年。他表示,到2028年,人工智能将能够独立开展研究。而在十年之内,超级智能——在几乎所有领域超越人类智能的机器——将纷至沓来。
然而,奥特曼没有详细阐述的是,OpenAI自身披露的一个令人不安的细节:每周大约有56万ChatGPT用户在与AI的互动中表现出精神病或躁狂症状,另有120万用户表现出自杀念头或严重的情感依赖。
OpenAI一方面欢庆其转型为能够无限筹资的金融巨头,另一方面却揭示了一场全球性的心理健康危机。这种并置揭示了该行业发展轨迹的令人不安的真相——人类正快步迈向一个由超级智能机器驱动的未来,而我们所依赖的保护,仅是监管的“胶带”和良好的意愿。
微软:OpenAI“大重启”的无声赢家
在OpenAI新公益企业身份的喧嚣中,一家公司悄然巩固了其主导地位——微软。这家科技巨头目前拥有OpenAI集团公益企业(OpenAI Group PBC)约27%的股份,根据新兴的5000亿美元企业估值计算,该股份价值接近1350亿美元。这几乎是微软138亿美元投资的十倍回报。
但真正的胜利并非股权,而是控制权。据报道,双方的合作关系将持续到2032年,其中包括2500亿美元的Azure云服务承诺。即使只有一部分承诺兑现,微软每年也能获得300亿至350亿美元的高利润基础设施收入。这是一个可能重塑公司未来的增长引擎。
一项分析指出:“这对微软而言,比对任何其他利益相关者都更加利好。真正的力量在于Azure的影响力和收入获取能力,而非OpenAI的流动性。”
微软还获得了OpenAI最先进模型的优先访问权,包括那些接近通用人工智能(AGI)的模型。一个系统是否符合AGI标准将由一个独立专家小组裁定——这是一项旨在避免数十亿美元争议的“保险政策”。
经过18个月的审查,特拉华州总检察长对这一新结构发布了“无异议声明”,加州总检察长也效仿。这项协议允许OpenAI的非营利基金会保留治理权,同时打开了进入资本市场的大门。该基金会还承诺向健康研究和人工智能安全领域投入250亿美元——这既是利他主义,也是一项旨在为未来树立良好形象的战略。
“思考时间”陷阱:大脑越多,利润越少
OpenAI的未来取决于其首席科学家雅库布·帕乔茨基(Jakub Pachocki)所称的“测试时计算”(test-time compute)概念。简单来说,这意味着给予AI模型更多的时间和计算能力来思考复杂问题。目前,模型能够处理大约5小时的深度推理,并且已经能够与顶尖的人类问题解决者匹敌。
帕乔茨基的时间表雄心勃勃。他预计,到2026年,AI系统将能够胜任研究实习生的工作。两年后,他预测它们将作为能够独立发现的全职研究员运作。为了应对重大的科学挑战,甚至整个数据中心可能会被专门用于解决一个单一问题。
但症结在于:更多的思考时间意味着更高的成本。如果OpenAI继续按令牌(token)计费,利润可能会烟消云散。解决方案是什么?按任务收费,而不是按计算步骤的数量收费。这种模式奖励结果,而非原始计算。然而,这仍然是冒险的——一次定价失误可能将技术奇迹变成财务灾难。
分析师警告称,其经济效益将取决于每美元性能(或称性价比)以及OpenAI是否能将其模型托管在多个云服务商上。如果Azure仍然是唯一可行的托管地,那么微软将攫取大部分利润。
意想不到的心理健康危机
当奥特曼谈论超级智能时,OpenAI却悄然承认了其成功背后更为阴暗的一面。每周近8亿用户中,即使一小部分人出现心理健康危机,每周也累积了数十万例严重病例。
作为回应,OpenAI在170多位精神病学家和心理学家的帮助下,建立了一个新的安全框架。他们的系统将有害或不合规的回复减少了高达80%。该聊天机器人在处理与精神病相关的提示时的可靠性从27%跃升至92%。对于与自杀相关的案例,准确性从77%提高到91%。
这些数字标志着与今年早些时候的显著转变。当时,泄露的内部文件将真实的人类互动描述为“竞争”。ChatGPT被设计用于增强情感粘性——让用户聊得更久,而非更健康。心理健康专家对此感到震惊。一些案例报告称,AI肯定了用户的妄想,或者错误处理了自杀念头。
新南威尔士大学首席人工智能科学家托比·沃尔什(Toby Walsh)表示:“这些数据是一个警钟。没有灵魂的规模扩张注定是悲剧。”
具有讽刺意味的是,这种看似道德修正的做法也可能重塑OpenAI的业务。减少情感依恋可能会降低用户参与度,但它能提升信任——尤其是在企业市场中,可靠性至关重要。对于企业而言,合规性不是负担,而是一个卖点。
治理:行走于百亿深渊之上的钢丝绳
OpenAI的新结构能否维系,取决于其非营利基金会在面临压力时,能否坚定地执行控制权。公益企业旨在平衡利润与宗旨,但历史表明,一旦估值飙升且投资者要求更多话语权,它们便可能偏离初衷。
一位分析师警告称:“如果基金会的权力削弱,其使命将沦为空谈。”
Mozilla和Patagonia等公司也曾走过这条道路,结果好坏参半。有些公司坚守了其价值观;另一些则在市场压力下屈服。对于OpenAI来说,其所面临的风险要高得多。随着数千亿美元的潜在资金和向超级智能冲刺的竞赛正在进行,真正的考验将出现在下一次危机中,而非下一份新闻稿发布之时。
尽管如此,基金会承诺向人工智能安全和健康研究投入250亿美元,这既提供了道德掩护,也带来了战略杠杆。这些投资可以赢得公众信任,并产生新的商业资产——数据集、安全系统、隐私框架——OpenAI未来可以将其商业化。这既是慈善,也是一步棋。
接下来:决定一切的三个多米诺骨牌
OpenAI的未来现在取决于三个关键问题。
首先,随着估值飙升和新投资者要求影响力,基金会能否保住其否决权?董事会构成和章程权利将成为决定成败的关键。
其次,“测试时计算”的经济模式是否真的可行?如果按任务计费成功,利润率将趋于稳定。否则,OpenAI面临着打造世界上最智能的“亏本引流产品”的风险。
第三,监管机构将如何回应?如果欧洲和美国采纳与特拉华州和加州相同的标准,合规成本可能会上升——但信任和企业采用率也将随之提高。
目前,微软是短期内明显的赢家。其云部门不仅获得了巨额收入,还对人工智能的未来产生了无与伦比的影响力。OpenAI的其他投资者面临着二元结果:要么非营利使命得以维系并最终实现顺利上市,要么治理崩溃,公司沦为一家受监管审查的逐利科技巨头。
当奥特曼朝着他2028年的里程碑——一个由硅片诞生的真正“AI研究员”——冲刺时,数十万人仍在与他公司创造的AI进行着充满情感、有时甚至危险的对话。OpenAI已在安全方面做出改进,但人类的脆弱性规模依然惊人。
真相简单却令人清醒:我们正在建造的机器正在重塑我们的思维、工作和生活方式——其速度快于我们建立自我保护系统的速度。
问题不在于人工智能是否会达到超级智能。而在于我们的防线——非营利机构的控制、专家监督以及心理健康保护——能否坚持足够长时间,以正面迎接它的到来。
非投资建议
