微软首款自研AI图像模型亮相,但争议也如影随形
微软刚刚推出了其首款完全自主研发的图像生成模型MAI-Image-1。此举标志着一个重大转变:该公司正在逐步摆脱对OpenAI的依赖。这并非彻底决裂,但它表明微软希望完全掌控自己的AI基础,而非借用他人的引擎。
该公司将该模型宣传为创作者的福音,称其提供“真正的灵活性、视觉多样性和实用价值”。乍一看,此次发布似乎大获成功。MAI-Image-1迅速跻身LMArena(一个由人类对AI图像模型进行排名的公开排行榜)前十名。微软将此排名视为证据,证明其系统能够比业内一些最大的参与者更快地生成逼真的图像。
然而,LMArena这类排行榜可能存在猫腻。它们虽然有用,但并不能说明全部情况。排名系统有点像国际象棋的Elo积分,这意味着一个模型的评分取决于它面对的对手。如果它遇到较弱的对手,分数就会虚高。专家称之为“池偏差”(pool bias),它可能会扭曲结果。除此之外,公司有时会在幕后测试多个私有模型版本,只发布在排行榜狭窄格式上表现最佳的那个。这种基准测试作弊行为(benchmark gaming)奖励的是华丽的风格而非真正的能力,这让用户怀疑该模型在日常使用中是否真如纸面数据般优秀。
尽管此次发布在外部激起了兴奋,但微软AI部门内部却酝酿着更令人不安的事情。一封来自在职员工的举报信浮出水面——内容经过核实且详细——指控团队联合负责人穆斯塔法(Mustafa)营造有毒的工作文化。
信中称,微软的资深工程师正在被穆斯塔法前初创公司中精挑细选的领导核心排挤。举报人描述了一种“初创公司式的专制管理方式”,在这种方式下,老员工感到被嘲笑、被忽视或被冷落。这与微软向公众展示的光鲜形象形成鲜明对比,也引发了人们对其最重要AI项目之一幕后情况的质疑。
MAI-Image-1不仅仅是一个新模型。它是微软争夺AI独立性的第一枪。但它的首次亮相却伴随着内在的紧张:一个由不稳固指标支撑、并被内部混乱指控所笼罩的突破。换句话说,这不仅仅关乎技术,更关乎塑造这项技术的文化。
目前,只有当该模型达到全面普遍可用(general availability)时,我们才能判断这是否是真正的突破。MAI-Image-1目前已通过LMArena开放供公众测试,微软表示,很快将推向Copilot和Bing Image Creator。然而,直接的开发者API访问尚未公布,因此,真正的考验——它在实际应用中的表现如何——仍在前方。