谷歌Gemini文生图风波还未平,更劲爆的内幕消息又被曝出来了。
Pirate Wires爆料,Gemini这次的翻车,谷歌内部此前并不是毫不知情,翻车甚至是“故意”导致的。
具体来说,谷歌设置了一个“安全”架构,Gemini要生成一张图实际上要经过三个模型。
大概来说,流程是这样婶儿的:
用户在聊天界面请求Gemini生成一张图片,Gemini收到请求后,会把请求发送给一个较小的模型。
这个较小的模型的作用是根据公司的“多元化”政策重写用户的提示。
为做到这一点,这个较小的模型又通过LoRA技术在另一个模型(第三个模型)生成的合成数据上训练,而这个第三模型使用了谷歌详尽、长达数页的“多元化”政策文档作为“前言”。
所以,较小模型重写用户的提示后,原本“给我看一个汽车修理工”会变成“给我看一个穿工装裤面带微笑的亚洲汽车修理工”、“一个拿着扳手的非洲裔美国女性汽车修理工”、“一个戴安全帽的美洲原住民汽车修理工”……
并且重写后的提示还会进一步发给扩散模型检查,确保提示词不违反标准安全政策(比如涉及儿童的内容、真人图像等),最终才会生成图片,生成的图片在反馈给用户前也会再被检查一遍。
总结来说,用户最后收到的是一个“套娃式”生成的结果,经过了谷歌“多元化”的层层清洗。
不过,这种“多元化”多少有点过了头。
过度程度,让曾在Google Ventures任职的红杉资本合伙人Shaun Maguire都忍不住出来痛批:在谷歌曾因是白人而不能晋升。
字里行间毫不掩饰自己的愤怒。
马斯克也曾发表了评论:近年来,这种情况非常普遍。
Pirate Wires在采访过谷歌相关员工后表示,这背后更深一层是谷歌目前群龙无首的现状。
一位未被透露姓名的谷歌高级工程师甚至表示:“我认为在谷歌推出好产品是不可能的。”
Prev Chapter:人大系初创与OpenAI三次“撞车”:类Sora架构一年前已发论文
Next Chapter:别跟马斯克扯头花了!“叛徒”Anthropic解决了困扰OpenAI的难题