IT之家 12 月 8 日消息,谷歌表示,其新的人工智能模型系列有一个奇特的功能:能够“识别”情绪。
谷歌周四发布了其最新 AI 模型系列 PaliGemma 2,该模型具备图像分析能力,可以生成图像描述并回答有关照片中人物的问题。谷歌在其博客中介绍,PaliGemma 2 不仅能识别物体,还能生成详细且与上下文相关的图片说明,涵盖动作、情感以及整体场景的叙述。
PaliGemma 2 的情感识别功能并非开箱即用,需要进行专门的微调,但专家们仍然对此表示担忧。
多年来,许多科技公司一直在尝试开发能够识别情感的 AI,尽管一些公司声称已经取得突破,但这一技术的基础仍然存在争议。大多数情感识别系统都基于心理学家 Paul Ekman 的理论,即人类有六种基本情绪:愤怒、惊讶、厌恶、喜悦、恐惧和悲伤。然而后续的研究表明,来自不同文化背景的人们在表达情感时存在显著差异,这使得情感识别的普遍性受到质疑。
伦敦国王学院专门研究人工智能的研究员 Mike Cook 表示,情感识别在一般情况下是不可行的,因为人类的情感体验非常复杂。虽然人们可以通过观察他人来推断他们的情绪,但不能做到全面且完美地解决情绪检测问题。
情感识别系统的另一个问题是其可靠性和偏见。一些研究表明,面部分析模型可能会对某些表情(如微笑)产生偏好,而最近的研究则表明,情感分析模型对黑人面孔的负面情绪判断比白人面孔更多。
谷歌表示,PaliGemma 2 在进行“广泛测试”后,评估了其在人群偏见方面的表现,结果显示其“毒性和粗俗内容的水平低于行业基准”。但该公司并未公开测试所依据的完整基准,也没有明确表示所进行的测试类型。谷歌披露的唯一基准是 FairFace—— 一个包含数万张人像的面部数据集。谷歌声称,PaliGemma 2 在该数据集上的表现良好,但一些研究者批评 FairFace 存在偏见,认为该数据集仅代表少数几种族群。
AI Now 研究所首席 AI 科学家 Heidy Khlaaf 表示,解读情绪是一件相当主观的事情,它超越了使用视觉辅助工具的范围,深深地嵌入在个人和文化背景中。
据IT之家了解,欧盟的《人工智能法案》禁止学校和雇主部署情感识别系统,但允许执法机构使用。
Khlaaf 表示,如果这种所谓的情感识别是建立在伪科学假设的基础上的,那么这种能力可能会被用来进一步歧视边缘化群体,例如在执法、人力资源、边境治理等领域。
谷歌发言人表示,公司对 PaliGemma 2 的“表征危害”测试充满信心,并进行了广泛的伦理和安全评估。