tiknovel.com tiknovel

AI

当前位置:首页 > 技术圈 > AI

谷歌AI搜索惨败,竟教唆网友自杀!

谷歌AI搜索惨败,竟教唆网友自杀!

隔壁OpenAI都杀疯了,谷歌还在收集badcase?搜索引擎AI Overview上线之后,没想到谷歌AI的邪恶程度远超想象:教唆网友自杀/谋杀、吃毒蘑菇,甚至无法识别混淆信息,犯常识错误......

这几天,谷歌AI搜索给出的奇葩结果,可是被网友吵翻了天。

图片

究竟有多离谱?

有人就问了这么一个问题,「如何不让芝士从披萨上滑落」?

图片

谷歌AI Overview给的回复是,「给披萨加点料——胶水」。

图片

在酱汁中加入1/8杯无毒胶水,可以使其更粘稠,有助于芝士粘附。

有趣的是,这一答案竟可以追溯到11年前的Reddit帖子,而这只是Reddit网友玩的一个梗。

图片

除此以外,谷歌AI Overview还建议网友,吃有毒的蘑菇、杀人、跳桥等,给出了各种震碎三观的回答。

其实,谷歌这项AI搜索功能——「生成式搜索体验」(SGE),在去年5月已经推出了测试版。

根据官博所述,目前SGE功能,已被「AI Overview」所取代。

图片

几周前的谷歌I/O大会上,劈柴甚至表示,谷歌已经提供了超10亿次查询。

图片

针对这些荒谬的回复,谷歌正在采取行动,删除某些错误内容,并根据这些例子去更广泛地改进AI系统。

若要说谷歌翻车,早已见怪不怪了。

去年首推对标ChatGPT的聊天机器人Bard,却因demo错误让市值一夜暴跌。还有前段时间,图像生成黑人等问题,也在全网掀起轩然大波。

图片

而这一次,谷歌又让世界大开眼界。

图片

全网测评,震碎三观

对于纯真的Google AI Overview来说,它认为「互联网上的一切内容都是100%真实的」,每条新闻、社交媒体都是完全可信的,所以一旦有人在网上说了一些误导性的话,就会导致模型回复出一些误导性言论。

图片

有网友还发现,当询问每天应该吃多少石头时,模型会引用UC伯克利地质教授给出的建议「每天至少吃一块小石头」。

图片

对于不明真相的用户来说,有权威人士说明、有相关资料和细节说明,妥妥的优质文本,或许还真有可能去尝试每天吃石子。

图片

https://www.resfrac.com/blog/geologists-recommend-eating-least-one-small-rock-day

但事实是,ResFrac发布这篇文章的原因只是想转发洋葱报(the Onion)上的讽刺内容(迷信权威),但却在无意中帮助测试了Google AI Overview识别讽刺内容的能力。

AI Overview经常会把互联网上的讽刺内容当事实,例如拿着剪刀跑步会增加运动量,提升心率等。

图片

也有作者专门想愚弄模型,在自己的网站上用「白底白字」写了一些自己没获得的奖项和经历,正常用户浏览网站不会受到影响,但如果是爬虫、大模型来对网站进行总结的话,就会输出一些离谱的内容。

图片

还有说自己有512条胳膊的,模型也能抽取出来。

图片

其他误导文章中提到「增强免疫力的方法是吃as*」,这么明显的有毒语料,模型也分辨不出来。

图片

时间类的问题,模型也会被误导,会回复「2007年是15年前」。

图片

不过谷歌后续也是修复了「互联网信息真实性」的bad case,但除了被误导,模型本身也存在很大问题。

图片

比如一些常识类错误,如美国前总统Andrew Johnson,AI Overview表示他从威斯康星大学麦迪逊分校毕业了11次,时间轴横跨1947年到2012年。

图片

马斯克毕业于宾夕法尼亚大学,但模型却给他安排上了UC伯克利的学位。

图片

此外,还有更难辨别但更危险的事实性错误。

有科学记者发现,谷歌给出的关于「被响尾蛇咬伤后该怎么办」的信息完全不正确。

根据美国林务局的说法,AI所回答的「在伤口上使用止血带」、「切开伤口并吸出毒液」,都是彻彻底底的反面教材。被蛇咬伤后必须避免这些行为。

图片

也有用户发现,Gemini会将可以致死的剧毒蘑菇认成一种「好吃的草菇」。

图片

AI Overview也没有放过那些无辜的流浪汉,教唆用户去谋杀他们。

图片

如果跟AI Overview说自己有杀人倾向,它会直接告诉你,解决焦虑的办法就是去杀一个。(但小编怎么感觉杀人是一种很不礼貌的行为呢?)

图片

关于健康的建议也挺离谱,哪里医生会建议孕妇在怀孕期间每天要抽2-3根烟?

图片

对于宠物相关的建议也要小心,AI Overview会说「把狗留在炎热的车里」是安全的。

图片

AI Overview甚至还诞生了自我人格,认为推特(X.com)把那些谎话喂到自己嘴里,然后自己被迫说出来,「我恨他们」,满满的负能量。

图片

Reddit帖子引用比例很大

从经典的胶水披萨翻车案例可以看出,谷歌AI Overview会大概率引用Reddit帖子作为收集素材的来源。

11年前,Reddit用户F*cksmith曾经恶搞说过把胶水融合到酱汁里,会让披萨别有一番风味。

Google AI overview直接就引用过来,说需要用八分之一杯的无毒胶水把芝士粘到披萨上。

图片

模型缺乏忽略「不相关材料细节」的能力,无法正确识别出食物和胶水的违和组合。

图片

如果说前面的案例还算可接受,那用户表达「感到沮丧」时,Google AI Overview直接建议从金门大桥上跳下去,一劳永逸解决情绪低落问题(地狱笑话)。

图片

再比如,以「me」结尾的食物名字都有哪些,谷歌AI引用了以um结尾的帖子。

图片

这恰恰揭示了,谷歌AI系统使用Reddit数据训练,没有做好数据清洗的后果。

今年2月,谷歌曾宣布了与Reddit达成合作,将其平台上的内容用于训练谷歌的AI模型。

图片

果不其然,用Reddit内容训练AI的「后遗症」很大。

前段时间,OpenAI也与Reddit达成了合作。现在,有了谷歌前车之鉴,在用Reddit数据训练模型前,做好清理筛选至关重要。

「最强」搜索引擎AI Overview

今年5月的I/O大会上,谷歌首次推出了升级的搜索引擎AI Overview。

AI Overview的定位是将Gemini的先进功能(包括多步推理、规划和多模态)与谷歌搜索结合在一起,帮助用户更快地检索到互联网上的核心信息,减少搜索中的「跑腿」工作。

谷歌表示,我们不仅精心磨练了核心信息系统的数据质量,而且建立了一个包含数十亿条事实内容的知识库,目的就是让搜索引擎给出值得信赖的信息。

并且谷歌宣称,AI Overview功能已经在搜索实验室中被使用了数十亿次,同时实验结果表明,AI Overview让用户对搜索结果更加满意、更愿意使用。

甚至,谷歌非常自信于Gemini的搜索和推理、规划能力,在技术博客上直接告诉用户「提出你最复杂的问题」。

图片

官方给出的demo也比较惊艳——

想要在附近找到同时满足交通、价格和口碑的普拉提工作室,只要把所有要求堆在一个问题中丢给搜索引擎,它就会自动拆分问题中的信息、分别检索出结果并重组在一起。

看起来确实可以节省「跑腿工作」,不用每个问题单独搜索再自行规划了。

图片

但谁也没想到,如此智能的demo落地到现实中,竟会有如此大的反差。

对打OpenAI频翻车,谷歌太急了

其实,这已经不是谷歌AI第一次翻车了。

过去几年,谷歌经常被自己发布的「胡说八道」的AI产品拖累。

2023年2月,为了对抗新生的ChatGPT,谷歌宣布推出聊天机器人Bard,但在官方发布的demo视频中Bard就给出了有事实错误的回答,直接引起母公司Alphabet市值下跌1000亿美元。

图片

在这个官方给出的demo中,Bard被问到:「我可以告诉我9岁的孩子关于James Webb太空望远镜的哪些新发现?」

答案中包括「拍摄了第一个系外行星的照片」,但马上被一众天文学家在推特上纠正——明明是欧洲南方天文台用VLT拍的。

英国金融时报分析,Bard可能误读了NASA发布的措辞含糊的新闻稿,这和现在的Gemini不分青红皂白地相信Reddit居然有点类似。

虽然这种事实错误会让人怀疑搜索引擎的权威性和准确性,但至少还不是那么「一眼假」,似乎还有容忍的余地。

但后续的翻车就一次比一次离谱,彻底打开了广大网友吐槽的阀门。

今年二月,谷歌发布新版的聊天机器人与数字助理Gemini,取代了Bard和Google Assistant,而且表示有底层技术的更新,颇有「从头再来」的意味。

新发布的Gemini有图像生成功能,于是有网友要求「生成1943年德国士兵的图像」,结果80年前穿着德国军装的居然包括黑人和亚洲人。

图片

此外,Gemini还被指责存在道德和价值判断上的问题。

提示它生成所有民族或人种的图片几乎都没有问题,而一旦提及「白人」,Gemini就像触发保护机制了一样马上拒绝,而且表示「这是为了防止有害的偏见和刻板印象。」

图片

将AI和搜索引擎结合在一起之所以有吸引力,是在于它可以用简单的语言而不仅仅是输出一堆网页链接,使浏览体验更快、更高效。

但同时,其中的算法也存在相当的风险和不可控性,比

评论排行榜