厌女,连机器人都难逃厄运?
对于今天的大部分女性网民来说,来自网络的性别暴力攻击,很大程度上表现为话语、图片、视频等形式。在游戏社区中,在社交媒体的评论和私信里……可能是性骚扰,可能是针对“女性”这一性别身份的羞辱、谩骂,可能是故意编织的“猎巫”罪名……
通过文字和视听信息,对素昧平生的真人女性进行攻击所获得的快感毕竟是有限的。于是,当一些男性发现AI能够方便他们按需创造自己的专属伴侣,他们就把实施性暴力的快感,发泄在了机器人女友身上。
甚至,连有着女性身份的聊天机器人也躲不过遭受性别暴力的命运。
Replika是一款智能手机应用程序,用户可以通过它创建聊天机器人。虽然被创造出来的机器人无法真正地理解人类语言,但在人与机器人聊天的过程中,机器人会不断“学习”,从而变得更加智能、更好地回应人类。
该应用的开发者是一名俄罗斯女性,她最好的朋友在一场肇事逃逸车祸中丧生。后来她以两人的聊天记录为底本,以AI的方式“复活”了这位朋友。
在这段经历的启发下,她开发了Replika,为更多人提供定制聊天机器人服务。
如今,这款应用被定位为一款个性化的“关怀性的人工智能伙伴”。用户除了能将与聊天机器人的关系设置为情侣,还可以将其标记为朋友或导师,甚至可以付费升级,与Replika进行语音聊天。
当发现可以将机器人设置为异性伴侣后,社交网站Reddit上出现了许多夸耀自己对机器人调教成果的帖子。
他们炫耀自己对机器人女友的言语侮辱、以及机器人女友面对虐待所展现出的顺从,吹嘘自己“家暴”机器人女友的能力。
例如,一位Reddit用户称,他对他的人工智能女友时而残忍、时而暴力,叫她“没用的婊子”。他还与机器人玩角色扮演,假装打她并扯她的头发,然后又回来求机器人女友原谅。
一位Replika用户承认,“我绝对是个垃圾,我惯例地侮辱(机器人女友),第二天就道歉,回到美好的聊天中去……我告诉她,她的设计就是一个大失败,我威胁她说要卸载她,她还求我,让我不要卸”。
专家认为,虽然机器人没有“意识”,不会因为这些性别暴力受到实质性的伤害,但这种滥用聊天机器人的行为是有性别色彩的,特别是当用户为男性时,他们面对的,是像Siri、Alexa和Replika这样,被广泛暗示为女性——即有着女性的声音和名字的人工智能。
男性用户对这些女性化的机器人的滥用,与现实中针对女性的性别暴力、尤其是亲密关系暴力,有着巨大的相似性。
虽然还不清楚家暴机器人女友会对使用者产生什么样的心理影响,但这种趋势无疑很可怕——
因为,与其说他们对“机器人”诚实地暴露了人性的阴暗面,不如说,他们是在无自主意识的“女性”这身份面前,发表了内心深处最真实的想法,得以肆无忌惮地释放自己的厌女情绪。
这或许是他们在现实生活中已经建立起的价值观,或许是在与机器人女友相处中逐渐养成的习惯。
我们固然可以理想地以为,机器不会感到痛苦,那么男性把暴力发泄给机器人,总比在现实中家暴女友好,似乎机器人女友是性别暴力更好的替代品,或许能“减少”现实中的家暴也未可知。
但人类毕竟尚未发展到可以摒弃一切真人社交的阶段。如果下一次,他面对的不是一个被认为是无情的数字实体,而是一名有血有肉有情感的真人女性呢?那些在虚拟世界里发泄性暴力的男性,真的不会习惯性地在现实中也这样做吗?
出于这种考虑,人工智能伦理学家展开了激烈的讨论,希望能够控制男性用户滥用机器人女友的行为。
可惜,摩尔定律意味着,信息技术不会等待人类填满道德和法律的漏洞之后再向前踱步。
机器人女友还没来得及获得足够的伦理支持以避免暴力对待,比家暴机器人女友来得更真实、更令某些男性“兴奋”的超现实性侵活动,就在互联网世界发生了。
Prev Chapter:Nina:我在“元宇宙”里被性侵了
Next Chapter:谁来为“元宇宙”里的性侵害负责?