鞭牛士报道,5月18日消息,据外电报道,企业工作场所协作平台 Slack 被曝一直在抓取客户数据(包括消息和文件)以开发新的人工智能和机器学习模型,引发了隐私方面的强烈反对。
Slack 表示,默认情况下,无需用户选择加入,其系统一直在分析客户数据和使用信息(包括消息、内容和文件),以构建 AI/ML 模型来改进软件。
该公司坚称其拥有适当的技术控制措施来阻止 Slack 访问底层内容,并承诺数据不会跨越工作场所,但尽管做出了这些保证,Slack 企业管理员仍争先恐后地选择退出数据抓取。
Slack 通信中的这句话引发了社交媒体争议,人们意识到直接消息中的内容和发布到 Slack 的其他敏感内容被用来开发 AI/ML 模型,并且选择退出世界需要发送电子邮件请求:
「如果您想从 Slack 全局模型中排除您的客户数据,您可以选择退出。要选择退出,请让您的组织、工作区所有者或主要所有者通过Feedback@slack.com联系我们的客户体验团队,并提供您的工作区/组织 URL 和主题行“Slack 全局模型选择退出请求”。一旦选择退出完成,我们将处理您的请求并做出回应。」
SecurityWeek调查的多位 CISO表示,他们对 Slack 与许多大型科技供应商一样正在基于流经其平台的数据开发 AI/ML 模型并不感到惊讶,但抱怨客户不应该承担选择退出这些数据的负担刮。
Slack在社交媒体上回应批评者的帖子中表示,它拥有针对频道和表情符号推荐以及搜索结果等平台级机器学习模型,并坚称客户可以将他们的数据排除在帮助训练这些(非生成)ML 模型之外。
该公司表示,Slack AI(一种在 Slack 中原生构建的 gen-AI 体验)是一个单独购买的附加组件,它使用大型语言模型 (LLM),但不会根据客户数据训练这些 LLM。
「由于 Slack AI 在自己的基础设施上托管模型,因此您的数据仍由您控制并仅供您的组织使用。它永远不会离开 Slack 的信任边界,包括模型供应商在内的任何第三方都无法访问它。」该公司表示。
Slack在其文档中表示,数据不会跨工作空间泄漏。 「对于任何将在我们所有客户中广泛使用的模型,我们不会以它们可以学习、记忆或能够重现客户数据的某些部分的方式构建或训练这些模型。」