IT采购网10月22日消息,据了解,社交问答网站 Reddit 近日与一系列生成式 AI领军企业展开了谈判,双方旨在商议有关数据付费使用的问题。
然而,如果谈判无法达成一致,Reddit 将考虑采取措施,可能会限制谷歌、必应等搜索引擎的爬虫获取其平台内的内容。这将迫使用户需要主动访问 Reddit并登录账户,才能获取他们所需的信息。
不过稍后,《华盛顿邮报》更正了之前的报道中的某些细节。Reddit否认了有关“用户必须登录平台才能查看内容”的说法,至于是否封杀搜索引擎的爬虫,则官方尚未明确否认。一位知情人士还表示,“Reddit即使没有搜索引擎的帮助,也能够正常运营。”
Reddit 考虑此举之前,已有超过535家新闻机构采取了类似的做法,他们通过采用“拦截器”来应对生成式 AI的数据收集,其中包括《纽约时报》、《华盛顿邮报》以及路透社等知名媒体。他们这样做的目的是为了避免他们的内容被用于训练 AI 聊天机器人,例如 OpenAI 的ChatGPT。
美联社在今年7月宣布与 OpenAI 达成了许可协议,允许 OpenAI 使用美联社的报道内容来作为其 AI 模型的训练数据。
此前曾有报道称,《纽约时报》曾在今年8月考虑对 OpenAI 提起诉讼,原因是 OpenAI 使用了《纽约时报》的文章和图片来训练其 AI模型,这被视为违反了《纽约时报》的服务条款。如果这项诉讼成功,OpenAI 可能会面临严重的后果,包括删除数据集、支付高额罚款等。