推广 热搜: 京东  联通  iphone11  摄像头  企业存储  iPhone  XSKY  京东智能采购  网络安全  自动驾驶 

Bard产品经理质疑大型语言模型的可信度

   日期:2023-10-16     作者:itcg    浏览:540    我要评论    

IT采购网10月12日消息,根据彭博社的最新报道,谷歌和 Discord 最近联合邀请了他们自家的 AI 聊天机器人 Bard的热情用户,创建了一个专属聊天室,用以探讨Bard的效用和实际应用。在这个聊天室里,Bard的产品经理、设计师和工程师们就AI的效用和应用领域展开深入讨论,然而,也出现了一些对Bard的质疑声音。

两位参与Bard社区的Discord用户向彭博社透露了7月至10月期间在聊天室内的讨论细节。Bard的高级产品经理DominikRabiej在讨论中表示,他个人“不信任”大型语言模型生成的回答,建议人们仅在“创意”和“头脑风暴”等领域使用Bard。Rabiej还认为将Bard用于编程也是一个不错的选择,因为人们在编写代码时需要不断验证其有效性。

此外,Rabiej特别强调了Bard新增的“仔细检查回复”按钮的重要性,该功能用橙色标注可能不正确的内容,再次强调Bard并不真正理解获取的文本,只是根据用户的提示生成回应。“请记住,Bard和其他大型模型一样,它是生成性的,不是用于查找信息或总结,而是生成文本。”

在7月份的一次聊天中,这位产品经理明言,除非用户自己能够独立验证,否则不应全盘信任大型语言模型的输出结果。他表示:“我们也希望Bard能够达到您们的期望,但它目前还没有达到。”

另一位产品经理Warkentin也在讨论中强调了人性化改进的重要性,认为只有这样,Bard才能成为适合所有人的产品。他指出:“否则,用户将无法评估产品的功能,我认为这将是一个巨大的错误。”“我们需要的是面向大众的产品,而不是象牙塔里的产品!”

今年7月,谷歌在扩大BardAI工具的部署时,引入了“分享对话链接”的功能,用户可以将与Bard的对话导出为网页链接形式,与他人分享并继续与Bard对话。然而,一名分析顾问GaganGhotra在发现了一个问题,谷歌错误地将部分用户分享的链接添加到搜索结果中,导致敏感信息外泄。

GaganGhotra提醒用户,在与Bard对话时不要分享任何“私密内容”,以免相关信息外泄。

 
反对 0举报 0 收藏 0 打赏 0评论 0
 
更多>同类资讯
0相关评论

头条阅读
推荐图文
相关资讯
网站首页  |  物流配送  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  RSS订阅  |  违规举报  |  京ICP备14047533号-2
Processed in 0.147 second(s), 11 queries, Memory 1.49 M