Bard产品经理质疑大型语言模型的可信度
10月12日消息,根据彭博社的最新报道,谷歌和 Discord 最近联合邀请了他们自家的 AI 聊天机器人 Bard 的热情用户,创建了一个专属聊天室,用以探讨Bard的效用和实际应用。在这个聊天室里,Bard的产品经理、设计师和工程师们就AI的效用和应用领域展开深入讨论,然而,也出现了一些对Bard的质疑声音。 两位参与Bard社区的Discord用户向彭博社透露了7月至10月期间在聊天室内的讨论细节。Bard的高级产品经理Dominik Rabiej在讨论中表示,他个人“不信任”大型语言模型生成的回答,建议人们仅在“创意”和“头脑风暴”等领域使用Bard。Rabiej还认为将Bard用于编程也是一个不错的选择,因为人们在编写代码时需要不断验证其有效性。
此外,Rabiej特别强调了Bard新增的“仔细检查回复”按钮的重要性,该功能用橙色标注可能不正确的内容,再次强调Bard并不真正理解获取的文本,只是根据用户的提示生成回应。“请记住,Bard和其他大型模型一样,它是生成性的,不是用于查找信息或总结,而是生成文本。” 在7月份的一次聊天中,这位产品经理明言,除非用户自己能够独立验证,否则不应全盘信任大型语言模型的输出结果。他表示:“我们也希望Bard能够达到您们的期望,但它目前还没有达到。” 另一位产品经理Warkentin也在讨论中强调了人性化改进的重要性,认为只有这样,Bard才能成为适合所有人的产品。他指出:“否则,用户将无法评估产品的功能,我认为这将是一个巨大的错误。”“我们需要的是面向大众的产品,而不是象牙塔里的产品!” 今年7月,谷歌在扩大Bard AI工具的部署时,引入了“分享对话链接”的功能,用户可以将与Bard的对话导出为网页链接形式,与他人分享并继续与Bard对话。然而,一名分析顾问Gagan Ghotra在发现了一个问题,谷歌错误地将部分用户分享的链接添加到搜索结果中,导致敏感信息外泄。 Gagan Ghotra提醒用户,在与Bard对话时不要分享任何“私密内容”,以免相关信息外泄。 |