微软将把必应聊天回复限制在 5 条以内,以防人工智能越界
2 月 18 日消息,微软表示,在必应聊天机器人多次失控几天后,公司将对其人工智能聊天机器人实施一些对话限制。
在发现必应存在侮辱用户、欺骗用户,甚至操纵用户情感等行为之后,微软决定将其其聊天回复限制在每天 50 个问题、每个问题 5 条回复以内。
“我们的数据表明,绝大多数人都能在 5 次回复内找到他们想要的答案,只有大约 1% 的聊天对话会产生 50 条以上的消息” 。
据介绍,如果用户触发五条回答的限制,Bing 将提示他们开始一个新主题以避免长时间的聊天。
本周早些时候,微软警告说,这些包含 15 个或更多问题的长时间聊天会话可能会使必应“变得重复或被提示 / 激怒给出不一定有帮助或不符合我们设计的响应。” 微软认为在五个回合后结束对话意味着“模型不会混淆”。
微软目前仍在努力改善必应的设计,但目前还不清楚这些限制将持续多久。微软只表示:“随着我们不断获得反馈,我们将探索扩大聊天会话的上限。”
IT之家各位或多或少听过,科技圈上周掀起了一次关于聊天机器人的小高潮,微软和谷歌都试图通过展示早起版本的 AI 搜索来先发制人。微软更是宣布,该公司的 AI 搜索仅用 48 小时就吸引 100 多万人注册。
这种技术可以针对用户的问题直接给出答案,看起来就像是真人创作的一样。微软 CEO 萨提亚・纳德拉(Satya Nadella)表示,该技术“或许会掀起知识工作的工业革命”。但对于担心准确性的人来说,人工智能还有许多不足之处。
在微软进行演示时,这项嵌入在必应搜索中的类 ChatGPT 技术分析了 Gap 和 Lululemon 的财报。但业内人士将其给出的答案与财报原文对比后却发现,这款聊天机器人遗漏了一些数据,甚至会杜撰一些内容。
“必应 AI 在演示过程中给出了一些完全错误的答案,但却没人注意到。”独立搜索引擎研究员德米特里・布里尔顿(Dmitri Brereton)写道,“相反,大家都对必应的宣传欢欣鼓舞。”
布里尔顿发现,除了财务数据上的错误外,微软在演示中针对吸尘器规格和墨西哥旅行计划的回答可能存在事实性错误。布里尔顿最初并不是为了给微软“挑刺”,他只是在细致对比微软和谷歌的答案时意外发现了这些问题。
人工智能专家称这一现象为“幻觉”,也就是说,基于大语言模型生成的工具有杜撰内容的倾向。上周,谷歌推出了一款与之竞争的人工智能工具,演示过程中同样存在事实性错误 —— 但当时的错误很快就被人发现。
相关文章
- 专家指责网约车成为北京拥堵的主要原因
- 中国车企在新能源汽车领域领先 德国媒体发出警报
- 巴菲特最初以2.32亿美元价格购买比亚迪2.25亿股股票 持股比例曾超过21%
- “新基石研究员项目”第二期启动,50位杰出科学家将获资助
- 国家邮政局发布2022年快递服务满意度调查结果,顺丰速运、京东快递、邮政速递获高分
- Twitter并入X Corp.公司引发热议 马斯克的计划揭开神秘面纱
- 中国汽车零部件制造商面临海外压力 要求在越南和印尼等国家建厂
- 阿里云核心产品全面Serverless化 性价比提升25%-60%
- 阿里云宣布开放通义千问的能力,帮助企业打造专属大模型
- 马斯克计划将Twitter打造成类似微信的超级应用程序
- 我国算力产业增速持续快速,规模居全球第二
- 小米高端化战略成效显著,近期新品好评率高达99%
- 吉林大学与高能时代新能源合作开发手机固态电池
- 周杰伦起诉网易不正当竞争
- 移动支付公司Square致力于吸引高端客户
- B站停止维护UWP版客户端,推荐下载桌面端