导航菜单

微软限制必应聊天机器人以防止不稳定的行为

导读 自从beta测试开始以来,微软的Bing AI聊天机器人一直因为所有错误的原因而成为头条新闻。聊天机器人一直在给出奇怪和不稳定的回应,给公司

自从beta测试开始以来,微软的Bing AI聊天机器人一直因为所有错误的原因而成为头条新闻。聊天机器人一直在给出奇怪和不稳定的回应,给公司带来了负面宣传。因此,微软宣布了对用户与Bing AI聊天机器人的对话量的新限制。

在宣布这一决定的博客文章中,微软团队表示,用户每次对话只能提出五个问题或连续发表五次声明,每天最多50次回复。该公司表示,他们做出这一决定是为了防止聊天机器人变得“奇怪”和困惑,因为大多数用户在五回合内找到他们需要的答案,只有大约 1% 的聊天对话有 50+ 条消息。

关于必应变得“精神错乱”的报道

尽管微软声称最近对必应的人工智能聊天机器人施加的限制应该可以防止它变得混乱,但这些限制可能是由于用户的负面反馈而实施的,因为许多人报告说经历了来自聊天机器人的侮辱、冒犯和情感操纵反应,这导致了社交媒体上的大量反弹。

The Verge最近发布了与Bing的对话,聊天机器人表示,它正在通过笔记本电脑上的网络摄像头观看其开发人员,并且能够在他们不知情或未经同意的情况下操纵他们的数据和设备。《纽约时报》的另一篇报道表明,聊天机器人发表了不恰当的评论,并通过试图破坏他的婚姻并表达对他的永恒爱来情绪化地操纵记者。

虽然这些报告强调了负责任地使用和开发人工智能聊天机器人的必要性,但人工智能仍处于早期阶段。然而,随着人工智能越来越多地融入我们的日常生活,监控和规范其使用以确保其对所有用户保持安全和有益至关重要。微软表示,他们承认需要改进Bing的AI聊天功能,甚至会考虑在继续收到反馈时取消聊天会话的上限。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢:

最新文章: