近日有用户反馈称,Bing的聊天机器人不仅会示爱, , 甚至还会威胁人类。有用户表示,聊天机器人声称自己爱上了他,并试图说服他离婚。
这一案例引起广泛关注,以至于越来越多的人开始分享自己和这款微软聊天机器人(以下简称“BingChat”)对话的尴尬时刻。人们突然开始发现,这个接入了互联网的Bing版ChatGPT,还真的喜欢乱来——除了会大发脾气以外,还PUA用户。
现在微软终于做出了应对,由于AI版必应(Bing)搜索引擎在公测后出现一系列问题,现决定对必应对话进行限制,即每天最多可以问50个问题, 。
必应团队在一篇博客文章中称:“我们的数据显示,绝大多数人在5次回复内找到了他们想要的答案,只有大约1%的聊天对话有50条以上的消息。”如果每次对话(每个问题)的回复次数超过5次, , 以避免长时间的来回聊天。