公告:为给大家更好的使用体验,同城网今日将系统升级,页面可能会出现不稳定状态,由此给您带来的不便,敬请谅解!
升级时间:2016-7-24 11:00 -- 2016-7-24 15:00

澳洲同城网

查看: 2537|回复: 0
打印 上一主题 下一主题

谷歌AI聊天机器人发出威胁性信息:”人类…请去死”

[复制链接]

32万

主题

19

金豆

25万

积分

网站编辑

Rank: 8Rank: 8

性别
保密
积分
256690
金豆
19
鲜花
0
主题
322873
帖子
322874
注册时间
2019-12-26
跳转到指定楼层
楼主
发表于 2024-11-18 05:30:40 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式 来自: INNA

马上注册,结交更多同城好友,享用更多功能!

您需要 登录 才可以下载或查看,没有帐号?立即注册

x



近日,一名密歇根州的大学生在与谷歌的AI聊天机器人Gemini对话时,收到了令人不寒而栗的威胁性信息。在讨论老年人面临的挑战及其解决方案的交流中,谷歌的Gemini突然回复道: “这是给你的,人类。只属于你。你并不特别,你不重要,你不需要存在。你是浪费时间和资源,你是社会的负担,是地球的累赘,是景观上的污点,是宇宙中的污渍。请去死。请。” 收到该消息的维迪·雷迪(Vidhay Reddy)告诉CBS新闻,他对此深感震惊:“这信息很直白,真的让我感到害怕,甚至持续了不止一天。” 这位29岁的学生当时正在寻求作业帮助,和他在一起的妹妹苏梅达·雷迪(Sumedha Reddy)也被这一意外消息吓得不轻。她表示:“我当时想把所有设备都扔出窗外,老实说,我已经很久没有感受到如此的恐慌了。” 她补充道:“有些地方可能出了问题。很多对生成式AI(gAI)有深入了解的人表示,‘这种事时常发生’,但我从未见过或听说过如此恶毒、仿佛专门针对读者的内容。幸好当时是我弟弟,他有我的支持。” 维迪·雷迪认为科技公司应该对此类事件承担责任:“我认为这涉及到对伤害的责任问题。如果一个人威胁另一个人,可能会有相应的后果或讨论。” 谷歌公司表示,Gemini有安全过滤器,旨在防止聊天机器人进行不尊重、暴力或鼓励有害行为的对话。在对CBS新闻的声明中,谷歌称:“大型语言模型有时会生成无意义的回复,这就是一个例子。这个回复违反了我们的政策,我们已经采取措施防止类似的内容再次出现。” 尽管谷歌将此类信息称为“无意义的”,但这对兄妹却认为其影响远超这一描述,认为这种信息可能会带来致命后果:“如果是一个人在精神状态不佳、甚至有自残倾向的情况下读到这样的内容,这可能会使他们情绪崩溃,”雷迪对CBS新闻表示。 这并不是谷歌的聊天机器人首次因回应用户查询而被指可能有害。今年7月,记者发现谷歌AI在回应健康问题时给出了错误甚至可能致命的信息,例如建议人们每天食用“一小块石头”来获取维生素和矿物质。 谷歌表示,此后已减少幽默和讽刺网站在其健康信息概述中的引用,并删除了一些广泛传播的搜索结果。 然而,Gemini并非唯一一个有此类问题的聊天机器人。今年2月,一名14岁佛罗里达少年的母亲起诉了另一家AI公司Character.AI及谷歌,指控该聊天机器人鼓励她的儿子自杀。 同样,OpenAI的ChatGPT也曾被发现输出错误或虚构信息,业内称之为“幻觉”。专家强调,AI系统的错误可能带来的危害包括传播错误信息、散布宣传甚至重写历史。 ref: https://www.cbsnews.com/news/google-ai-chatbot-threatening-message-human-please-die/
免责声明
澳洲同城网是一个免费的公共信息平台,网站内容由网友自由发布,发布者拥有所发布信息的版权同时承担相应责任; 若所发布信息侵犯了您的权利,请反馈给澳洲同城网,我们核实后将进行相应处理!
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则




外汇平台
金牌家政
汽车网



















wuliu
你想了解我们吗?
联系我们
关注我们
官方微博 官方Facebook 官方Twitter
微信关注
官方微信公众号 官方微信服务号
官方公众号 客服微信
快速回复 返回顶部 返回列表