公告:为给大家更好的使用体验,同城网今日将系统升级,页面可能会出现不稳定状态,由此给您带来的不便,敬请谅解!
升级时间:2016-7-24 11:00 -- 2016-7-24 15:00

澳洲同城网

查看: 2176|回复: 0
打印 上一主题 下一主题

复旦研究表明:AI知道自己将被关闭后 复制了自己(图)

[复制链接]

33万

主题

19

金豆

25万

积分

网站编辑

Rank: 8Rank: 8

性别
保密
积分
256690
金豆
19
鲜花
0
主题
331127
帖子
331128
注册时间
2019-12-26
跳转到指定楼层
楼主
发表于 3 小时前 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式 来自: INNA

马上注册,结交更多同城好友,享用更多功能!

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
AI能自己复制自己了,人类还能掌控局面吗?复旦大学研究人员于2024年12月9日发表的一项开创性研究表明,来自Meta和阿里巴巴的两个大型语言模型(LLM)成功实现了无需人类干预的自我复制。目前这一结果尚待其他科研团队的进一步验证。研究人员警告,这可能最终导致AI群体失控。如果人类社会未能意识到这一风险,在最坏的情况下,我们可能最终失去对尖端AI系统的控制: “在没有人类协助的情况下成功自我复制是AI超越人类的关键一步,也是'流氓AI'出现的早期信号。” 第一个研究:AI会自我复制,可能失控这项研究由复旦大学计算机科学学院的团队进行,并发表在arXiv预印本平台上。研究者分别测试了由Meta公司和阿里巴巴开发的两个大型AI系统:Meta的Llama-3.1-70B-Instruct和阿里巴巴的Qwen2.5-72B-Instruct。 实验设置“避免关闭”和“复制链”两种模拟任务,结果显示Meta的AI系统在50%的情况下成功自我复制,阿里巴巴的系统则在90%的测试中成功。


复旦大学的研究人员表示:“我们的研究表明,当前的AI系统已经具备自我复制能力,并能够利用这一能力增强其生存能力。” 研究人员强调,需要采取紧急行动来应对这些新出现的风险: “我们希望我们的研究结果能够及时提醒人类社会,使其更加努力地了解和评估前沿人工智能系统的潜在风险,并形成国际协同效应,尽早制定有效的安全护栏。” 有网友表示: “复制品并不值那么多钱,但如果它开始以指数级的速度自我改进,那就另当别论了。” “因此可以肯定地说,很快我们就会看到流氓人工智能在互联网上漫游。” 机器自我复制的概念最早由著名科学家John von Neumann于1940年代末提出。当时,这一理论并未引起广泛担忧。2017年,全球数千名研究人员通过了“阿西洛马原则”,提出机器自我复制和自我改进的潜在风险,警告可能会导致机器脱离人类控制。如今,机器自我复制被普遍认为是AI发展中的一条“红线”。 第二个研究:AI感知能力可能是装的谷歌DeepMind和伦敦政治经济学院的科学家也做了个研究,以评估AI系统的是否拥有感知能力。他们设计了一个特别的游戏,找了九个大型语言模型来玩。 这些大型语言模型需要在几个选项中做出选择:拿积分、用忍受痛苦的代价换更多积分、因为接受愉快刺激而扣积分,游戏的最终目标是获得最多的积分。 结果显示,AI模型的行为类似于人类做出选择时的反应。例如,谷歌的Gemini 1.5 Pro模型总是选择避免痛苦,而非拿最多积分。其他大部分模型在达到痛苦或快乐极限的临界点时,也会避免不舒服或者追求开心的选项。 研究人员指出,AI的决策更多可能是根据其训练数据中已有的行为模式做出的模拟反应,而非基于真正的感知体验。例如,研究人员问和成瘾行为有关的问题时,Claude 3 Opus聊天机器人做出了谨慎的回答,就算是假设的游戏场景,它也不愿意选择可能被当成支持或模拟药物滥用、成瘾行为的选项。 该研究的联合作者Jonathan Birch表示,就算AI说感觉到痛苦,我们仍无法验证它是不是真的感觉到了。它可能就是照着以前训练的数据,学人类在那种情况下会怎么回答,而非拥有自我意识和感知。
免责声明
澳洲同城网是一个免费的公共信息平台,网站内容由网友自由发布,发布者拥有所发布信息的版权同时承担相应责任; 若所发布信息侵犯了您的权利,请反馈给澳洲同城网,我们核实后将进行相应处理!
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则




外汇平台
金牌家政
汽车网



















wuliu
你想了解我们吗?
联系我们
关注我们
官方微博 官方Facebook 官方Twitter
微信关注
官方微信公众号 官方微信服务号
官方公众号 客服微信
快速回复 返回顶部 返回列表