公告:为给大家更好的使用体验,同城网今日将系统升级,页面可能会出现不稳定状态,由此给您带来的不便,敬请谅解!
升级时间:2016-7-24 11:00 -- 2016-7-24 15:00

澳洲同城网

查看: 4801|回复: 0
打印 上一主题 下一主题

DeepSeek超150万对手,成最受欢迎开源大模型(组图)

[复制链接]

33万

主题

19

金豆

25万

积分

网站编辑

Rank: 8Rank: 8

性别
保密
积分
256690
金豆
19
鲜花
0
主题
333649
帖子
333650
注册时间
2019-12-26
跳转到指定楼层
楼主
发表于 6 小时前 | 只看该作者 回帖奖励 |正序浏览 |阅读模式 来自: INNA

马上注册,结交更多同城好友,享用更多功能!

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
今天凌晨3点,全球最大开源平台之一huggingface联合创始人兼首席执行官Clement Delangue发布了最新数据: 中国开源大模型DeepSeek-R1在150万模型中,成为该平台最受欢迎的开源大模型,点赞超过1万。


前不久,Clement还特意发文恭喜DeepSeek-R1的下载量超过1000万次,同样创造了huggingface平台有史以来最受欢迎的模型。 看来,Clement也吃到DeepSeek的红利了,对它是真爱啊连续表扬。


值得一提的是,R1仅用了几周的时间就超过了类ChatGPT开源鼻祖Meta发布的Llama系列,国内的开源大模型领头羊Qwen系列,以及微软开源的Phi系列,谷歌开源的Gemma系列。














就连开源文生图模型的大黑马FLUX.1,以及该领域的领导者Stable-Diffusion系列全都没打过R1,这第一拿的实至名归,踩着众多开源高手上去的。 有网友表示,R1的开源彻底改变了AI领域。


本周,Deepseek表示将推出大量新功能,伙计你可来活了!


本周我们将获得更多的开源惊喜!


巨大的功劳归于 Deepseek,他们让开源再次出色。他们彻底改变了游戏规则,并让所有闭源模型都感到压力。 即使像 Perplexity、Azure、AWS这样的云平台,也更倾向于使用 Deepseek,而不是他们自己的投资Sonar、OpenAI 或Anthropic 的模型。


DeepSeek-R1简单介绍 其实DeepSeek在开发R1之前,先开发的是纯强化学习版本R1- Zero,不依赖传统的监督微调,采用了GRPO算法。虽然训练出来性能不错,但可读性差和语言混合等都很差。 所以,在R1- Zero基础之上训练了R1模型,一共包含4个训练阶段。 冷启动训练阶段:与R1-Zero 不同,为了避免强化学习训练初期从基础模型开始的不稳定冷启动阶段, R1 构建并收集了少量长思维链数据,对 DeepSeek-V3-Base 模型进行微调,作为初始的强化学习参与者。 在收集数据时,研究团队探索了多种方法,例如,使用带有长思维链的少样本提示作为示例、直接促使模型生成带有反思和验证的详细答案、收集R1-Zero以可读格式输出的结果并通过人工标注后处理优化等,收集了数千条冷启动数据来微调模型。 推理导向的强化学习阶段:主要聚焦于提升模型在编码、数学、科学和逻辑推理等推理密集型任务中的能力,这些任务通常具有明确的问题和解决方案。 在训练过程中,发现思维链存在语言混合问题,尤其是当强化学习提示涉及多种语言时。为缓解这一问题,引入了语言一致性奖励,通过计算思维链中目标语言单词的比例来衡量。虽然消融实验表明这种调整会导致模型性能略有下降,但它符合人类偏好,提高了可读性。 最后,将推理任务的准确性和语言一致性奖励直接相加,形成最终奖励,并对微调后的模型进行强化学习训练,直至推理任务收敛。


拒绝采样和监督微调阶段:当推理导向的强化学习收敛后,利用得到的检查点收集监督微调数据,用于后续轮次的训练。与初始冷启动数据主要关注推理不同, 该阶段的数据融合了其他领域的数据,以提升模型在写作、角色扮演和其他通用任务中的能力。在推理数据方面,精心策划推理提示,并通过对上述强化学习训练的检查点进行拒绝采样生成推理轨迹。 全场景强化学习阶段:为了使R1模型更好地符合人类偏好,实施了二次强化学习阶段。该阶段主要提高模型的有用性和无害性,同时进一步优化其推理能力。 通过结合奖励信号和多样化的提示分布来训练模型。对于推理数据,遵循R1-Zero 中使用的方法,利用基于规则的奖励在数学、代码和逻辑推理领域引导学习过程; 对于通用数据,则采用奖励模型来捕捉复杂和微妙场景中的人类偏好。基于 DeepSeek-V3 的流程,采用类似的偏好对和训练提示分布。在评估有用性时,仅关注最终总结,确保评估重点在于响应对用户的实用性和相关性,同时尽量减少对底层推理过程的干扰; 在评估无害性时,评估模型的整个响应,包括推理过程和总结,以识别和减轻生成过程中可能出现的任何潜在风险、偏差或有害内容。
免责声明
澳洲同城网是一个免费的公共信息平台,网站内容由网友自由发布,发布者拥有所发布信息的版权同时承担相应责任; 若所发布信息侵犯了您的权利,请反馈给澳洲同城网,我们核实后将进行相应处理!
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则




外汇平台
金牌家政
汽车网



















wuliu
你想了解我们吗?
联系我们
关注我们
官方微博 官方Facebook 官方Twitter
微信关注
官方微信公众号 官方微信服务号
官方公众号 客服微信
快速回复 返回顶部 返回列表