搜索优化
English
搜索
Copilot
图片
视频
地图
资讯
购物
更多
航班
旅游
酒店
房地产
笔记本
Top stories
Sports
U.S.
Local
World
Science
Technology
Entertainment
Business
More
Politics
时间不限
过去 1 小时
过去 24 小时
过去 7 天
过去 30 天
按相关度排序
按时间排序
1 天
把RLHF带给VLA模型!通过偏好对齐来优化机器人策略,代码已开源
近年来,视觉-语言-动作模型(Vision-Language-Action, VLA)在诸多机器人任务上取得了显著的进展,但它们仍面临一些关键问题,例如由于仅依赖从成功的执行轨迹中进行行为克隆,导致对新任务的泛化能力较差。
腾讯网
6 天
使用PyTorch实现GPT-2直接偏好优化训练:DPO方法改进及其与监督微调的 ...
点击上方“Deephub Imba”,关注公众号,好文章不错过 !基于人类反馈的强化学习(RLHF)已成为大型语言模型(LLM)训练流程中的关键环节,并持续获得研究界的广泛关注。本文将探讨RLHF技术,特别聚焦于直接偏好优化(Direct ...
腾讯网
3 天
科学家打造“变分偏好学习”技术,将AI偏好辨识准确率提高10% ...
娜塔莎·雅克(Natasha Jaques)是美国华盛顿大学的助理教授。此前在美国麻省理工学院读博期间,她曾开发一种语言模型微调技术,后被用于 OpenAI 使用基于人类反馈强化学习(RLHF,Reinforcement Learning from ...
来自MSN
4 天
清华、智谱团队:探索 RLHF 的 scaling laws
目前关于 RLHF 的 scaling(扩展)潜力研究仍然相对缺乏,尤其是在模型大小、数据组成和推理预算等关键因素上的影响尚未被系统性探索。针对这一问题,来自清华大学与智谱的研究团队对 RLHF 在 LLM 中的 scaling 性能进行了全面研究,并提出了优化策略。
36氪
3 天
清华、智谱团队:探索 RLHF 的 scaling laws
RLHF 的 scaling 效率要低于预训练。 基于人类反馈的强化学习(RLHF)是优化大语言模型(LLM)行为的关键技术,能够让模型更符合人类偏好和需求 ...
电子工程专辑
22 天
【光电智造】一文读懂「RLHF」:基于人类反馈的强化学习
因此,基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,简称RLHF)应运而生,为模型的训练提供了一种新的思路。 什么是RLHF? RLHF是一种结合了机器学习中的强化学习算法与人类主观判断的训练技术。这种方法旨在利用人类的直觉和判断力来指导 ...
36氪
25 天
翁荔离职OpenAI后第一个动作:万字长文探讨RLHF的漏洞,网友们抢着传看
她强调奖励黑客行为在大模型的RLHF训练中的潜在影响,并呼吁更多研究关注理解和缓解这一问题。 在我看来,这是现实世界部署更多自主AI模型应用 ...
15 天
前OpenAI算法专家江旭创立新公司,掀起智能陪伴机器人热潮
在人工智能领域,又一位重量级人物踏上了新的征程。江旭,前OpenAI资深算法团队的领军人物,近期宣布创立了一家名为“亮源新创”(LightRobotics)的机器人公司,正式进军具身智能陪伴机器人市场。江旭作为ChatGPT核心训练算法RLHF的关键 ...
15 天
江旭创办亮源新创,拥抱具身智能陪伴机器人时代的未来
近日,前OpenAI资深算法负责人江旭宣布创办了全新的公司亮源新创(LightRobotics),正式进入具身智能陪伴机器人领域。这一消息无疑为科技界增添了新的热议话题,作为ChatGPT及其深度学习算法RLHF的核心开发者之一,江旭的团队将带来怎样 ...
红板报 on MSN
3 天
OpenAI被曝自研人形机器人,4年前因缺数据解散团队
o3之后,OpenAI下一个项目曝光了:人形机器人。 这次不只是投资像Figure、1x和Physical Intelligence这样的机器人初创公司,也不只是算法团队搞机器人强化学习。 而是自己涉足硬件,研发有双臂、双腿的实体人形机器人。 Information的消息称,两位直接了解这个项目的人透露了这个消息。 甚至人事上也能看出这种迹象,11月挖来了Meta机器人和消费硬件团队负责人Cait ...
新浪网
25 天
翁荔离职OpenAI后第一个动作:万字长文探讨RLHF漏洞,网友抢着看
她强调奖励黑客行为在大模型的RLHF训练中的潜在影响,并呼吁更多研究关注理解和缓解这一问题。 传统概念强化学习中,Agent利用奖励函数中的缺陷 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果
反馈