已入深夜,您辛苦了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!祝你早点完成任务,早点休息,好梦!

RLHF-V: Towards Trustworthy MLLMs via Behavior Alignment from Fine-grained Correctional Human Feedback

可信赖性 计算机科学 稳健性(进化) 一般化 源代码 偏爱 编码(集合论) 人工智能 计算 开源 机器学习 人机交互 算法 程序设计语言 计算机安全 经济 基因 数学分析 生物化学 化学 数学 集合(抽象数据类型) 软件 微观经济学
作者
Tianyu Yu,Yuan Yao,Haoye Zhang,Taiwen He,Yifeng Han,Ganqu Cui,Jinyi Hu,Zhiyuan Liu,Hai-Tao Zheng,Maosong Sun,Tat‐Seng Chua
出处
期刊:Cornell University - arXiv 被引量:2
标识
DOI:10.48550/arxiv.2312.00849
摘要

Multimodal Large Language Models (MLLMs) have recently demonstrated impressive capabilities in multimodal understanding, reasoning, and interaction. However, existing MLLMs prevalently suffer from serious hallucination problems, generating text that is not factually grounded in associated images. The problem makes existing MLLMs untrustworthy and thus impractical in real-world (especially high-stakes) applications. To address the challenge, we present RLHF-V, which enhances MLLM trustworthiness via behavior alignment from fine-grained correctional human feedback. Specifically, RLHF-V collects human preference in the form of segment-level corrections on hallucinations, and performs dense direct preference optimization over the human feedback. Comprehensive experiments on five benchmarks in both automatic and human evaluation show that, RLHF-V can enable substantially more trustworthy MLLM behaviors with promising data and computation efficiency. Remarkably, using 1.4k annotated data samples, RLHF-V significantly reduces the hallucination rate of the base MLLM by 34.8%, outperforming the concurrent LLaVA-RLHF trained on 10k annotated data. The final model achieves state-of-the-art performance in trustworthiness among open-source MLLMs, and shows better robustness than GPT-4V in preventing hallucinations aroused from over-generalization. We open-source our code, model, and data at https://github.com/RLHF-V/RLHF-V.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
2秒前
情怀应助小城故事和冰雨采纳,获得10
3秒前
ding应助qzliyulin采纳,获得10
5秒前
5秒前
7秒前
fanjinzhu发布了新的文献求助10
7秒前
7秒前
小小发布了新的文献求助10
8秒前
9秒前
10秒前
10秒前
11秒前
sunshine发布了新的文献求助10
11秒前
12秒前
123发布了新的文献求助10
12秒前
12秒前
13秒前
16秒前
漂亮汉堡发布了新的文献求助10
17秒前
Yan发布了新的文献求助10
17秒前
17秒前
冷酷的澜完成签到 ,获得积分10
17秒前
和ml完成签到 ,获得积分10
18秒前
qzliyulin发布了新的文献求助10
18秒前
19秒前
爆米花应助白bai采纳,获得10
20秒前
坚强的严青完成签到,获得积分10
21秒前
李健应助宋宋宋2采纳,获得10
22秒前
小谢完成签到 ,获得积分20
22秒前
量子星尘发布了新的文献求助10
23秒前
24秒前
田様应助qzliyulin采纳,获得10
24秒前
24秒前
123完成签到,获得积分10
25秒前
zfj完成签到 ,获得积分10
28秒前
嗑学家发布了新的文献求助10
30秒前
31秒前
ding应助brucelin采纳,获得10
33秒前
linllll完成签到,获得积分10
34秒前
宋宋宋2发布了新的文献求助10
34秒前
高分求助中
The Oxford Encyclopedia of the History of Modern Psychology 2000
Chinesen in Europa – Europäer in China: Journalisten, Spione, Studenten 1200
Deutsche in China 1920-1950 1200
中国翻译家词典 1000
Astrochemistry 1000
Applied Survey Data Analysis (第三版, 2025) 850
Mineral Deposits of Africa (1907-2023): Foundation for Future Exploration 800
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 物理 生物化学 纳米技术 计算机科学 化学工程 内科学 复合材料 物理化学 电极 遗传学 量子力学 基因 冶金 催化作用
热门帖子
关注 科研通微信公众号,转发送积分 3875059
求助须知:如何正确求助?哪些是违规求助? 3417447
关于积分的说明 10703557
捐赠科研通 3141828
什么是DOI,文献DOI怎么找? 1733637
邀请新用户注册赠送积分活动 836100
科研通“疑难数据库(出版商)”最低求助积分说明 782377