Federated Domain-Specific Knowledge Transfer on Large Language Models Using Synthetic Data

计算机科学 领域(数学分析) 知识转移 传输(计算) 自然语言处理 数据科学 人工智能 知识管理 数学 并行计算 数学分析
作者
Haoran Li,Xinyuan Zhao,Dadi Guo,Hanlin Gu,Ziqian Zeng,Yuxing Han,Yangqiu Song,Lixin Fan,Qiang Yang
出处
期刊:Cornell University - arXiv 被引量:3
标识
DOI:10.48550/arxiv.2405.14212
摘要

As large language models (LLMs) demonstrate unparalleled performance and generalization ability, LLMs are widely used and integrated into various applications. When it comes to sensitive domains, as commonly described in federated learning scenarios, directly using external LLMs on private data is strictly prohibited by stringent data security and privacy regulations. For local clients, the utilization of LLMs to improve the domain-specific small language models (SLMs), characterized by limited computational resources and domain-specific data, has attracted considerable research attention. By observing that LLMs can empower domain-specific SLMs, existing methods predominantly concentrate on leveraging the public data or LLMs to generate more data to transfer knowledge from LLMs to SLMs. However, due to the discrepancies between LLMs' generated data and clients' domain-specific data, these methods cannot yield substantial improvements in the domain-specific tasks. In this paper, we introduce a Federated Domain-specific Knowledge Transfer (FDKT) framework, which enables domain-specific knowledge transfer from LLMs to SLMs while preserving clients' data privacy. The core insight is to leverage LLMs to augment data based on domain-specific few-shot demonstrations, which are synthesized from private domain data using differential privacy. Such synthetic samples share similar data distribution with clients' private data and allow the server LLM to generate particular knowledge to improve clients' SLMs. The extensive experimental results demonstrate that the proposed FDKT framework consistently and greatly improves SLMs' task performance by around 5\% with a privacy budget of less than 10, compared to local training on private data.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
路过蜻蜓完成签到,获得积分10
1秒前
追风筝的人完成签到,获得积分10
1秒前
9527发布了新的文献求助10
1秒前
清爽语柳发布了新的文献求助30
2秒前
无心的蜗牛完成签到,获得积分10
2秒前
3秒前
量子星尘发布了新的文献求助10
4秒前
5秒前
大模型应助Transecond采纳,获得10
5秒前
善学以致用应助zz采纳,获得10
6秒前
6秒前
一切顺利完成签到 ,获得积分10
7秒前
可爱的函函应助祎薇采纳,获得10
8秒前
9秒前
10秒前
清爽语柳发布了新的文献求助10
10秒前
10秒前
九局下半发布了新的文献求助10
10秒前
lianghua应助慢慢采纳,获得10
11秒前
11秒前
空白关注了科研通微信公众号
12秒前
蓝色斑马发布了新的文献求助10
12秒前
13秒前
lxc发布了新的文献求助10
13秒前
13秒前
zsl发布了新的文献求助10
15秒前
量子星尘发布了新的文献求助10
15秒前
小盼盼盼发布了新的文献求助10
15秒前
黄林旋发布了新的文献求助10
17秒前
Nico发布了新的文献求助10
17秒前
18秒前
Transecond发布了新的文献求助10
18秒前
搜集达人应助黄林旋采纳,获得10
22秒前
Transecond完成签到,获得积分10
24秒前
小盼盼盼完成签到,获得积分20
24秒前
skyziy完成签到,获得积分10
26秒前
xuxugogo完成签到,获得积分10
26秒前
wyw完成签到 ,获得积分10
29秒前
量子星尘发布了新的文献求助10
29秒前
gxc发布了新的文献求助20
30秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Encyclopedia of Quaternary Science Reference Third edition 6000
Encyclopedia of Forensic and Legal Medicine Third Edition 5000
Agyptische Geschichte der 21.30. Dynastie 2000
Variants in Economic Theory 1000
Global Ingredients & Formulations Guide 2014, Hardcover 1000
Research for Social Workers 1000
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 计算机科学 有机化学 物理 生物化学 纳米技术 复合材料 内科学 化学工程 人工智能 催化作用 遗传学 数学 基因 量子力学 物理化学
热门帖子
关注 科研通微信公众号,转发送积分 5814640
求助须知:如何正确求助?哪些是违规求助? 5918839
关于积分的说明 15540708
捐赠科研通 4937517
什么是DOI,文献DOI怎么找? 2659151
邀请新用户注册赠送积分活动 1605464
关于科研通互助平台的介绍 1560081