已入深夜,您辛苦了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!祝你早点完成任务,早点休息,好梦!

Traditional Chinese Medicine Formula Classification Using Large Language Models

集合(抽象数据类型) 标准化 任务(项目管理) 计算机科学 编码(社会科学) 中医药 自然语言处理 数据挖掘 人工智能 医学 统计 数学 替代医学 工程类 病理 操作系统 程序设计语言 系统工程
作者
Zhe Wang,Keqian Li,Quanying Ren,Keyu Yao,Yan Zhu
标识
DOI:10.1109/bibm58861.2023.10385776
摘要

Objective: In this study, we aim to investigate the utilization of large language models (LLMs) for traditional Chinese medicine (TCM) formula classification by fine-tuning the LLMs and prompt template. Methods: We refined and cleaned the data from the Coding Rules for Chinese Medicinal Formulas and Their Codes [1], the Chinese National Medical Insurance Catalog for Proprietary Chinese Medicines [2], and Textbooks of Formulas of Chinese Medicine [3] to address the standardization of TCM formula information, and finally we extracted 2308 TCM formula data as a dataset in this study. We designed a prompt template for the TCM formula classification task and randomly divided the formula dataset into three subsets: a training set (2000 formulas), a test set (208 formulas), and a validation set (100 formulas). We fine-tuned the open-source LLMs such as ChatGLM-6b and ChatGLM2-6b. Finally, we evaluate all selected LLMs in our study: ChatGLM-6b (original), ChatGLM2-6b (original), ChatGLM-130b, InternLM-20b, ChatGPT, ChatGLM-6b (fine-tuned), and ChatGLM2-6b (fine-tuned). Results: The results showed that ChatGLM2-6b (fine-tuned) and ChatGLM-6b (fine-tuned) achieved the highest accuracy rates of 71% and 70% on the validation set, respectively. The accuracy rates of other models were ChatGLM-130b 58%, ChatGPT 53%, InternLM-20b 52%, ChatGLM2-6b (original) 41%, and ChatGLM-6b (original) 23%. Conclusion: LLMs achieved an impressive 71% accuracy in the formula classification task in our study. This was achieved through fine-tuning and the utilization of prompt templates. And provided a novel option for the utilization of LLMs in the field of TCM.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
卫归尘完成签到,获得积分10
1秒前
要楽奈完成签到,获得积分10
3秒前
hss完成签到 ,获得积分10
4秒前
4秒前
6秒前
asia完成签到 ,获得积分10
7秒前
花熊老大完成签到,获得积分20
7秒前
morichoc完成签到 ,获得积分10
8秒前
传奇3应助xima采纳,获得10
10秒前
10秒前
10秒前
喬老師完成签到,获得积分10
10秒前
Niko发布了新的文献求助10
10秒前
22222发布了新的文献求助10
11秒前
谢怡宁完成签到,获得积分20
13秒前
花熊老大发布了新的文献求助10
14秒前
量子星尘发布了新的文献求助10
16秒前
16秒前
林狗完成签到 ,获得积分10
18秒前
科仔关注了科研通微信公众号
18秒前
α(阿尔法)完成签到 ,获得积分10
21秒前
wmk完成签到,获得积分10
22秒前
23秒前
23秒前
shuyi完成签到,获得积分10
24秒前
Jenkin完成签到,获得积分10
25秒前
Fx完成签到,获得积分10
25秒前
26秒前
shuyi发布了新的文献求助10
27秒前
喂喂完成签到,获得积分10
27秒前
Niko完成签到,获得积分10
27秒前
呼取尽余杯完成签到 ,获得积分10
28秒前
xima发布了新的文献求助10
28秒前
苹果绿完成签到,获得积分10
29秒前
29秒前
喂喂发布了新的文献求助10
31秒前
苹果绿发布了新的文献求助10
31秒前
俊逸沛菡完成签到 ,获得积分10
33秒前
34秒前
shuqi完成签到 ,获得积分10
35秒前
高分求助中
(禁止应助)【重要!!请各位详细阅读】【科研通的精品贴汇总】 10000
Plutonium Handbook 4000
International Code of Nomenclature for algae, fungi, and plants (Madrid Code) (Regnum Vegetabile) 1500
Functional High Entropy Alloys and Compounds 1000
Building Quantum Computers 1000
Molecular Cloning: A Laboratory Manual (Fourth Edition) 500
Social Epistemology: The Niches for Knowledge and Ignorance 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 冶金 细胞生物学 免疫学
热门帖子
关注 科研通微信公众号,转发送积分 4228762
求助须知:如何正确求助?哪些是违规求助? 3762179
关于积分的说明 11823666
捐赠科研通 3422599
什么是DOI,文献DOI怎么找? 1878175
邀请新用户注册赠送积分活动 931280
科研通“疑难数据库(出版商)”最低求助积分说明 839130