信息资源管理学报 ›› 2025, Vol. 15 ›› Issue (4): 129-143.doi: 10.13365/j.jirm.2025.04.129
梁柱1,2 刘寅鹏1,2 石湘1,2 黄永1,2 程齐凯1,2
Liang Zhu1,2 Liu Yinpeng1,2 Shi Xiang1,2 Huang Yong1,2 Cheng Qikai1,2
摘要: 针对科研人员在科技实体抽取任务中面临资源消耗大、处理时间长、可扩展性差等问题,本研究提出一种兼顾大小语言模型各自优势的协同训练框架,通过NCBI、BC4CHEMD、S800、SCIERC等四种不同领域的科技文献数据集,证实本研究方法在少样本环境下能达到与全量数据微调相一致的结果,同时深入分析了在科技实体抽取任务中大模型预测策略的局限性,并系统地测试了大小模型在不同数据规模下,通过多轮协同训练所展现出的模型性能。本研究所构建的大小语言模型协同训练框架,能够同时发挥大模型认知优势和小模型低成本高效率运行优势,可更好地帮助低资源、少样本环境下的文献信息高效抽取。
中图分类号: