情报分析与情报工作

大语言模型赋能的领域知识图谱构建与应用研究*

展开
  • (1.南京工程学院商学院   江苏南京   211167)
    (2.南京大学信息管理学院   江苏南京   210023)
    (3.南京工程学院电力工程学院   江苏南京   211167)
    (4.南京工程学院管理工程学院   江苏南京   211167)
徐浩,男,南京工程学院商学院副教授,南京大学信息管理学院博士后;康振渊,男,南京工程学院电力工程学院硕士研究生;张焱,女,南京工程学院商学院教授;邓三鸿,男,南京大学信息管理学院教授,博士生导师;邹晨,男,南京工程学院管理工程学院讲师。

收稿日期: 2025-08-13

  网络出版日期: 2025-12-30

基金资助

*本文系国家社会科学基金项目“基于领域集体智慧挖掘的颠覆性范式变革预测研究”(项目编号:25ATQ008)、江苏高校哲学社会科学研究重大项目“研究方法的跨学科流动路径及其学科驱动力研究”(项目编号:2024SJZD066)与江苏省高校“青蓝工程”优秀青年骨干教师项目研究成果之一。

Research on Construction and Application of Domain Knowledge Graph Empowered by Large Language Models

Expand

Received date: 2025-08-13

  Online published: 2025-12-30

摘要

文章融合大语言模型(LLMs)与深度学习,面向领域知识图谱构建全流程提出了一种LLMDL框架:借鉴文本分类思想开展数据预处理;利用LLMs半自动化构建领域本体;对W2NER命名实体识别模型开展领域自适应优化,基于LLMs完成数据标注及结果验证;考虑不同关系间相关性开展关系抽取;融合SBERT与LLMs实现实体对齐;构建高质量DKG并面向特定场景予以应用。实验结果表明:所提出的方法在兼顾文本价值的同时可有效控制文本长度;命名实体识别较原模型F1值提升2.24%;关系抽取中F1值较传统BERT模型提升22.07%;知识融合中84.85%的实体实现规范表达。

本文引用格式

徐 浩 康振渊 张 焱 邓三鸿 邹 晨 . 大语言模型赋能的领域知识图谱构建与应用研究*[J]. 图书与情报, 2025 , 45(06) : 113 -129 . DOI: 10.11968/tsyqb.1003-6938.2025076

Abstract

This paper integrates Large Language Models (LLMs) with deep learning to propose an LLMDL framework for the entire Domain Knowledge Graph (DKG) construction process. The framework includes: data preprocessing drawing on text classification principles; semi-automated domain ontology construction via LLMs; domain-adaptive optimization of the W2NER named entity recognition (NER) model with LLM-based data annotation and result verification; relation extraction considering inter-relation correlations; entity alignment through the integration of SBERT and LLMs; and construction of high-quality DKG with scenario-specific applications. Experimental results show that the proposed method effectively balances text value while controlling text length; improves the F1 score of named entity recognition by 2.24% compared with the original model; achieves a 22.07% F1 score improvement in relation extraction compared with traditional BERT models; and 84.85% of entities achieve standardized expressions in knowledge fusion.
文章导航

/