摘要
本发明公开一种基于大语言模型自适应融合的实体对齐方法。该方法包括:对多模态数据进行预处理,获得多模态数据特征,所述多模态数据特征包括文本数据对应的语义特征、图像数据对应的图像特征以及地理空间数据对应的拓扑关系特征;将所述多模态数据特征映射到统一语义空间,获得统一语义空间中的实体表示向量;对于所述统一语义空间中的实体表示向量,根据不同模态数据的置信度分配动态权重,进而基于该动态权重计算加权融合的实体表示,并经过对比学习和注意力机制匹配进行对齐,获得对齐的多模态融合实体表示;对于所述对齐的多模态融合实体表示,通过执行实体匹配和地理坐标校准,获得实体匹配结果。本发明提升了实体对齐的精确性和鲁棒性。