您现在的位置是:深度 >>正文

智源开源检索排序模型 BGE Re-Ranker v2.0

深度82人已围观

简介CSS站长资源(ChinaZ.com) 3月21日 消息:智源研究院推出了新一代检索排序模型 BGE Re-Ranker v2.0,支持100+ 种语言,文本长度更长,并在多项评测中达到了 SOTAs ...

智源开源检索排序模型 BGE Re-Ranker v2.0

CSS站长资源(ChinaZ.com) 3月21日 消息:智源研究院推出了新一代检索排序模型 BGE Re-Ranker v2.0,智源支持100+ 种语言,开源文本长度更长,检索并在多项评测中达到了 SOTA(state-of-the-art)的排序结果。该模型是模型智源团队在 BGE(BAAI General Embedding)系列基础上的新尝试,扩展了向量模型的智源 “文本 + 图片” 混合检索能力。

BGE Re-Ranker v2.0采用分层自蒸馏策略优化推理效率,开源通过不同尺寸的检索模型基座(如 MiniCPM-2B、Gemma-2B、排序BGE-M3-0.5B)支持多语言检索能力。模型此外,智源该模型还新增了对 “文本 + 图片” 混合检索功能的开源支持,通过引入 CLIP 模型生成的检索 visual token 实现。

在性能评测方面,排序BGE Re-Ranker v2.0在英文、模型中文、多语言主流基准上取得了优秀的检索效果。例如,在 MTEB、C-MTEB、MIRACL、LLaMA-Index 等评测基准中,BGE Re-Ranker v2.0在重排 BGE-v1.5-large 的 top-100候选集时表现优异,提升了检索精度。同时,模型在 RAG 场景下也能够显著提升各种 embedding 模型的召回结果,配合 BGE-M3可以获得最佳的端到端检索质量。

BGE 系列模型的优秀性能和通用性也受到了社区的广泛关注,Vespa、Milvus 等主流向量数据库框架已经集成了 BGE-M3模型,为用户搭建 “三位一体” 的检索流水线提供了便利。

综上所述,智源研究院推出的 BGE Re-Ranker v2.0检索排序模型具有强大的多语言支持、更长文本长度、优秀的检索效果和灵活的 “文本 + 图片” 混合检索功能,为信息检索领域带来了新的利器。

项目地址:

https://github.com/FlagOpen/FlagEmbedding

https://huggingface.co/BAAI

Tags:

相关文章