在打造检索增强生成(RAG)应用时,选择合适的Embedding模型就像挑选合适的工具,直接影响到应用的表现和效果。那么,面对众多的模型,我们该如何轻松找到最适合的那一款呢?
本文大致参考思路是:先从Mteb榜单选“最优”,然后结合实际需求选择效果以及速度性价比较高的模型
MTEB : Massive Text Embedding Benchmark
MTEB 是一个包含广泛文本嵌入(Text Embedding)的基准测试,它提供了多种语言的数十个数据集,用于各种 NLP 任务,例如文本分类、聚类、检索和文本相似性。MTEB 提供了一个公共排行榜,允许研究人员提交他们的结果并跟踪他们的进展。MTEB 还提供了一个简单的 API,允许研究人员轻松地将他们的模型与基准测试进行比较。
MTEB 包含以下 8 种任务类型:
有两个榜单MTEB地址:
下面我们以旧版本为例(其中有中文等语言的筛选),看下榜单怎么快速筛序我们想要的模型
我们可以在搜索框里面输入模型名字以及关键词进行快速筛选,同时可以结合模型类型以及模型大小进行过滤,下面一栏是可以筛切换语言种类和具体任务榜单,下面是中文模型的模型排行:
有同学也有反应MTEB榜单可能存在过拟合的现象,我们可以尽量选取前面的模型,结合使用或者下载量来选择比较靠谱的模型。
除了排行榜,模型的以下特性也需考虑:
下面是一些按下载量排行比较高的模型,可能实际数据有变动
Model | 下载量 | 说明 |
---|---|---|
BAAI/bge-m3 | 1964K | 多语言,bge还有英文三个版本,下载均超过1M |
BAAI/bge-large-zh-v1.5 | 1882K | 中文 |
thenlper/gte-base | 985K | 英语 |
jinaai/jina-embeddings-v2-base-en | 934K | 英语 |
jinaai/jina-embeddings-v2-small-en | 495K | 英语 |
intfloat/multilingual-e5-large | 816K | 多语言 |
intfloat/e5-large-v2 | 714K | 英语 |
maidalun1020/bce-embedding-base_v1 | 462K | 中英双语跨语言能力强。 |
thenlper/gte-large | 308K | 英文 |
thenlper/gte-small | 280K | 英文 |
NeuML/pubmedbert-base-embeddings | 184K | 英语 |
pyannote/embedding | 147K | 需要注册 |
avsolatorio/GIST-large-Embedding-v0 | 112K | 英语,基于 BAAI/bge-large-en-v1.5 微调 |
moka-ai/m3e-base | 108K | 中英,群友推荐 |
avsolatorio/GIST-Embedding-v0 | 100K | 英文 |
Salesforce/SFR-Embedding-Mistral | 91K | 英文,基于Mistral训练 |
aspire/acge_text_embedding | 51K | 中文模型 (上升非常迅速) |
thenlper/gte-large-zh | 12K | 中文,入榜原因:GTE英文版下载量超大,值得关注 |
jinaai/jina-embeddings-v2-base-zh | 5K | 中文,入榜原因:英文版下载量大,值得关注 |
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有