
摘要
本文介绍了E5,一种最先进的文本嵌入模型家族,该模型在广泛的任务中表现出色。E5采用对比学习方法进行训练,使用我们精心整理的大规模文本对数据集(称为CCPairs)中的弱监督信号。E5可以作为任何需要单向量文本表示的任务的通用嵌入模型,例如检索、聚类和分类,在零样本和微调设置下均表现出强大的性能。我们在来自BEIR和MTEB基准的56个数据集上进行了广泛的评估。对于零样本设置,E5是首个在BEIR检索基准上超越强BM25基线的模型,且未使用任何标注数据。当进行微调时,E5在MTEB基准上取得了最佳结果,其性能超过了参数量多40倍的现有嵌入模型。
代码仓库
microsoft/unilm
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| task-1-grouping-on-ocw | E5 (LARGE) | Wasserstein Distance (WD): 84.4 ± .7 # Correct Groups: 76 ± 5 # Solved Walls: 0 ± 0 Adjusted Mutual Information (AMI): 18.5 ± .6 Adjusted Rand Index (ARI): 15.4 ± .5 Fowlkes Mallows Score (FMS): 32.3 ± .4 |
| task-1-grouping-on-ocw | E5 (BASE) | Wasserstein Distance (WD): 83.8 ± .6 # Correct Groups: 89 ± 6 # Solved Walls: 1 ± 0 Adjusted Mutual Information (AMI): 19.5 ± .4 Adjusted Rand Index (ARI): 16.3 ± .4 Fowlkes Mallows Score (FMS): 33.1 ± .3 |