谷歌发布了EmbeddingGemma,这是一款高效的多语言嵌入模型,专为设备端使用设计。该模型参数量为308M,上下文窗口为2K,支持超过100种语言。在Massive Text Embedding Benchmark(MTEB)上,EmbeddingGemma是500M参数以下排名最高的纯文本多语言嵌入模型。
EmbeddingGemma基于Gemma3变换器架构,但修改为使用双向注意力而非因果注意力,使其从解码器转变为编码器。模型还包括一个平均池化层和两个密集层,最终输出768维向量。该模型采用Matryoshka Representation Learning(MRL)进行训练,量化后内存占用低于200MB。
该模型适用于移动RAG管道、代理等场景,并可通过Sentence Transformers、LangChain等框架使用。谷歌还展示了在Medical Instruction and Retrieval Dataset(MIRIAD)上微调的示例,微调后的模型在医学论文检索任务中表现出色。