构建RAG系统时,Bi-Encoder、Cross-Encoder、SPLADE、ColBERT这几个术语几乎都会在一起出现,表面上看它们都在做文本相似度计算但为什么需要这么多不同的模型?是一个不够用吗?
有点感觉像是为了V4版本的预热了。毕竟不到三个月的时间,突然就更新了OCR-2版本,这速度也太快了把。不由得让我想起了OpenAI的翁家翌对DeepSeek这个公司的评价:面对中国公司DeepSeek的竞争,OpenAI内部真正感到压力的不是对方的算 ...
Transformer 架构的伟大之处,不仅在于提出了注意力机制,更在于提供了一套 “模块化” 的设计框架 —— 通过组合编码器(Encoder)和解码器(Decoder),可以衍生出多种结构变体。从 BERT 的 “纯编码器” 到 GPT 的 “纯解码器”,从 T5 的 “编码器 - 解码器” 到 ...