๊ฐ์
Learned Sparse Retrieval (LSR)์ ์ ๊ฒฝ๋ง์ ์ฌ์ฉํ์ฌ ์ฟผ๋ฆฌ์ ๋ฌธ์๋ฅผ ํฌ์ ๋ฒกํฐ(sparse vector)๋ก ํํํ๋ ์ ๋ณด ๊ฒ์ ๊ธฐ๋ฒ์ด๋ค1. ์ ํต์ ์ธ ์ดํ ๊ธฐ๋ฐ ๋ฐฉ๋ฒ(TF-IDF, BM25)๊ณผ ๋ฐ์ง ๋ฒกํฐ ์๋ฒ ๋ฉ์ ์ฅ์ ์ ๊ฒฐํฉํ์ฌ, ์ญ์์ธ(inverted index)์ ํจ์จ์ฑ์ ์ ์งํ๋ฉด์๋ ์๋ฏธ์ ๋งค์นญ ๋ฅ๋ ฅ์ ํฅ์์ํจ๋ค.
LSR์ ์ ํต์ ์ธ ํฌ์ ๋ฒกํฐ์ ๋ฌ๋ฆฌ ์ ๊ฒฝ๋ง์ ํตํด ํ์ต๋๋ฉฐ, ๋ ๊ฐ์ง ํต์ฌ ๊ธฐ๋ฅ์ ์ ๊ณตํ๋ค:
- Term weighting: ๋ฌธ์์ ์ฟผ๋ฆฌ์์ ๊ฐ ๋จ์ด์ ์ค์๋๋ฅผ ํ์ต
- Term expansion: ์๋ณธ ํ ์คํธ์ ์๋ ์๋ฏธ์ ์ผ๋ก ๊ด๋ จ๋ ๋จ์ด๋ฅผ ์ถ๊ฐ
๋ฐฐ๊ฒฝ๊ณผ ๋๊ธฐ
์ ํต์ ํฌ์ ๊ฒ์์ ํ๊ณ
์ ํต์ ์ธ BM25 ๊ฐ์ ํฌ์ ๊ฒ์ ๋ฐฉ๋ฒ์ ๋ค์๊ณผ ๊ฐ์ ๋ฌธ์ ๋ฅผ ๊ฐ์ง๋ค:
- Vocabulary mismatch: โ์๋์ฐจโ์ โ์ฐจ๋โ์ ์์ ํ ๋ค๋ฅธ ๋จ์ด๋ก ์ทจ๊ธ
- ๋์์ด ๋ฏธ์ฒ๋ฆฌ: ์๋ฏธ์ ์ผ๋ก ์ ์ฌํ ๋จ์ด๋ค์ ๋ณ๊ฐ๋ก ๊ฐ์ฃผ
- ๋ฌธ๋งฅ ๋ฌด์: ๋จ์ด์ ์ค์๋๊ฐ ๋ฌธ๋งฅ๊ณผ ๋ฌด๊ดํ๊ฒ ๊ณ ์
๋ฐ์ง ๋ฒกํฐ ๊ฒ์์ ๋ฌธ์
๋ฐ์ง ๋ฒกํฐ ๊ธฐ๋ฐ ๊ฒ์(DPR, ANCE ๋ฑ)์ ์๋ฏธ์ ์ ์ฌ์ฑ์ ์ ํฌ์ฐฉํ์ง๋ง:
- ๋์ ๋ฉ๋ชจ๋ฆฌ ์ฌ์ฉ๋: k-NN ๊ฒ์์ ๋ง์ ๋ฉ๋ชจ๋ฆฌ ํ์
- ๋๋ฆฐ ๊ฒ์ ์๋: ๊ทผ์ฌ ์ต๊ทผ์ ์ด์ ํ์์ด inverted index๋ณด๋ค ๋นํจ์จ์
- ํด์ ์ด๋ ค์: ์ด๋ค ์์๊ฐ ๊ฒ์ ๊ฒฐ๊ณผ์ ์ํฅ์ ์ฃผ์๋์ง ํ์ ๊ณค๋
Learned Sparse Retrieval์ ํด๊ฒฐ์ฑ
LSR์ ๋ค์์ ํตํด ๋ ๋ฐฉ์์ ์ฅ์ ์ ๊ฒฐํฉํ๋ค:
- ์ ๊ฒฝ๋ง์ ํตํด ์๋ฏธ์ ์ ์ฌ์ฑ ํ์ต
- Inverted index๋ฅผ ์ฌ์ฉํ์ฌ ํจ์จ์ ์ธ ๊ฒ์
- ํฌ์ ํํ์ผ๋ก ํด์ ๊ฐ๋ฅ์ฑ ์ ์ง
ํตํฉ ํ๋ ์์ํฌ
Nguyen et al.(2023)์ ๋ชจ๋ LSR ๋ฐฉ๋ฒ์ 4๊ฐ์ง ํต์ฌ ๊ตฌ์ฑ ์์๋ก ํตํฉํ๋ ํ๋ ์์ํฌ๋ฅผ ์ ์ํ๋ค2:
- Document term weighting: ๋ฌธ์ ๋ด ๊ฐ ๋จ์ด์ ์ค์๋ ๊ณ์ฐ
- Query term weighting: ์ฟผ๋ฆฌ ๋ด ๊ฐ ๋จ์ด์ ์ค์๋ ๊ณ์ฐ
- Document expansion: ๋ฌธ์์ ๊ด๋ จ ๋จ์ด ์ถ๊ฐ
- Query expansion: ์ฟผ๋ฆฌ์ ๊ด๋ จ ๋จ์ด ์ถ๊ฐ
๊ตฌ์ฑ ์์๋ณ ๊ธฐ์ฌ๋
ํต์ผ๋ ํ๊ฒฝ์์ ์ฌํ์ต ์คํ ๊ฒฐ๊ณผ:
- Document term weighting: ํจ๊ณผ์ฑ์ ๊ฐ์ฅ ์ค์ํ ์์
- Query term weighting: ์์ง๋ง ๊ธ์ ์ ์ธ ์ํฅ
- Document/Query expansion: ์๋ก ์์ ํจ๊ณผ ์กด์ฌ
์ค์ฉ์ ๋ฐ๊ฒฌ: ์ต์ ๋ชจ๋ธ์์ query expansion์ ์ ๊ฑฐํ๋ฉด ํจ๊ณผ์ฑ์ ์ ์งํ๋ฉด์ ์ง์ฐ ์๊ฐ์ ํฌ๊ฒ ์ค์ผ ์ ์๋ค.
์ฃผ์ ๋ชจ๋ธ
DeepCT (2019)
์ด๊ธฐ learned sparse retrieval ๋ชจ๋ธ ์ค ํ๋๋ก, BERT์ ๋ฌธ๋งฅ์ ํํ์ ํ์ฉํ๋ค.
ํต์ฌ ์์ด๋์ด:
- BERT์ ๋ฌธ๋งฅํ๋ ์๋ฒ ๋ฉ ์์ ์ ํ ํ๊ท ๋ชจ๋ธ ์ฌ์ฉ
- ๋ฌธ์ ๋ด ๊ฐ ๋จ์ด์ ์ค์๋๋ฅผ ์ ์ ๊ฐ์ผ๋ก ์์ธก
- ๋จ์ด๋ณ๋ก ๋ ๋ฆฝ์ ์ธ ์ ์ ํ์ต
ํ๊ณ:
- ๊ฐ ๋จ์ด์ ์ค์๋์ ๋ํ ground truth ์ ์๊ฐ ์ด๋ ค์
- ์ฟผ๋ฆฌ-๋ฌธ์ ๊ด๋ จ์ฑ์ ์ง์ ์ ์ผ๋ก ํ์ตํ์ง ์์
DeepImpact (2021)
DeepCT์ ํ๊ณ๋ฅผ ๊ฐ์ ํ ๋ชจ๋ธ.
๊ฐ์ ์ :
- ์ฟผ๋ฆฌ-๋ฌธ์ ๊ด๋ จ์ฑ์ ํ์ต ๋ชฉํ๋ก ์ง์ ์ฌ์ฉ
- BERT ์๋ฒ ๋ฉ์ 2์ธต ์ ๊ฒฝ๋ง์ผ๋ก ๋ณํํ์ฌ ์ค์นผ๋ผ ์ ์ ์์ฑ
- ๋ ๋ฆฝ์ ์ธ ๋จ์ด ์ ์ ๋์ ์ฟผ๋ฆฌ ๋จ์ด ์ํฅ๋์ ํฉ์ ์ต์ ํ
์ฑ๋ฅ:
- DeepCT๋ณด๋ค ํจ์จ์ (ํ๊ท ์๋ต ์๊ฐ 1.1ms, tail 4.5ms)
- ํจ๊ณผ์ฑ์ SPLADEv2๋ uniCOIL๋ณด๋ค ๋ฎ์
uniCOIL (2021)
COIL์ ๊ฐ๋จํ ํ์ฅ ๋ฒ์ ์ผ๋ก, MS MARCO์์ state-of-the-art ๋ฌ์ฑ3.
ํน์ง:
- COIL์ ๋ฒกํฐ ์ถ๋ ฅ์ ์ค์นผ๋ผ ์ค์๋ ์ ์๋ก ๋จ์ํ
- Learned Term Impact (LTI) ํ๋ ์์ํฌ์ ์ผ๋ถ
- MS MARCO dev queries์์ ์ด์ ๋ฐฉ๋ฒ๋ณด๋ค ํฐ ํญ์ผ๋ก ์ฐ์
ํจ์จ์ฑ ๋๋น ํจ๊ณผ์ฑ:
- SPLADEv2๋ณด๋ค ํจ๊ณผ์ ์ด์ง๋ง ๋๋ฆผ
- ๋ณต์กํ ์ํคํ ์ฒ๋ก ์ธํด DeepImpact๋ณด๋ค 10๋ฐฐ ์ด์ ๋๋ฆผ
SPLADE (2021)
๊ฐ์ฅ ๋๋ฆฌ ์๋ ค์ง learned sparse retrieval ๋ชจ๋ธ4.
์ํคํ ์ฒ:
- BERT ๊ธฐ๋ฐ transformer๋ก ์ ๋ ฅ ํ ํฐํ ๋ฐ ์ธ์ฝ๋ฉ
- MLM (Masked Language Model) ํค๋๋ฅผ ํตํด ์ดํ ํฌ๊ธฐ(30,522)๋ก projection
- Log-saturation ํ์ฑํ ํจ์๋ก ๋จ์ผ term์ ๊ธฐ์ฌ๋ ์ ํ
- ์๋ธํ ํฐ ์๋ฒ ๋ฉ ํฉ์ฐ์ผ๋ก ์ต์ข ํฌ์ ๋ฒกํฐ ์์ฑ
ํต์ฌ ํ์ :
- ๋ช ์์ ํฌ์์ฑ ์ ๊ทํ: FLOPS regularizer๋ก inverted index ๋น์ฉ ์ง์ ์ถ์
- Log-saturation: ๋ฐ๋ณต ์ถํ ๋จ์ด์ ๊ณผ๋ํ ์ํฅ ๋ฐฉ์ง
- End-to-end ๋จ์ผ ๋จ๊ณ ํ์ต: ๋ณต์กํ ํ์ดํ๋ผ์ธ ์์ด ํ์ต
์ฅ์ :
- Exact term matching๊ณผ ํจ์จ์ ์ธ inverted index ์ฌ์ฉ
- Term expansion์ผ๋ก vocabulary mismatch ํด๊ฒฐ
- ํจ๊ณผ์ฑ๊ณผ ํจ์จ์ฑ์ trade-off ์กฐ์ ๊ฐ๋ฅ
SPLADE v2 (2021)
SPLADE์ ๊ฐ์ ๋ฒ์ ์ผ๋ก ์ฌ๋ฌ ํ์ต ๊ธฐ๋ฒ ๋์ 5.
์ฃผ์ ๊ฐ์ ์ฌํญ:
- Knowledge distillation: ๊ต์ฌ ๋ชจ๋ธ์ ์ง์ ์ ์ด
- Hard negative mining: ์ด๋ ค์ด ๋ถ์ ์์ ๋ก ํ์ต ๊ฐํ
- ๋ ๋์ PLM ์ด๊ธฐํ: ์ฌ์ ํ์ต ๋ชจ๋ธ ์ ํ ์ต์ ํ
- ํ๋ง ๋ฉ์ปค๋์ฆ ์์ : ๋ฌธ์ ํํ ๊ฐ์
์ฑ๋ฅ:
- TREC DL 2019์์ NDCG@10 9% ์ด์ ํฅ์
- BEIR ๋ฒค์น๋งํฌ์์ state-of-the-art ๋ฌ์ฑ
- ๋ฐ์ง ๋ชจ๋ธ๊ณผ ๊ฒฝ์ ๊ฐ๋ฅํ ์์ค
SPLADE v3 (2024)
์ต์ ๋ฒ์ ์ผ๋ก ํ์ต ๋ฐฉ๋ฒ๋ก ์ ๋ํญ ๊ฐ์ 6.
ํ๋ จ ๊ฐ์ :
- Hard negative ์ฆ๊ฐ: 100๊ฐ ๋ค๊ฑฐํฐ๋ธ ์ฌ์ฉ (top-50 + ๋๋ค 50)
- ์์๋ธ distillation: ๋จ์ผ ๋ชจ๋ธ ๋์ ์ฌ๋ฌ cross-encoder ์์๋ธ ์ฌ์ฉ
- ํ์ด๋ธ๋ฆฌ๋ ์์ค ํจ์: KL-Div์ MarginMSE ํผํฉ
- Self-distillation: SPLADE++์ ๋ค๊ฑฐํฐ๋ธ ์ํ๋ง
์ฑ๋ฅ:
- MS MARCO dev set์์ MRR@10 > 40 ๋ฌ์ฑ
- BM25 ๋ฐ SPLADE++๋ณด๋ค ํต๊ณ์ ์ผ๋ก ์ ์๋ฏธํ๊ฒ ์ฐ์
- Cross-encoder re-ranker์ ๊ฒฝ์ ๊ฐ๋ฅ
์๋ ์๋ฆฌ
1. ํฌ์ ๋ฒกํฐ ์์ฑ
์
๋ ฅ ํ
์คํธ: "machine learning algorithms"
โ BERT tokenization
["machine", "learning", "algorithms"]
โ BERT encoding + MLM head
์ดํ ํฌ๊ธฐ(30,522) ๋ฒกํฐ: [0, 0, ..., 0.8, 0, ..., 0.6, ..., 0.4, ..., 0.2, 0, ...]
โmachine โlearning โalgorithm โneural
โ Sparsification (๋ฎ์ ๊ฐ ์ ๊ฑฐ)
{machine: 0.8, learning: 0.6, algorithm: 0.4, neural: 0.2}
ํน์ง:
- ์๋ณธ์ ์๋ โneuralโ์ด term expansion์ผ๋ก ์ถ๊ฐ๋จ
- ๋๋ถ๋ถ์ ์ฐจ์์ด 0 (ํฌ์์ฑ)
- ์ค์ํ ๋จ์ด๋ง non-zero ๊ฐ์ค์น
2. ์ธ๋ฑ์ฑ
ํฌ์ ๋ฒกํฐ๋ฅผ inverted index์ ์ ์ฅ:
Inverted Index:
machine โ [doc1: 0.8, doc5: 0.6, ...]
learning โ [doc1: 0.6, doc3: 0.7, ...]
algorithm โ [doc1: 0.4, doc2: 0.5, ...]
neural โ [doc1: 0.2, doc4: 0.8, ...]
์ ํต์ ์ธ BM25์ ๋์ผํ ๊ตฌ์กฐ๋ก ํจ์จ์ ๊ฒ์ ๊ฐ๋ฅ.
3. ๊ฒ์
์ฟผ๋ฆฌ๋ ๋์ผํ๊ฒ ํฌ์ ๋ฒกํฐ๋ก ๋ณํ ํ dot product๋ก ์ ์ ๊ณ์ฐ:
Query: "deep learning"
Query vector: {deep: 0.9, learning: 0.7, neural: 0.3}
Document score = โ(query_weight ร doc_weight)
= (0.7 ร 0.6) + (0.3 ร 0.2)
= 0.42 + 0.06
= 0.48
์ฑ๋ฅ ๋น๊ต
BEIR ๋ฒค์น๋งํฌ (์ ๋ก์ท ํ๊ฐ)
๋ค์ํ ๋๋ฉ์ธ์์์ ์ผ๋ฐํ ์ฑ๋ฅ:
๋ชจ๋ธ | ํ๊ท NDCG@10 | ํน์ง |
---|---|---|
BM25 | ~0.40 | ๋ฒ ์ด์ค๋ผ์ธ |
DeepImpact | ~0.44 | ๊ฐ์ฅ ๋น ๋ฆ |
uniCOIL | ~0.47 | ๊ท ํ์กํ ์ฑ๋ฅ |
SPLADE v2 | ~0.49 | ๋์ ํจ๊ณผ์ฑ, ๋๋ฆผ |
SPLADE v3 | ~0.51 | State-of-the-art |
Dense (DPR) | ~0.45 | ๋์ ๋ฉ๋ชจ๋ฆฌ |
MS MARCO Passage Ranking
์ธ-๋๋ฉ์ธ ์ฑ๋ฅ:
๋ชจ๋ธ | MRR@10 | ํจ์จ์ฑ |
---|---|---|
BM25 | 0.187 | ๋งค์ฐ ๋น ๋ฆ |
DeepCT | 0.243 | ๋น ๋ฆ |
DeepImpact | 0.326 | ๋น ๋ฆ (1.1ms) |
uniCOIL | 0.353 | ์ค๊ฐ |
SPLADE v2 | 0.368 | ๋๋ฆผ |
SPLADE v3 | 0.400+ | ๋๋ฆผ (10x+) |
Recall ๋น๊ต (Long Document Retrieval)
๊น์ด | DeepImpact | uniCOIL | SPLADE |
---|---|---|---|
@100 | 0.65 | 0.72 | 0.78 |
@500 | 0.79 | 0.84 | 0.89 |
@1000 | 0.84 | 0.88 | 0.93 |
SPLADE๊ฐ ๋ชจ๋ ๊น์ด์์ ๊ฐ์ฅ ๋์ recall ๋ฌ์ฑ.
์ฅ์
1. ํจ์จ์ฑ
- Inverted index ํ์ฉ: BM25์ ์ ์ฌํ ๊ฒ์ ์๋
- ๋ฎ์ ๋ฉ๋ชจ๋ฆฌ: ๋ฐ์ง ๋ฒกํฐ ๋๋น 7-10% ์์ค ์ธ๋ฑ์ค ํฌ๊ธฐ
- ๋น ๋ฅธ ๊ฒ์: k-NN๋ณด๋ค ํจ์จ์
2. ํจ๊ณผ์ฑ
- ์๋ฏธ์ ๋งค์นญ: Term expansion์ผ๋ก ๋์์ด, ๊ด๋ จ์ด ๊ฒ์
- ๋ฌธ๋งฅ ์ธ์: BERT ๊ธฐ๋ฐ์ผ๋ก ๋ฌธ๋งฅ์ ๋ฐ๋ฅธ ๊ฐ์ค์น ํ์ต
- ์ฐ์ํ ์ฑ๋ฅ: BEIR, MS MARCO ๋ฑ์์ ๋ฐ์ง ๋ชจ๋ธ๊ณผ ๊ฒฝ์
3. ํด์ ๊ฐ๋ฅ์ฑ
- ๋ช ์์ ๋จ์ด ๊ฐ์ค์น: ์ด๋ค ๋จ์ด๊ฐ ์ค์ํ์ง ํ์ธ ๊ฐ๋ฅ
- ๋๋ฒ๊น ์ฉ์ด: ๊ฒ์ ๊ฒฐ๊ณผ์ ๊ทผ๊ฑฐ ํ์ ๊ฐ๋ฅ
- ์ค๋ช ๊ฐ๋ฅํ AI: ์ฌ์ฉ์์๊ฒ ๊ฒ์ ์ด์ ์ ์ ๊ฐ๋ฅ
4. ์ ์ฐ์ฑ
- Trade-off ์กฐ์ : ์ ๊ทํ ๊ฐ๋๋ก ํจ์จ์ฑ-ํจ๊ณผ์ฑ ๊ท ํ ์กฐ์
- ๊ธฐ์กด ์ธํ๋ผ ํ์ฉ: Lucene, Elasticsearch ๋ฑ ๊ธฐ์กด ์์คํ ์ฌ์ฉ
- ํ์ด๋ธ๋ฆฌ๋ ๊ฒ์: ๋ฐ์ง ๋ฒกํฐ์ ๊ฒฐํฉ ๊ฐ๋ฅ (RRF ๋ฑ)
๋จ์
1. ํ์ต ๋น์ฉ
- ๋๊ท๋ชจ ๋ฐ์ดํฐ์ ํ์ (MS MARCO ๋ฑ)
- ๊ธด ํ์ต ์๊ฐ (ํนํ distillation ์ฌ์ฉ ์)
- GPU ์์ ํ์
2. ์ง์ฐ ์๊ฐ
- ์ ํต์ ์ธ BM25๋ณด๋ค ๋๋ฆผ (ํนํ bi-encoder ๋ชจ๋)
- Term expansion์ผ๋ก ์ธํ ์ธ๋ฑ์ค ํฌ๊ธฐ ์ฆ๊ฐ
- SPLADE v2/v3๋ DeepImpact๋ณด๋ค 10๋ฐฐ ์ด์ ๋๋ฆผ
3. ์ธ์ด ์์กด์ฑ
- ๋๋ถ๋ถ ์์ด ์ค์ฌ์ผ๋ก ๊ฐ๋ฐ
- ๋ค๊ตญ์ด ์ง์ ์ ํ์
- ์ธ์ด๋ณ ์ฌํ์ต ํ์
4. ๋ณต์ก์ฑ
- ํ์ดํผํ๋ผ๋ฏธํฐ ํ๋ ํ์ (์ ๊ทํ ๊ฐ๋, ํ์ต๋ฅ ๋ฑ)
- ์ ํต์ ๋ฐฉ๋ฒ๋ณด๋ค ๊ตฌํ ๋ณต์ก
- ์ต์ ํ๋ฅผ ์ํ ์ ๋ฌธ ์ง์ ํ์
๊ตฌํ ๋ฐ ํ์ฉ
ํ์ต ํจ๋ฌ๋ค์
1. Contrastive Learning
- Positive์ negative ์ํ ์์ผ๋ก ํ์ต
- ๊ด๋ จ ๋ฌธ์๋ ๊ฐ๊น๊ฒ, ๋น๊ด๋ จ ๋ฌธ์๋ ๋ฉ๊ฒ
2. Distillation (๋ ํจ๊ณผ์ )
- Cross-encoder ๊ฐ์ ๊ฐ๋ ฅํ ๊ต์ฌ ๋ชจ๋ธ์ ์ ์ ํ์ต
- SPLADE v2 ์ดํ ์ฃผ๋ก ์ฌ์ฉ
- ์์๋ธ distillation์ผ๋ก ๋์ฑ ๊ฐ์ (v3)
์ ๊ทํ
FLOPS Regularizer
Loss = Ranking_Loss + ฮป ร FLOPS_cost
FLOPS_cost โ โ(non-zero weights)
- ฮป ์ฆ๊ฐ โ ๋ ํฌ์ํ ํํ โ ๋น ๋ฅธ ๊ฒ์, ๋ฎ์ ํจ๊ณผ์ฑ
- ฮป ๊ฐ์ โ ๋ ๋ฐ์งํ ํํ โ ๋๋ฆฐ ๊ฒ์, ๋์ ํจ๊ณผ์ฑ
์ค์ ์์คํ ์ ์ฉ
์ฃผ์ ๊ตฌํ:
- Elasticsearch: ELSER (Elastic Learned Sparse Encoder)
- OpenSearch: Neural Sparse Search (opensearch-neural-sparse-encoding ๋ชจ๋ธ)
- Pinecone: Sparse vector index ์ง์
- Qdrant: Sparse vector ์ง์
ํ์ฉ ์ฌ๋ก:
- ์ํฐํ๋ผ์ด์ฆ ๊ฒ์: ๋ฌธ์, ์ด๋ฉ์ผ, ์ฝ๋ ๊ฒ์
- E-commerce: ์ํ ๊ฒ์ ๋ฐ ์ถ์ฒ
- ์ง์์๋ต ์์คํ : RAG (Retrieval-Augmented Generation)
- ๋ฒ๋ฅ /์๋ฃ: ์ ๋ฌธ ์ฉ์ด ๊ฒ์
์ต์ ์ฐ๊ตฌ ๋ํฅ
LLM๊ณผ์ ๊ฒฐํฉ (2024)
Large Language Model์ ํ์ฉํ sparse retrieval ํฅ์:
- Query rewriting: LLM์ผ๋ก ์ฟผ๋ฆฌ ์ฌ์์ฑ
- Query expansion: LLM์ด ๊ด๋ จ ์ฉ์ด ์ ์
- Document augmentation: LLM์ผ๋ก ๋ฌธ์ ๋ณด๊ฐ
Long Document ์ ์ (2023)
Proximal scoring์ ์ค์์ฑ ๋ฐ๊ฒฌ7:
- ExactSDM: ์ ํํ ๊ทผ์ ์ฑ ๋งค์นญ
- SoftSDM: ์ํํธ ๊ทผ์ ์ฑ ๋งค์นญ
- ๊ธด ๋ฌธ์์์ LSR ์ฑ๋ฅ ํฌ๊ฒ ๊ฐ์
Multimodal LSR
ํ ์คํธ ์ด์ธ ๋๋ฉ์ธ์ผ๋ก ํ์ฅ:
- ์ด๋ฏธ์ง-ํ ์คํธ ๊ฒ์
- ๋น๋์ค ๊ฒ์
- ์ค๋์ค ๊ฒ์
๊ด๋ จ ๊ธฐ์
์ฐธ๊ณ ์๋ฃ
์ฃผ์ ๋ ผ๋ฌธ
- Formal, T., et al. (2021). SPLADE: Sparse Lexical and Expansion Model for First Stage Ranking
- Formal, T., et al. (2021). SPLADE v2: Sparse Lexical and Expansion Model for Information Retrieval
- Formal, T., et al. (2024). SPLADE-v3: New baselines for SPLADE
- Lin, J., et al. (2021). A Few Brief Notes on DeepImpact, COIL, and a Conceptual Framework
- Nguyen, T., et al. (2023). A Unified Framework for Learned Sparse Retrieval
๋ธ๋ก๊ทธ ๋ฐ ํํ ๋ฆฌ์ผ
- SPLADE - Naver Labs Europe
- Modern Sparse Neural Retrieval - Qdrant
- SPLADE for Sparse Vector Search - Pinecone
์ฝ๋ ์ ์ฅ์
Footnotes
-
A Unified Framework for Learned Sparse Retrieval - Nguyen et al., 2023 โฉ
-
A Few Brief Notes on DeepImpact, COIL, and a Conceptual Framework for Information Retrieval Techniques - Lin et al., 2021 โฉ
-
SPLADE: Sparse Lexical and Expansion Model for First Stage Ranking - Formal et al., 2021 โฉ
-
SPLADE v2: Sparse Lexical and Expansion Model for Information Retrieval - Formal et al., 2021 โฉ
-
Adapting Learned Sparse Retrieval for Long Documents - 2023 โฉ