جمعه ۲۱ فروردین ۰۵ ۱۵:۳۹ ۲ بازديد
با ظهور مدلهای embedding، روش سنتی جستجو بر اساس کلمات کلیدی دیگر کافی نیست. پایگاه دادههای برداری برای ذخیره و جستجوی بردارهای با ابعاد بالا طراحی شدهاند.
مفهوم embedding
مدلهای زبان یا بینایی، دادهها را به بردارهایی با ابعاد زیاد تبدیل میکنند:
x→v∈Rd
که در آن d میتواند 384، 768 یا حتی 4096 باشد.
شباهت بین دو داده با cosine similarity محاسبه میشود:
similarity(A,B)=∣∣A∣∣ ∣∣B∣∣A⋅B
چالش جستجوی برداری
اگر دیتابیس شامل میلیونها embedding باشد، جستجوی خطی بسیار کند خواهد بود. به همین دلیل الگوریتمهای Approximate Nearest Neighbor (ANN) استفاده میشوند.
مهمترین آنها:
- HNSW (Hierarchical Navigable Small World Graph)
- IVF (Inverted File Index)
- PQ (Product Quantization)
ابزارهای رایج
- FAISS
- Pinecone
- Weaviate
- Milvus
- Qdrant
در سیستمهای RAG سازمانی، معمولاً pipeline به شکل زیر استtent_copy
Document → Chunking → Embedding → Vector DB
Query → Embedding → Similarity Search → LLM
برای پروژههای سئو و تولید محتوا در مقیاس بزرگ، این ساختار امکان جستجوی معنایی بسیار دقیق را فراهم میکند.
- ۰ ۰
- ۰ نظر