向量数据库(Vector Database)是专为高维向量数据设计的存储与检索系统,通过计算向量间的相似度(如余弦相似度、欧氏距离),实现快速近邻搜索。其核心价值在于解决传统数据库无法高效处理非结构化数据(文本、图像、音视频)的问题。
核心组件:
向量编码器:将数据转换为向量(如BERT、CLIP)
索引结构:加速搜索(如HNSW、IVF)
相似度计算:距离度量算法
典型应用场景:
文本语义搜索(如ChatGPT知识库增强)
图像/视频内容检索
个性化推荐系统

给定查询向量,在数据集中找到与其距离最近的K个向量:
import numpy as np def knn(query: np.ndarray, data: np.ndarray, k: int): # 计算欧氏距离 distances = np.linalg.norm(data - query, axis=1) # 取前K个最小距离的索引 return np.argpartition(distances, k)[:k] # 示例 data = np.random.rand(1000, 512) # 1000个512维向量 query = np.random.rand(512) top_5_indices = knn(query, data, 5)
直接暴力计算复杂度为O(N),需通过索引加速:
树状索引:KD-Tree、Ball-Tree(适合低维数据)
近似最近邻(ANN):HNSW(Hierarchical Navigable Small World)、IVF(Inverted File Index)
代码示例:使用Faiss加速KNN
import faiss
# 创建索引
dim = 512
index = faiss.IndexFlatL2(dim) # 暴力搜索
# index = faiss.IndexHNSWFlat(dim, 32) # HNSW加速
# 添加数据
index.add(data)
# 搜索
distances, indices = index.search(query.reshape(1, -1), 5)
print(f"Top 5结果索引: {indices}")
文本嵌入:Sentence-BERT、OpenAI text-embedding-3
图像嵌入:CLIP、ResNet-50
多模态嵌入:CLIP(联合文本-图像编码)
代码示例:生成文本嵌入
from sentence_transformers import SentenceTransformer
model = SentenceTransformer('all-MiniLM-L6-v2')
texts = ["机器学习", "深度学习", "人工智能"]
embeddings = model.encode(texts)
print(f"嵌入维度: {embeddings.shape}") # 输出: (3, 384)基于用户历史行为生成向量,检索相似物品:
# 用户向量 = 历史交互物品向量的加权平均 user_vector = np.mean(item_embeddings[interacted_items], axis=0) # 检索Top-K相似物品 scores = np.dot(item_embeddings, user_vector) top_k = np.argsort(scores)[-10:][::-1]
轻量级:单机可处理百万级向量
多模态支持:文本、图像、自定义向量
实时更新:支持动态增删数据
import chromadb
# 创建客户端
client = chromadb.Client()
# 创建集合
collection = client.create_collection(name="docs")
# 添加文档
documents = ["机器学习是...", "深度学习基于神经网络..."]
collection.add(
documents=documents,
ids=["id1", "id2"]
)
# 相似性检索
results = collection.query(
query_texts=["什么是神经网络?"],
n_results=1
)
print(f"最相关文档: {results['documents'][0][0]}")from PIL import Image
import clip
# 加载CLIP模型
model, preprocess = clip.load("ViT-B/32")
# 图像编码
image = preprocess(Image.open("cat.jpg")).unsqueeze(0)
image_features = model.encode_image(image)
# 将特征存入Chroma
collection.add(
embeddings=image_features.tolist(),
ids=["img1"]
)
# 图文混合检索
results = collection.query(
query_embeddings=model.encode_text(["一只猫"]).tolist(),
n_results=1
)

按业务维度分库,提升检索效率:
# 按类别创建子集合
client.create_collection(name="movies")
client.create_collection(name="books")
def route_query(query):
if "电影" in query:
return client.get_collection("movies")
else:
return client.get_collection("books")注:本文代码需安装以下依赖:
pip install chromadb sentence-transformers faiss-cpu clip torch
更多AI大模型应用开发学习内容,尽在聚客AI学院。