大型语言模型(LLM)的崛起,将向量数据库从默默无闻的搜索技术推向了AI成功的舞台中央。在ChatGPT风靡全球之前,向量数据库市场还相对小众,仅有Pinecone、Milvus、Zilliz等少数几家“原生”企业活跃其中。
LLM中的检索增强生成(RAG)技术,对向量索引的依赖程度极高,这促使主流数据库厂商纷纷开始支持向量索引。对于多模态的NoSQL和关系数据库而言,添加向量数据类型变得轻而易举。一夜之间,Oracle、Elastic、DataStax、Couchbase、MongoDB、Teradata、AWS等数据库巨头,都具备了存储、索引和处理向量数据的能力。
然而,随着向量数据库市场的竞争加剧,企业在为AI大模型选择向量数据库时,却面临着诸多挑战。性能不达标、吞吐量小、延迟高、缺乏Serverless版本、配置和管理难度大等问题,都成为了企业选型时的痛点。
在这一背景下,不少企业在向量数据库的发展上,推出了诸多创新举措,为市场带来了别具一格的功能和卓越的性能。其中,Pinecone作为云原生向量数据库的佼佼者,在2024年底将推理功能集成到了其向量数据库中,这一举动引起了行业的广泛关注。
Pinecone的推理功能,让用户能够在同一个平台上完成数据存储、推理和检索,极大地简化了集成过程。通过引入领先的稀疏嵌入和重新排序模型,Pinecone提高了搜索的准确性,并减少了token的浪费,从而降低了成本。测试结果显示,Pinecone的重新排名模型pinecone-rerank-v0将搜索准确率提高了60%,与行业领先模型相比,平均提高了9%。
除了Pinecone之外,Databricks也推出了无缝集成在Data Intelligence Platform中的无服务器向量数据库——Databricks Vector Search。该数据库支持从源到索引的自动数据同步,消除了复杂且昂贵的维护,同时利用了组织已经构建的安全和数据治理工具。凭借其无服务器设计,Databricks Vector Search可以轻松扩展,以支持每秒数十亿次嵌入和数千次实时查询。
Serverless技术的引入,也让向量数据库的使用变得更加便捷和高效。与传统的自主管理服务器相比,无服务器数据库在完全托管的云基础架构上运行,由第三方云提供商管理底层数据库服务器和IT基础设施,并保证随着工作负载的变化而弹性扩展。这不仅节省了成本,还提高了运营效率。
Pinecone作为Serverless托管云服务商的代表,其Serverless架构简化了水平扩展,提高了弹性,并降低了成本。像Gong这样的客户,通过采用Pinecone无服务器,将成本降低了10倍或更多。Pinecone无服务器还消除了预置、部署、更新、监控或以其他方式管理服务器的需要,这些任务都由Pinecone处理。
在混合搜索方面,Rockset、SingleStore和Milvus等企业也为向量数据库设定了新的方向。混合搜索将向量搜索、文本搜索、地理空间搜索和结构化搜索合并到单个查询中,以检索和排名最相关的结果。这种搜索方式不仅提高了搜索的准确性,还为用户提供了更丰富的搜索结果。
随着人工智能技术的快速发展,向量数据库在处理大规模非结构化数据方面的重要性日益凸显。市场对向量数据库的性能要求也在不断提高,延迟、吞吐量、向量嵌入数量等关键指标都成为了衡量向量数据库性能的重要标准。为了满足这些要求,向量数据库企业纷纷展开了性能竞赛,不断推出新的技术和算法来提高性能。
Zilliz最近更新了其向量数据库,将吞吐量和延迟提高了10倍,并将搜索准确率从70%提高到95%。同时,Zilliz还推出了新的AutoIndexer功能,无需手动配置数据库即可在每个数据集上实现最佳性能。Zilliz向量数据库还支持与Nvidia GPU搭配使用,在GPU和CPU的混合上运行,为用户提供了更多的选择。
除了Zilliz之外,其他向量数据库企业也在不断优化性能。开源的向量数据库Weaviate可以将ML模型中的数据对象和向量嵌入无缝扩展到数十亿个数据对象,并在短短几毫秒内从数百万个对象中快速搜索最近的邻居。百度智能云推出的VectorDB 1.0也在性能上取得了显著提升,相比同类开源产品,QPS在不同线程下平均时延最低,性能提升40~60%。
总之,随着AI时代的到来,向量数据库在加速参与和增长发展方面变得越来越重要。各大企业纷纷推出创新技术和算法来提高性能,满足市场需求。未来,向量数据库将继续在AI应用中发挥重要作用,为大型企业释放关键商机。