quivr

Opiniated RAG for integrating GenAI in your apps 🧠 Focus on your product rather than the RAG. Easy integration in existing products with customisation! Any LLM: GPT4, Groq, Llama. Any Vectorstore:

39.1k
Stars
+68
Stars/month
0
Releases (6m)

Star Growth

+13 (0.0%)
38.3k39.1k39.9kMar 27Apr 1

Overview

Quivr 是一个专为开发者设计的「第二大脑」RAG(检索增强生成)框架,旨在简化 GenAI 在应用中的集成。该工具采用固化的架构设计,让开发者专注于产品功能而非 RAG 实现细节。Quivr 支持多种大语言模型(OpenAI、Anthropic、Mistral、Gemma 等)和文件格式(PDF、TXT、Markdown 等),提供开箱即用的文档解析和问答能力。其核心优势在于提供高度优化的 RAG 管道,同时保持足够的定制灵活性,允许添加互联网搜索、自定义工具等功能。Quivr 还与 Megaparse 深度集成,提供强大的文件解析能力。对于需要快速构建知识库和 AI 问答系统的团队,Quivr 提供了一个成熟、易用的解决方案,避免了从零开始构建 RAG 系统的复杂性。拥有 39k+ GitHub 星标,表明其在开源社区中的认可度和活跃度较高。

Deep Analysis

Key Differentiator

YC-backed RAG framework that trades flexibility for speed-to-production — 5 lines of code to a working knowledge assistant, with YAML-configurable workflows and built-in reranking, vs LangChain's component-by-component assembly

Capabilities

  • Opinionated RAG framework (quivr-core Python package)
  • Multi-LLM support (OpenAI, Anthropic, Mistral, Gemma, Ollama)
  • Multi-format document ingestion (PDF, TXT, Markdown, custom parsers)
  • Customizable RAG workflows via YAML configuration
  • Cohere reranking integration
  • Megaparse integration for advanced file parsing
  • Configurable retrieval with history filtering and query rewriting

🔗 Integrations

OpenAIAnthropicMistralOllamaCohereMegaparse

Best For

  • Building personal or team knowledge assistants quickly
  • Product teams wanting production-ready RAG with minimal configuration
  • Document Q&A applications with multi-format support

Not Ideal For

  • Complex multi-agent workflows requiring fine-grained control
  • Teams already invested in LangChain/LlamaIndex ecosystems

Languages

Python

Deployment

LocalSelf-hostedCloud (quivr.com)

Known Limitations

  • Opinionated design limits low-level RAG pipeline customization
  • Requires external LLM API keys or local Ollama setup
  • Smaller ecosystem compared to LangChain or LlamaIndex
  • Documentation primarily covers basic workflows

Pros

  • + 多LLM支持:兼容 OpenAI、Anthropic、Mistral 等主流模型,也支持本地模型部署,提供灵活的模型选择
  • + 开箱即用:5行代码即可创建 RAG 系统,内置文档解析和向量化处理,大幅降低实现门槛
  • + 高度可定制:支持自定义解析器、添加工具集成、互联网搜索等功能,适应不同业务需求

Cons

  • - 固化架构:「Opinionated」设计虽然简化使用,但可能限制高度定制化需求的实现灵活性
  • - 依赖外部服务:需要配置第三方 LLM API 密钥,增加了部署和维护的复杂性

Use Cases

  • 企业知识库构建:将内部文档、手册、FAQ 等资料构建成可查询的智能问答系统
  • 文档分析工具:为研究人员或内容创作者提供快速的文档检索和内容总结功能
  • AI助手集成:在现有应用中快速添加基于文档的 AI 问答功能,提升用户体验

Getting Started

1. 安装:pip install quivr-core 2. 配置:设置环境变量添加 LLM API 密钥(如 OPENAI_API_KEY) 3. 使用:创建 Brain 实例,加载文档文件,调用 ask() 方法开始问答

Compare quivr