minima

On-premises conversational RAG with configurable containers

Visit WebsiteView on GitHub
1.0k
Stars
+87
Stars/month
0
Releases (6m)

Overview

Minima是一个开源的本地部署RAG(检索增强生成)系统,通过容器化部署提供灵活的文档问答能力。该工具支持四种不同的部署模式:完全本地化部署(使用Ollama)、自定义LLM集成(OpenAI兼容API)、ChatGPT集成以及Anthropic Claude集成。Minima的核心优势在于数据安全性和部署灵活性,用户可以选择完全离线运行以确保数据隐私,也可以结合云端LLM服务获得更强的推理能力。系统包含完整的RAG流水线,支持文档索引、向量检索、重排序和生成等功能。通过Docker容器化部署,Minima简化了复杂的依赖管理和环境配置问题。该工具特别适合企业级应用场景,在需要处理敏感文档同时又要保证查询质量的情况下,提供了理想的解决方案。其模块化设计允许用户根据具体需求选择合适的部署模式,从完全本地化到混合云部署都能很好支持。

Pros

  • + 数据隐私保护 - 支持完全本地部署,确保敏感文档不离开本地环境
  • + 部署模式灵活 - 提供4种不同部署模式,适应不同的技术栈和安全需求
  • + 容器化部署简单 - 通过Docker和一键脚本大幅简化安装和配置流程

Cons

  • - 资源需求较高 - 完全本地部署需要足够的计算资源运行多个神经网络模型
  • - 配置相对复杂 - 多种部署模式需要不同的环境变量和配置文件设置
  • - 依赖Docker环境 - 需要用户具备容器化部署的基础知识

Use Cases

Getting Started

1. 克隆项目并根据.env.sample创建.env配置文件,设置文档路径和模型参数;2. 运行./run.sh脚本,从4种部署模式中选择适合的方案;3. 等待容器启动完成后,开始上传文档并进行智能问答测试