LLMStack
No-code multi-agent framework to build LLM Agents, workflows and applications with your data
2.3k
Stars
+-8
Stars/month
0
Releases (6m)
Star Growth
Overview
LLMStack是一个无代码平台,用于构建生成式AI智能体、工作流程和聊天机器人,可以将它们连接到您的数据和业务流程中。该工具允许用户通过链接多个大语言模型来创建定制化的AI应用程序,无需任何编程经验。LLMStack支持与各种AI提供商的集成,包括OpenAI、Cohere、Stability等,并可以连接用户自己的数据源和内部工具。该平台提供灵活的部署选项,既可以使用云端服务Promptly,也可以在本地或私有基础设施上部署。LLMStack特别适合企业用户,支持从Slack或Discord触发AI链,并提供Web界面进行可视化配置。平台采用Docker容器化技术处理后台任务,确保稳定性和可扩展性。凭借2298个GitHub星标,LLMStack在AI工具生态系统中占据重要地位,为非技术用户提供了构建复杂AI解决方案的能力。
Deep Analysis
Key Differentiator
vs Flowise / Dify: no-code AI platform with multi-tenant support, built-in vector DB, and Slack/Discord integration — deploy AI agents from Google Drive/Notion data without writing code
⚡ Capabilities
- • No-code platform for building AI agents, workflows, and chatbots
- • Chain multiple LLMs together in visual pipelines
- • Data import from various sources (Google Drive, Notion, websites, uploads)
- • Multi-format data processing (CSV, TXT, PDF, DOCX, PPTX)
- • Built-in vector database for document embeddings
- • API access, Slack and Discord bot integration
- • Multi-tenant organization management
- • Cloud and on-premise deployment options
🔗 Integrations
OpenAICohereStability AISlackDiscordGoogle DriveNotion
✓ Best For
- ✓ Non-developers wanting to build AI agents and chatbots without coding
- ✓ Teams needing multi-LLM chain workflows with data integration
- ✓ Organizations wanting self-hosted AI platforms with multi-tenant support
✗ Not Ideal For
- ✗ Developers wanting fine-grained programmatic control
- ✗ Simple single-model chat applications
- ✗ Teams needing only cloud-based solutions (requires self-hosting for full control)
Languages
Python (backend)
Deployment
pip install llmstackDockerPromptly cloud
⚠ Known Limitations
- ⚠ Docker required for background job processing
- ⚠ Windows requires WSL2
- ⚠ Default credentials need immediate changing (admin/promptly)
- ⚠ Advanced features may require Promptly cloud subscription
Pros
- + 无代码可视化构建界面,非技术用户可以轻松创建复杂的AI工作流程和智能体
- + 支持多种AI提供商和模型链接,可以根据不同需求组合使用最适合的模型
- + 提供灵活的部署选项,既有云端托管服务,也支持本地和私有云部署
Cons
- - 需要Docker环境支持后台作业,增加了技术部署复杂性
- - 默认管理员凭据需要手动更改,存在潜在的安全风险
- - 复杂工作流程的构建仍需要一定的AI和业务逻辑理解
Use Cases
- • 构建连接企业内部数据的客户服务聊天机器人,自动回答常见问题并处理客户请求
- • 创建跨部门的业务流程自动化,通过AI智能体处理文档分析、数据提取和决策支持
- • 建立从Slack或Discord触发的内部AI助手,帮助团队进行项目管理和信息检索
Getting Started
1. 安装Docker并运行pip install llmstack命令;2. 执行llmstack命令启动平台,访问localhost:3000;3. 使用admin/promptly登录,在Settings页面配置AI提供商密钥,然后创建第一个AI工作流程