elia
A snappy, keyboard-centric terminal user interface for interacting with large language models. Chat with ChatGPT, Claude, Llama 3, Phi 3, Mistral, Gemma and more.
open-sourceagent-frameworks
2.4k
Stars
+0
Stars/month
0
Releases (6m)
Star Growth
+1 (0.0%)
Overview
elia 是一个完全运行在终端中的 LLM 交互界面,专为键盘操作优化,提供高效、有趣的聊天体验。该工具支持与 ChatGPT、Claude、Gemini 等商业模型以及通过 ollama 或 LocalAI 运行的本地模型(如 Llama 3、Phi 3、Mistral、Gemma)进行对话。所有对话都存储在本地 SQLite 数据库中,确保数据隐私和离线访问能力。elia 提供两种交互模式:内联模式(在当前提示符下显示)和全屏模式,用户可以通过命令行参数灵活选择模型和配置。该工具支持丰富的自定义选项,包括多种主题、语法高亮、系统提示词配置等。对于重视终端工作流程的开发者和技术用户来说,elia 提供了一个轻量级但功能完整的 AI 助手解决方案,特别适合那些需要在编程环境中快速获取 AI 帮助的场景。
Deep Analysis
Key Differentiator
vs web-based chat UIs: keyboard-centric terminal interface with multi-provider support and local SQLite persistence — designed for developer efficiency without leaving the terminal
⚡ Capabilities
- • Keyboard-centric terminal UI for chatting with multiple LLM providers
- • Local SQLite storage for persistent conversation history
- • Multi-provider support: Claude, ChatGPT, Gemini, Groq, local models
- • Customizable themes and syntax highlighting
- • ChatGPT export import functionality
- • Inline mode for quick single-prompt queries
🔗 Integrations
OpenAIAnthropic ClaudeGoogle GeminiGroqOllamaLocalAI
✓ Best For
- ✓ Terminal-native LLM conversations with keyboard efficiency
- ✓ Managing conversations across multiple providers in one interface
- ✓ Local model experimentation via Ollama integration
✗ Not Ideal For
- ✗ Web-based or mobile chat interfaces
- ✗ GUI-dependent workflows requiring mouse interaction
- ✗ Teams needing shared conversation history
Languages
Python
Deployment
pipx install (CLI)local Ollama for self-hosted models
⚠ Known Limitations
- ⚠ Keybindings cannot be customized within the application
- ⚠ Terminal emulator limitations restrict some key combinations
- ⚠ Requires environment variables for proprietary model API access
- ⚠ Python 3.11 required
Pros
- + 键盘导向设计,操作高效快捷,适合终端重度用户
- + 本地 SQLite 数据库存储对话,保护隐私且支持离线查看历史记录
- + 同时支持商业模型和本地模型,给用户灵活的选择
Cons
- - 仅提供终端界面,不适合偏好图形界面的用户
- - 使用本地模型需要额外安装和配置 ollama 或 LocalAI
- - 访问商业模型需要配置相应的 API 密钥
Use Cases
- • 开发者在编程过程中需要快速咨询 AI 助手,无需离开终端环境
- • 注重数据隐私的用户,希望对话记录存储在本地而非云端
- • AI 模型研究者需要在同一界面中测试和比较不同的商业和开源模型
Getting Started
1. 使用 pipx 安装:pipx install --python 3.11 elia-chat;2. 配置环境变量(如 OPENAI_API_KEY、ANTHROPIC_API_KEY)或安装 ollama 并拉取本地模型;3. 在终端运行 elia 命令启动应用,或使用 elia -i "your question" 进行内联对话