elia

A snappy, keyboard-centric terminal user interface for interacting with large language models. Chat with ChatGPT, Claude, Llama 3, Phi 3, Mistral, Gemma and more.

open-sourceagent-frameworks
2.4k
Stars
+0
Stars/month
0
Releases (6m)

Star Growth

+1 (0.0%)
2.4k2.4k2.5kMar 27Apr 1

Overview

elia 是一个完全运行在终端中的 LLM 交互界面,专为键盘操作优化,提供高效、有趣的聊天体验。该工具支持与 ChatGPT、Claude、Gemini 等商业模型以及通过 ollama 或 LocalAI 运行的本地模型(如 Llama 3、Phi 3、Mistral、Gemma)进行对话。所有对话都存储在本地 SQLite 数据库中,确保数据隐私和离线访问能力。elia 提供两种交互模式:内联模式(在当前提示符下显示)和全屏模式,用户可以通过命令行参数灵活选择模型和配置。该工具支持丰富的自定义选项,包括多种主题、语法高亮、系统提示词配置等。对于重视终端工作流程的开发者和技术用户来说,elia 提供了一个轻量级但功能完整的 AI 助手解决方案,特别适合那些需要在编程环境中快速获取 AI 帮助的场景。

Deep Analysis

Key Differentiator

vs web-based chat UIs: keyboard-centric terminal interface with multi-provider support and local SQLite persistence — designed for developer efficiency without leaving the terminal

Capabilities

  • Keyboard-centric terminal UI for chatting with multiple LLM providers
  • Local SQLite storage for persistent conversation history
  • Multi-provider support: Claude, ChatGPT, Gemini, Groq, local models
  • Customizable themes and syntax highlighting
  • ChatGPT export import functionality
  • Inline mode for quick single-prompt queries

🔗 Integrations

OpenAIAnthropic ClaudeGoogle GeminiGroqOllamaLocalAI

Best For

  • Terminal-native LLM conversations with keyboard efficiency
  • Managing conversations across multiple providers in one interface
  • Local model experimentation via Ollama integration

Not Ideal For

  • Web-based or mobile chat interfaces
  • GUI-dependent workflows requiring mouse interaction
  • Teams needing shared conversation history

Languages

Python

Deployment

pipx install (CLI)local Ollama for self-hosted models

Known Limitations

  • Keybindings cannot be customized within the application
  • Terminal emulator limitations restrict some key combinations
  • Requires environment variables for proprietary model API access
  • Python 3.11 required

Pros

  • + 键盘导向设计,操作高效快捷,适合终端重度用户
  • + 本地 SQLite 数据库存储对话,保护隐私且支持离线查看历史记录
  • + 同时支持商业模型和本地模型,给用户灵活的选择

Cons

  • - 仅提供终端界面,不适合偏好图形界面的用户
  • - 使用本地模型需要额外安装和配置 ollama 或 LocalAI
  • - 访问商业模型需要配置相应的 API 密钥

Use Cases

  • 开发者在编程过程中需要快速咨询 AI 助手,无需离开终端环境
  • 注重数据隐私的用户,希望对话记录存储在本地而非云端
  • AI 模型研究者需要在同一界面中测试和比较不同的商业和开源模型

Getting Started

1. 使用 pipx 安装:pipx install --python 3.11 elia-chat;2. 配置环境变量(如 OPENAI_API_KEY、ANTHROPIC_API_KEY)或安装 ollama 并拉取本地模型;3. 在终端运行 elia 命令启动应用,或使用 elia -i "your question" 进行内联对话

Compare elia