create-t3-turbo-ai

Build full-stack, type-safe, LLM-powered apps with the T3 Stack, Turborepo, OpenAI, and Langchain

open-sourceagent-frameworks
Visit WebsiteView on GitHub
354
Stars
+30
Stars/month
0
Releases (6m)

Overview

create-t3-turbo-ai 是一个专门为构建 LLM 驱动应用而设计的全栈开发模板。它将 T3 Stack 的类型安全优势与现代 AI 技术栈深度集成,提供了完整的 monorepo 解决方案。该模板基于 Turborepo 进行项目管理,使用 tRPC 实现端到端类型安全的 API 层,Prisma 处理数据库操作,Next.js 13+ 构建现代化前端,同时集成了 OpenAI 和 Langchain 提供强大的 AI 功能。项目采用模块化架构,将认证、数据库、API 等核心功能拆分为独立的 packages,便于维护和扩展。虽然目前仍处于开发中,但已经为开发者提供了一个坚实的起点,特别适合需要快速构建具备 AI 能力的全栈应用的团队。该模板还包含了 VSCode 配置、CI/CD 流水线和部署配置,确保开发体验的完整性。

Pros

  • + 完整的类型安全链路:从数据库到前端的端到端 TypeScript 支持,大幅减少运行时错误和开发调试时间
  • + AI 优先的架构设计:原生集成 OpenAI 和 Langchain,为构建智能应用提供了最佳实践和工程化基础
  • + 成熟的 monorepo 管理:基于 Turborepo 的项目结构,支持多应用、共享代码包,适合企业级项目发展

Cons

  • - 项目仍处于 WIP 状态,许多关键功能尚未完成,生产环境使用需要谨慎评估
  • - 技术栈相对复杂,需要开发者对 T3 Stack、AI 工具链都有一定了解,学习曲线较陡峭

Use Cases

Getting Started

1. 克隆项目并安装依赖(pnpm i),配置数据库提供商(修改 schema.prisma 中的 provider);2. 复制 .env.example 为 .env,填入 OPENAI_API_KEY 和数据库连接信息,运行 pnpm db:push 初始化数据库;3. 启动开发服务器(pnpm dev),访问本地应用开始开发,参考文档集成 AI 功能到你的应用中