txtai:一体化的 AI 框架,用于 RAG 和代理
txtai:革新语义搜索和 LLM 工作流的一体化 AI 框架
什么是 txtai?
txtai 是一个生产就绪的开源 AI 框架,将语义搜索、LLM 编排、自主代理和语言模型工作流统一到一个强大的平台中。拥有 12.4k GitHub 星标和活跃开发,它是构建智能应用的最佳解决方案。
基于 Python 3.10+、Hugging Face Transformers、Sentence Transformers 和 FastAPI 构建,txtai 提供:
- 🔎 向量搜索 支持 SQL、图网络和多模态索引
- 📄 嵌入 支持文本、音频、图像和视频
- 💡 管道 支持 LLM 提示、问答、摘要和转录
- 🤖 自主代理 基于 smolagents 框架
- ⚙️ Web API 支持 JavaScript、Java、Rust、Go 绑定
主要功能与用例
1. 语义搜索与向量数据库
import txtai
embeddings = txtai.Embeddings()
embeddings.index(["Correct", "Not what we hoped"])
results = embeddings.search("positive", 1)
print(results) # [(0, 0.29862046241760254)]
使用 SQL 查询和图分析创建跨文档、图像和多模态数据的相似性搜索。
2. 检索增强生成 (RAG)
通过将知识库与 LLM 结合,构建无幻觉的 LLM 应用。txtai 支持: - 经典 RAG 使用向量搜索 - GraphRAG 使用知识图谱 - 多源检索 (Web、SQL、API) - 语音到语音 RAG 工作流
3. 自主 AI 代理
txtai 代理连接嵌入、管道和工作流,自主解决复杂问题。支持所有主要 LLM,包括 Hugging Face、llama.cpp、OpenAI 和 Claude。
4. 语言模型工作流
链式专用模型以实现最佳性能: - Whisper 用于转录 - DistilBART 用于摘要 - OPUS 模型用于翻译 - BLIP 用于图像描述
生产就绪部署
# 几秒钟安装
pip install txtai
# 运行 API 服务器
CONFIG=app.yml uvicorn "txtai.api:app"
# 通过 REST 查询
curl -X GET "http://localhost:8000/search?query=positive"
从本地开发扩展到容器编排,支持 Docker 和云部署选项。
真实世界应用
- rag:生产 RAG 应用
- ncoder:开源 AI 编码代理
- paperai:医疗/科学论文 AI
- annotateai:LLM 驱动的论文标注
快速上手
- 安装:
pip install txtai - 探索 70+ Colab 笔记本,涵盖所有功能
- 推荐模型:
- 嵌入:
all-MiniLM-L6-v2 - LLM:
gpt-oss-20b - 转录:
Whisper
为什么选择 txtai?
✅ 几分钟启动 - 无需复杂设置 ✅ 本地优先 - 数据隐私 ✅ 开箱即用 - 70+ 示例 ✅ 可扩展 - 从微服务到企业级 ✅ Apache 2.0 - 商业友好
加入 12.4k+ 开发者,使用 txtai 构建 AI 未来。查看 GitHub 仓库,立即开始构建!
⭐ 在 GitHub 上为 txtai 加星,并加入 Slack 社区 获取支持和更新。
原始文章:
查看原文