txtai:一体化的 AI 框架,用于 RAG 和代理

txtai:革新语义搜索和 LLM 工作流的一体化 AI 框架

什么是 txtai?

txtai 是一个生产就绪的开源 AI 框架,将语义搜索、LLM 编排、自主代理和语言模型工作流统一到一个强大的平台中。拥有 12.4k GitHub 星标和活跃开发,它是构建智能应用的最佳解决方案。

基于 Python 3.10+、Hugging Face Transformers、Sentence Transformers 和 FastAPI 构建,txtai 提供:

  • 🔎 向量搜索 支持 SQL、图网络和多模态索引
  • 📄 嵌入 支持文本、音频、图像和视频
  • 💡 管道 支持 LLM 提示、问答、摘要和转录
  • 🤖 自主代理 基于 smolagents 框架
  • ⚙️ Web API 支持 JavaScript、Java、Rust、Go 绑定

主要功能与用例

1. 语义搜索与向量数据库

import txtai

embeddings = txtai.Embeddings()
embeddings.index(["Correct", "Not what we hoped"])
results = embeddings.search("positive", 1)
print(results)  # [(0, 0.29862046241760254)]

使用 SQL 查询和图分析创建跨文档、图像和多模态数据的相似性搜索。

2. 检索增强生成 (RAG)

通过将知识库与 LLM 结合,构建无幻觉的 LLM 应用。txtai 支持: - 经典 RAG 使用向量搜索 - GraphRAG 使用知识图谱 - 多源检索 (Web、SQL、API) - 语音到语音 RAG 工作流

3. 自主 AI 代理

txtai 代理连接嵌入、管道和工作流,自主解决复杂问题。支持所有主要 LLM,包括 Hugging Face、llama.cpp、OpenAI 和 Claude。

4. 语言模型工作流

链式专用模型以实现最佳性能: - Whisper 用于转录 - DistilBART 用于摘要 - OPUS 模型用于翻译 - BLIP 用于图像描述

生产就绪部署

# 几秒钟安装
pip install txtai

# 运行 API 服务器
CONFIG=app.yml uvicorn "txtai.api:app"

# 通过 REST 查询
curl -X GET "http://localhost:8000/search?query=positive"

从本地开发扩展到容器编排,支持 Docker 和云部署选项。

真实世界应用

  • rag:生产 RAG 应用
  • ncoder:开源 AI 编码代理
  • paperai:医疗/科学论文 AI
  • annotateai:LLM 驱动的论文标注

快速上手

  1. 安装pip install txtai
  2. 探索 70+ Colab 笔记本,涵盖所有功能
  3. 推荐模型
  4. 嵌入:all-MiniLM-L6-v2
  5. LLM:gpt-oss-20b
  6. 转录:Whisper

为什么选择 txtai?

几分钟启动 - 无需复杂设置 ✅ 本地优先 - 数据隐私 ✅ 开箱即用 - 70+ 示例 ✅ 可扩展 - 从微服务到企业级 ✅ Apache 2.0 - 商业友好

加入 12.4k+ 开发者,使用 txtai 构建 AI 未来。查看 GitHub 仓库,立即开始构建!


⭐ 在 GitHub 上为 txtai 加星,并加入 Slack 社区 获取支持和更新。

原始文章: 查看原文

分享这篇文章