Skip to content

AI 问答

基于本地 RAG(检索增强生成),让 AI 用你自己积累的知识库回答你的问题。

特点

  • 隐私优先:笔记内容只发给你配置的 API,不经过任何第三方中转
  • API 兼容:支持所有 OpenAI 格式的服务(DeepSeek、Moonshot、Ollama、Groq、Azure、OpenRouter…)
  • 引用来源:每段回答都附带引用的笔记来源,可点击跳转验证
  • 上下文对话:多轮对话,AI 记得聊到哪里
  • 流式输出:像 ChatGPT 一样边生成边显示

快速开始

1. 配置 API

设置 → AI 模型 → 填入:

字段值示例说明
API Base URLhttps://api.openai.com/v1OpenAI 官方
https://api.deepseek.com/v1DeepSeek
https://api.moonshot.cn/v1Moonshot
http://localhost:11434/v1本地 Ollama
API Keysk-...你的密钥
Modelgpt-4o-mini / deepseek-chat / ...模型名

保存后 → 点击"测试连接"→ 成功即可用。

2. 开始问答

  • 侧边栏 → AI 问答 图标
  • 或快捷键 Ctrl+J / Cmd+J

输入问题,AI 会:

  1. 把问题向量化
  2. 在你的笔记库中检索最相关的 5-10 条
  3. 把问题 + 检索结果一起发给 LLM
  4. 返回带引用的回答

示例

你问

我之前学 Rust 的时候记过什么关于生命周期的笔记?

AI 答(带引用):

根据你的笔记,Rust 生命周期有以下要点:

1. 生命周期用来标注引用的有效期 [1]
2. 常见的 'a、'static 是生命周期参数 [2]
3. 你在 2026-03-15 发现一个细节:编译器的生命周期省略规则
   只适用于 3 种常见情况 [3]

📚 引用来源:
[1] Rust 所有权 · 2026-02-20
[2] Rust 生命周期 · 2026-03-10
[3] 每日笔记 2026-03-15 · 2026-03-15

点击引用链接跳转对应笔记。

向量索引

首次启用 AI 问答时,应用会自动对已有笔记构建向量索引

  • text-embedding-3-small 或你指定的 embedding 模型
  • 向量存储在本地 SQLite(vectors 表)
  • 笔记新建 / 修改时增量更新索引,无需手动重建
  • 1 万笔记索引用时约 2-5 分钟(取决于 API 速度)

成本估算

使用 OpenAI text-embedding-3-small(每百万 token $0.02):

  • 10 万笔记约 2000 万 token → 约 $0.4
  • 之后只有新 / 改的笔记产生嵌入成本,几乎可忽略

聊天模式

除了基于 RAG 的问答,还支持纯聊天模式(不检索笔记):

  • 在输入框前加 @general
  • 或切换到 "通用聊天" 标签

工具调用(规划中)

未来版本将支持:

  • AI 直接新建 / 修改笔记
  • AI 帮你整理标签
  • AI 提供"相似笔记"推荐
  • 自动摘要长笔记

隐私说明

  • 所有笔记内容只发给你配置的 API 服务
  • 如使用本地模型(Ollama 等),完全离线
  • Knowledge Base 本身不记录任何聊天历史到服务端(只存本地 SQLite)
  • 可以随时在 设置 → AI 模型 → 清空聊天历史 删除所有记录

推荐配置

需求推荐服务成本
最便宜DeepSeek deepseek-chat~$0.27/百万 token
最快Groq llama-3.1-70b-versatile免费额度可用
最聪明OpenAI gpt-4o / Claude claude-3-5-sonnet~$3/百万 token
完全本地Ollama + qwen2.5:14b免费(需要本地 GPU)

你的知识,你的电脑,你说了算