AI 问答
基于本地 RAG(检索增强生成),让 AI 用你自己积累的知识库回答你的问题。
特点
- 隐私优先:笔记内容只发给你配置的 API,不经过任何第三方中转
- API 兼容:支持所有 OpenAI 格式的服务(DeepSeek、Moonshot、Ollama、Groq、Azure、OpenRouter…)
- 引用来源:每段回答都附带引用的笔记来源,可点击跳转验证
- 上下文对话:多轮对话,AI 记得聊到哪里
- 流式输出:像 ChatGPT 一样边生成边显示
快速开始
1. 配置 API
设置 → AI 模型 → 填入:
| 字段 | 值示例 | 说明 |
|---|---|---|
| API Base URL | https://api.openai.com/v1 | OpenAI 官方 |
https://api.deepseek.com/v1 | DeepSeek | |
https://api.moonshot.cn/v1 | Moonshot | |
http://localhost:11434/v1 | 本地 Ollama | |
| API Key | sk-... | 你的密钥 |
| Model | gpt-4o-mini / deepseek-chat / ... | 模型名 |
保存后 → 点击"测试连接"→ 成功即可用。
2. 开始问答
- 侧边栏 → AI 问答 图标
- 或快捷键
Ctrl+J/Cmd+J
输入问题,AI 会:
- 把问题向量化
- 在你的笔记库中检索最相关的 5-10 条
- 把问题 + 检索结果一起发给 LLM
- 返回带引用的回答
示例
你问:
我之前学 Rust 的时候记过什么关于生命周期的笔记?AI 答(带引用):
根据你的笔记,Rust 生命周期有以下要点:
1. 生命周期用来标注引用的有效期 [1]
2. 常见的 'a、'static 是生命周期参数 [2]
3. 你在 2026-03-15 发现一个细节:编译器的生命周期省略规则
只适用于 3 种常见情况 [3]
📚 引用来源:
[1] Rust 所有权 · 2026-02-20
[2] Rust 生命周期 · 2026-03-10
[3] 每日笔记 2026-03-15 · 2026-03-15点击引用链接跳转对应笔记。
向量索引
首次启用 AI 问答时,应用会自动对已有笔记构建向量索引:
- 用
text-embedding-3-small或你指定的 embedding 模型 - 向量存储在本地 SQLite(
vectors表) - 笔记新建 / 修改时增量更新索引,无需手动重建
- 1 万笔记索引用时约 2-5 分钟(取决于 API 速度)
成本估算
使用 OpenAI text-embedding-3-small(每百万 token $0.02):
- 10 万笔记约 2000 万 token → 约 $0.4
- 之后只有新 / 改的笔记产生嵌入成本,几乎可忽略
聊天模式
除了基于 RAG 的问答,还支持纯聊天模式(不检索笔记):
- 在输入框前加
@general - 或切换到 "通用聊天" 标签
工具调用(规划中)
未来版本将支持:
- AI 直接新建 / 修改笔记
- AI 帮你整理标签
- AI 提供"相似笔记"推荐
- 自动摘要长笔记
隐私说明
- 所有笔记内容只发给你配置的 API 服务
- 如使用本地模型(Ollama 等),完全离线
- Knowledge Base 本身不记录任何聊天历史到服务端(只存本地 SQLite)
- 可以随时在 设置 → AI 模型 → 清空聊天历史 删除所有记录
推荐配置
| 需求 | 推荐服务 | 成本 |
|---|---|---|
| 最便宜 | DeepSeek deepseek-chat | ~$0.27/百万 token |
| 最快 | Groq llama-3.1-70b-versatile | 免费额度可用 |
| 最聪明 | OpenAI gpt-4o / Claude claude-3-5-sonnet | ~$3/百万 token |
| 完全本地 | Ollama + qwen2.5:14b | 免费(需要本地 GPU) |