Appearance
产品特性
产品定位
新一代政务法规智能问答系统
面向法律政务场景深度优化的「长上下文 + 混合检索」智能引擎,专为精准溯源设计。
与普通 RAG 的区别
区别于传统 RAG 的「单路检索 + 固定切分 + 简单拒答」模式,本系统采用:
- 三路并行增强检索(Query 改写 + HyDE 假设文档 + 原始查询)
- 四策略自适应文档切分
- Small-to-Big「小搜大读」模式(摘要检索 + 原文阅读)
- 多 AI 节点协作流水线
- Few-Shot Prompt 热配置
- 置信度分级风控
专为法律政务精准溯源场景打造。
核心技术架构
三路并行增强检索
传统 RAG 只用用户原文检索,召回率有限。本系统采用三路并行策略:
| 策略 | 说明 |
|---|---|
| Query 改写 | LLM 将口语化问题改写为多个法律专业术语查询,从主体、行为、后果、责任等多角度检索 |
| HyDE 假设性文档嵌入 | 先让 LLM 生成「假设性法规回答」,再用这段假设答案去检索,显著提升召回精度 |
| 原始查询检索 | 保留用户原始意图,三路结果去重合并,取最高分 |
Small-to-Big「小搜大读」模式
- 搜索时:用 LLM 生成的精炼摘要(100-200字)进行向量检索
- 阅读时:返回完整原文,支持用户查看法规全文
多 AI 协作流水线
系统内置 6 个 AI 协作节点:
| 节点 | 职责 | 模型类型 |
|---|---|---|
| Query 改写 | 将口语转为法律术语 | LLM(DeepSeek V3) |
| HyDE 生成 | 生成假设性法规答案 | LLM(DeepSeek V3) |
| 摘要增强 | 为文档生成检索摘要 | LLM(DeepSeek V3) |
| 向量检索 | 语义相似度匹配 | Embedding(BAAI/bge-m3) |
| 重排序 | 精排 Top K 结果 | Rerank(BAAI/bge-reranker-v2-m3) |
| 答案生成 | 结构化法规解读 | LLM(DeepSeek V3) |
智能文档治理(ETL 四策略)
针对法律政务文档的复杂性,设计四种自适应切分策略:
策略 A - 主体责任语义切分
针对「职责分工清单」类公文,LLM 识别责任主体,按主体物理切割。
策略 B - 层级下钻切分
针对长篇法律法规,按章→节→条逐级下钻,自动补全父级路径。
策略 C - 滑窗切分
针对无结构长文,滑动窗口切分,保留 200 token 重叠确保语义连续。
策略 D - 整篇保留
短文档(<3000字)不切分,整篇入库。
置信度守门机制
- 高置信度:直接输出结构化答案
- 低置信度:输出答案 + 前置提示「以下内容相关性较低,仅供参考」
- 拒答记录:自动收集低分问题,形成知识库缺口分析报告
场景适配
- 法律政务精准溯源:每个回答附带法规原文引用,国法/地法分类清晰
- 多类型文档混合检索:法律法规、政策文件、会议纪要、职责清单统一入库
- 长上下文支持:完整法规条文阅读,不丢失上下文
技术栈
- 前端:Vue 3 + Vant 4(H5)/ Element Plus(Admin)+ Pinia + SSE
- 后端:Python 3.10+ + FastAPI(Async)
- 数据库:SQLite(业务数据)+ ChromaDB(向量索引)
- AI 适配:兼容 OpenAI SDK 协议,支持硅基流动 / 火山引擎 / DeepSeek 等多厂商热切换