三路并行增强检索
Query 改写 + HyDE 假设文档 + 原始查询,三路并行策略显著提升召回精度,覆盖更多相关法规文档
LLM 将口语化问题改写为多个法律专业术语查询,从主体、行为、后果、责任等多角度检索
先生成「假设性法规回答」,再用假设答案检索,因为假设答案与真实法规语义更接近
对检索结果进行精细化重排序,确保最相关的法规条文排在最前面
答案包含摘要、国法依据、地法依据、建议,清晰明了,便于理解和执行
擅长推理,但易产生「幻觉」
通用大模型在法律场景下无法精准命中具体法条和公文条款,生成内容可能与实际法规存在偏差,难以满足政务工作对准确性的严格要求
缺乏地方公文训练数据
法律大模型主要基于国家级法律法规训练,对市级、区县级地方性公文、政策文件覆盖不足,无法有效解决基层政务场景的检索需求
上下文缺失,断章取义
传统 RAG 的固定切分方式容易破坏法条完整性,导致引用缺失、语义断裂,无法提供完整的法规原文溯源,影响答案的权威性和可信度
开创性地将文档按照检索结果最优分为四类,针对不同文档特征采用最佳切分策略
适用:职责分工清单
LLM 识别责任主体(公安局、环保局、街道...),按主体物理切割,防止搜「环保」召回「公安」内容
适用:长篇法律法规
按章→节→条逐级下钻,自动补全父级路径(如「xx法 > 第三章 > 第一节」),确保片段独立可读
适用:会议纪要、讲话稿
针对无结构长文,滑动窗口切分,保留 200 token 重叠确保语义连续
适用:短文档(<3000字)
短文档不切分,整篇入库,保持文档完整性
支持 MCP(Model Context Protocol)协议,LLM 自动判断是否需要调用外部工具,实现智能体能力扩展
对话内容一键导出为 Word 文档,支持多种公文格式模板
支持接入自定义 MCP 服务器,扩展更多工具能力
完整记录每次工具调用,便于追溯和审计
所有 Prompt 模板支持后台热配置,无需改代码即可调优,灵活适应不同场景需求
指导 LLM 提取法规核心要素:管理对象、量化指标、执行部门
生成高质量假设性法规答案,提升检索召回精度
多角度专业术语转换,从主体、行为、后果、责任等维度改写
结构化输出:摘要 + 国法依据 + 地法依据 + 建议
Few-Shot 示例指导生成正式公文,支持多种格式模板
每个回答附带法规原文引用,国法/地法分类清晰
法律法规、政策文件、会议纪要、职责清单统一入库
完整法规条文阅读,不丢失上下文