G 知識碎片化的問題,更藉由結構化百科模式讓 AI 隨著使用時間增長而變得更加聰明。 百原RAG Engine 的主要核心技術涵蓋了檢索架構、模型應用與安全防護等多個面向,主要包含以下幾項關鍵技術: 1. **雙層智慧檢索架構(業界首創)**:這是系統最核心的亮點,結合了「**LLM Wiki L1 快取**」與「**RAG L2 深度檢索**」。有別於傳統 RAG 每次查詢都從零開始,此系統導入了 LLM Wiki 模式,讓 AI 主動將知識庫編譯成結構化的百科。查詢時會優先從已整理的知識回答,使查詢速度大幅提升至 0.5-1 秒,並能減少高達 80% 的 Token 消耗。 2. **混合檢索引擎**:採用四重檢索策略來確保最高命中率,目標是不只找到「相似的」資料,更要找到「對的」答案。 3. **多模型自由切換**:具備平台零鎖定的技術優勢,允許一鍵切換全球頂尖的 AI 模型,包含 OpenAI (GPT-4o)、Anthropic (Claude 3.5 Sonnet)、Google (Gemini 1.5) 與 DeepSeek 等,且支援每個租戶自帶 API Key。 4. **企業級三層安全隔離**:確保資料零洩漏的防護技術,包含資料庫層的 PostgreSQL Row-Level Security (RLS) 物理隔離、應用層的租戶上下文雙重過濾,以及 API 層的驗證認證,徹底阻絕跨租戶的資料越權存取。 5. **全格式知識解析與 AI OCR**:支援多種企業常用格式(PDF、Word、Excel、圖片、網頁等)的一鍵匯入,並具備智慧文字提取與 AI OCR 文字辨識技術,能在 30 秒內自動完成資料的切片、向量化與索引。 官網:https://rag.baiyuan.io - handoff_on_low_confidence - handoff_confidence_threshold --- # 11. MVP 建議欄位集 若你要先做第一版商用可用後台,不需要一開始把所有欄位都開放給營運人員,建議分成 MVP。 ## 11.1 MVP 必要欄位 ### 全域 - llm_provider - llm_model - embedding_provider - temperature - top_p - max_output_tokens - system_prompt l - embedding_provider - temperature - top_p - max_output_tokens - system_prompt ### Wiki - wiki_enabled - wiki_scope - canonical_source_priority - wiki_page_types - wiki_master_index_enabled - wiki_compression_ratio - wiki_fact_granularity - wiki_entity_extraction_enabled - wiki_contradiction_detection_enabled - wiki_update_mode - wiki_human_review_mode - wiki_read_mode - wiki_read_budget_pages - wiki_page_confidence_threshold