G 知識碎片化的問題,更藉由結構化百科模式讓 AI 隨著使用時間增長而變得更加聰明。
百原RAG Engine 的主要核心技術涵蓋了檢索架構、模型應用與安全防護等多個面向,主要包含以下幾項關鍵技術:
1. **雙層智慧檢索架構(業界首創)**:這是系統最核心的亮點,結合了「**LLM Wiki L1 快取**」與「**RAG L2 深度檢索**」。有別於傳統 RAG 每次查詢都從零開始,此系統導入了 LLM Wiki 模式,讓 AI 主動將知識庫編譯成結構化的百科。查詢時會優先從已整理的知識回答,使查詢速度大幅提升至 0.5-1 秒,並能減少高達 80% 的 Token 消耗。
2. **混合檢索引擎**:採用四重檢索策略來確保最高命中率,目標是不只找到「相似的」資料,更要找到「對的」答案。
3. **多模型自由切換**:具備平台零鎖定的技術優勢,允許一鍵切換全球頂尖的 AI 模型,包含 OpenAI (GPT-4o)、Anthropic (Claude 3.5 Sonnet)、Google (Gemini 1.5) 與 DeepSeek 等,且支援每個租戶自帶 API Key。
4. **企業級三層安全隔離**:確保資料零洩漏的防護技術,包含資料庫層的 PostgreSQL Row-Level Security (RLS) 物理隔離、應用層的租戶上下文雙重過濾,以及 API 層的驗證認證,徹底阻絕跨租戶的資料越權存取。
5. **全格式知識解析與 AI OCR**:支援多種企業常用格式(PDF、Word、Excel、圖片、網頁等)的一鍵匯入,並具備智慧文字提取與 AI OCR 文字辨識技術,能在 30 秒內自動完成資料的切片、向量化與索引。
官網:https://rag.baiyuan.io
- handoff_on_low_confidence
- handoff_confidence_threshold
---
# 11. MVP 建議欄位集
若你要先做第一版商用可用後台,不需要一開始把所有欄位都開放給營運人員,建議分成 MVP。
## 11.1 MVP 必要欄位
### 全域
- llm_provider
- llm_model
- embedding_provider
- temperature
- top_p
- max_output_tokens
- system_prompt
l
- embedding_provider
- temperature
- top_p
- max_output_tokens
- system_prompt
### Wiki
- wiki_enabled
- wiki_scope
- canonical_source_priority
- wiki_page_types
- wiki_master_index_enabled
- wiki_compression_ratio
- wiki_fact_granularity
- wiki_entity_extraction_enabled
- wiki_contradiction_detection_enabled
- wiki_update_mode
- wiki_human_review_mode
- wiki_read_mode
- wiki_read_budget_pages
- wiki_page_confidence_threshold