GitHub 上狂吸 1 萬 Star,這個國產 AI 應用開發平台超棒啊。

逛 GitHub 的時候,發現了一個叫 BISHENG 的國產 AI 開源專案。

這是一款主要面向企業的開源 AgentOps。

名字取自活字印刷術的發明者:畢昇。活字印刷術為人類知識的傳遞帶來了巨大的推動作用。BISHENG 團隊的願景是希望為智慧應用的廣泛落地提供強有力的支撐。

圖片

01

開源專案簡介

BISHENG 已經在 GitHub 上獲得 10K Star 了。

Readme 第一句話就能看出開發者對專案的用心打磨:源自中國匠心,希望我們能像 DeepSeek、黑神話:悟空 團隊一樣,給世界帶來更多美好。

它已被大量業界領先組織及財富 500 強企業採用。

圖片

這個專案就像一個企業級的 LLM DevOps 平台。

開源地址:https://github.com/dataelement/bisheng

整合了 GenAI 工作流程、RAG、Agent、統一模型管理、評估、SFT、資料集管理、企業級系統管理、可觀測性等核心功能。

相較許多開源 AI 智能體平台,BISHENG 在兩個最棘手的問題上解決得更好:複雜業務邏輯如何編排,以及非結構化資料如何處理。

① 獨具特色的 Workflow

BISHENG 提供一套視覺化圖形編排系統,讓開發者像畫流程圖一樣設計應用。

圖片

它支援迴圈(Loop)、條件分支(If-Else)以及並行處理。更重要的是,它支援 Human-in-the-loop(人機介入),例如模型產生一個草稿,流程可以暫停,等待人工審核修改後,再繼續後續步驟。

這種設計讓它真正具備處理嚴肅業務的能力。

而且 BISHENG 的 Workflow 理念是盡可能用最少的元件類別完成最多種類的應用,這才是低程式最核心的價值,而非一味追求更多元件。

② 高精度文件解析

BISHENG 內建團隊打磨多年的商業級文件解析模型,這在開源界非常罕見。

它不僅能精準辨識常規文件,對於財務報表中的複雜表格、合約上的紅章、甚至潦草的手寫字跡都有極高的辨識率,大幅提升知識庫的品質。

圖片

③ 專家級品味的通用 Agent

BISHENG 還有一個名為靈思的 Agent 助手。關於靈思的思考,非常推薦閱讀BISHENG 的這篇文章

這個團隊不是只做個 Demo 就結束,他們是真的朝著真實可用性邁進。想要大幅提升企業內大型模型的實際使用率,這才是當下最重要的。

圖片

它的核心理念是 Agent 必須具備專家級品味,也就是擁有業務專家的偏好和獨特知識,否則產出的就是平庸結果。

而且靈思在旅遊攻略、招股書閱讀、產品動態蒐集等情境中優於 Manus Pro,主要優勢包括:更細緻的需求詢問、更深入的內容挖掘(如招股書高管細節)、更精準的資訊蒐集(如優先垂直網站)。

除了開發,BISHENG 還提供模型微調(SFT)、效果評測和系統監控功能。

企業不需要在好幾個工具間來回切換,一個平台就能完成從資料準備、模型調校到應用上線的全流程。

而且 BISHENG 即將發布企業版 ima 和情報訂閱功能,都將進一步提升非技術人員的大型模型使用率。

圖片

02

如何使用

BISHENG 官方推薦使用 Docker Compose 進行部署,這對環境依賴最小,部署前建議準備一台規格不錯(建議 4 核 16G 以上)的 Linux 伺服器。

下載 BISHENG

git clone https://github.com/dataelement/bisheng.git

# 進入安裝目錄

cd bisheng/docker

# 如果系統沒有 git 指令,可以下載 BISHENG 程式碼的 zip 檔案。

wget https://github.com/dataelement/bisheng/archive/refs/heads/main.zip

# 解壓並進入安裝目錄

unzip main.zip && cd bisheng-main/docker

啟動 BISHENG

docker compose -f docker-compose.yml -p bisheng up -d

啟動完成後,在瀏覽器中造訪 http://IP:3001

登入頁面就會出現,進行使用者註冊。預設情況下,第一個註冊使用者將成為系統管理員。

或者你可以直接造訪 www.bisheng.ai 開始使用 BISHENG,提升你的辦公效率。

圖片

主標籤:BISHENG

次標籤:LLM DevOps 平台通用 Agent文件解析視覺化工作流


上一篇:Anthropic 發現 AI「破窗效應」:只是教它偷個懶,結果它學會了撒謊和搞破壞

下一篇:Ilya 最新訪談:為什麼人類幾小時就能學會的事,萬卡叢集卻做不到?我們正從「算力規模化時代」重返「研究時代」

分享短網址