Konnect-linK株式會社正式推出支援封閉・本地環境的LLM/AI代理建構解決方案

Konnect-linK株式會社正式推出支援封閉・本地環境的LLM/AI代理建構解決方案,以應對金融、製造、醫療等處理機密資訊行業中加速增長的本地LLM需求。該解決方案提供從策略制定到基礎設施建構和營運改進的一站式支援。
企業向けシステム・通信・機器,金融,製造,医療NQ 97/100出典:prnews

📋 文章處理履歷

  • 📰 發表: 2026年4月1日 19:00
Konnect-linK株式會社正式推出支援封閉・本地環境的LLM/AI代理建構解決方案

隨著企業生成式AI應用範圍的擴大,AI治理和應對安全風險的重要性日益提高,Konnect-linK株式會社(總部:東京都千代田區,代表董事:薦田賢人,以下簡稱「本公司」)已正式推出支援封閉・本地環境的LLM(大型語言模型)/AI代理建構解決方案

本解決方案是本公司一年多以來在內部進行研究開發,並向包括主板上市企業在內的客戶提供的封閉・本地環境下LLM/AI代理建構的知識和技術的系統化成果。它能夠在不將機密數據傳輸到公司網路外部的情況下,建構生成式AI應用環境,並提供從AI策略制定、基礎設施設計與建構、業務實施到營運改進的一站式支援。藉此,我們將為金融、製造、醫療等對資訊安全標準要求嚴格的行業企業提供一個可以安心推進AI應用的環境。

隨著LLM的興起,回歸本地部署

1. 背景:生成式AI資訊洩露風險的顯現

生成式AI在大幅提升企業生產力的同時,近年來其應用所伴隨的資訊洩露風險已成為嚴峻的經營課題。

(1) AI治理缺失導致的「影子AI」風險

許多企業在生成式AI的業務應用方面,缺乏明確的規則和治理體系,導致員工或業務委託人員等業務執行者根據個人判斷使用雲端AI工具的情況屢見不鮮。

根據IBM的「2025年數據洩露成本報告」,未經企業批准使用的「影子AI」導致的數據洩露在所有受訪企業中佔20% ※1。

(2) 雲端AI應用帶來的結構性風險

雲端生成式AI服務在用戶輸入數據傳輸到外部伺服器時,可能產生各種安全風險(如機密資訊被用於訓練數據/資訊洩露風險等)。

事實上,Assured公司對1000名以上員工的大型企業資訊系統部門的300名員工進行的調查顯示,超過一半(58.5%)使用SaaS的企業曾經歷過由AI或應用AI的SaaS引起的資訊洩露等安全事件 ※2。

此外,Gartner Japan的調查預測,2026年以後,企業所有安全事故中有一半將由搭載AI的應用程式引起 ※3。

(3) 隨著AI代理應用進展帶來的權限管理風險

許多企業認識到LLM的實用性,近年來,為了實現更高級的業務效率化和自動化,AI代理的導入和評估也在推進中。相較於回應用戶明確指令的傳統LLM應用,AI代理預計將在連接多個工具、業務系統和內部數據的同時,自主或半自主地處理任務,因此在提高便利性的同時,也伴隨著更容易被賦予廣泛權限的結構性風險

結果,如果發生設定不當、權限設計不合理或透過外部數據混入非預期指令等情況,對機密資訊、內部數據和核心系統的影響可能比單獨使用傳統LLM時更大。因此,在應用AI代理時,比LLM更需要面對更強大的AI治理,包括嚴格的權限管理、審計和批准流程。

(4) 監管強化導致各行業加速本地化

在這些風險顯現的背景下,特別是處理高度機密資訊的金融、製造、醫療行業將數據保留在公司內部環境中應用AI的本地LLM正在迅速普及。

本公司基於這種市場環境的變化,正式推出支援封閉・本地環境的LLM建構解決方案。

2. 解決方案概述:本地LLM/AI代理建構解決方案

本公司的本地LLM/AI代理建構解決方案,將一站式支援企業在封閉環境下應用生成式AI所需的所有階段,從AI策略制定到基礎設施建構、業務實施、營運與改進。

※本服務已於一年多前開始研究開發,並已向包括金融機構在內的主板上市企業提供服務。

〇主要服務項目

●AI策略・構想制定:業務課題整理、AI應用路線圖制定、投資效益估算、支援高層AI策略制定

●AI治理設計:AI應用政策制定、影子AI對策、風險評估框架建構、防護欄設計(輸出驗證・提示詞注入對策等)、AI代理應用時的權限管理・統制設計

●本地LLM基礎設施建構:封閉・本地環境下的GPU伺服器設計・建構、LLM模型選擇・導入、透過量化進行模型優化、RAG(檢索增強生成)環境建構、API設計・業務系統整合

●業務實施(社會實施):AI整合到業務流程、用戶導線設計、業務穩定化支援、應用MCP(Model Context Protocol)・A2A(Agent-to-Agent Protocol)等實現下一代AI整合

●營運・改進:模型精度的持續監控、評估設計(基準・驗證程序)標準化、微調支援、營運成本優化

●安全・安全性驗證:漏洞診斷、數據存取控制設計、提示詞注入耐性測試、合規性驗證、AI代理應用時的存取控制・外部連結風險驗證

實施模型範例(以公開模型為中心的部分範例)
・Qwen3-Next-80B-A3B-Thinking
・gpt-oss-120b
・Llama-3.1-Nemotron-Ultra-253B-v1

※以上為範例,實際將根據客戶需求、使用環境、授權條件等選擇最佳模型。

3. 本公司優勢

(1)從基礎技術到AI策略制定/業務評估/系統開發的一站式支援

本公司以策略制定和業務開發為強項,在封閉・本地環境下導入LLM時,除了基礎技術的整備外,還能一站式應對AI策略制定、業務評估和系統開發。我們不僅限於技術導入,還著眼於業務營運的整合和持續改進,並具備可讓客戶根據其課題和目標選擇所需領域的體制。

(2)包括封閉・本地環境在內的AI基礎設施建構實績

本公司傳統上一直為包括主板上市企業在內的客戶,在與網際網路隔離的封閉環境或本地環境中建構AI基礎設施。我們將透過為安全要求嚴格的大型企業導入所累積的經驗和技術整合到本解決方案中。

4. 預計導入對象公司/組織

本解決方案主要針對具有以下課題或需求的企業・組織:

・生成式AI導入已先行,希望全面建立安全和AI治理體系的企業。

・隨著AI應用的擴大,希望推進內部規則和統制體系整備・高度化的企業。

・金融、製造、醫療、政府機關等,對資訊安全水準要求嚴格的組織。

・因處理機密資訊・個人資訊,要求在封閉・本地環境下應用AI的企業。

・考慮導入AI代理,希望建立包括權限管理和內部統制在內的安全實施基礎設施的企業。

・希望從概念驗證(PoC)和試驗導入進一步發展,建立面向全公司推廣的營運體系的企業。

・希望推進受控的生成式AI應用,包括針對影子AI的對策的企業。

5. 代表評論

Konnect-linK株式會社 代表董事CEO 薦田賢人

「生成式AI是決定未來企業競爭力的極其重要的技術。然而,在其便利性的背後,也存在著可能影響企業活動根本的重大風險。將機密數據輸入雲端AI導致的資訊洩露,以及在缺乏足夠治理的情況下使用影子AI,已不再是少數企業的問題,我們認為這是所有企業都必須立即面對的經營課題。此外,隨著AI代理應用的進展,權限管理和內部統制的樣貌預計將變得更加複雜。本公司將繼續提供從本地LLM建構到業務整合、營運改進的一站式支援,為客戶實現安全且持續創造效益的AI應用環境做出貢獻。

6. 公司簡介

Konnect-linK標誌

・Konnect-linK株式會社

 地址:東京都千代田區外神田5-2-1 外神田S大樓5樓

 代表者:代表董事 薦田賢人

 設立:2022年5月

 業務內容:新事業開發、AI/IT領域支援、系統開發、經營支援

 網址:https://konnect-link.co.jp/

 聯絡方式:[email protected]

出處等

※1 2025年數據洩露成本報告 (IBM)

常見問題

此解決方案適用於哪些類型的公司?

適用於金融、製造、醫療、政府機構等需要高資訊安全標準並處理機密或個人資訊的公司。

什麼是「影子AI」?

影子AI是指員工未經公司批准,自行使用的雲端AI工具,可能導致資訊洩露風險。

本地LLM有什麼好處?

本地LLM允許公司在不將敏感數據傳輸到內部網路外部的情況下利用生成式AI,從而顯著降低資訊洩露風險並建立嚴格的AI治理。