在自家環境運行 AI 的「本地 LLM(Large Language Models)」正迅速受到關注。傳統的雲端 API 型態,面臨機密資訊洩漏風險、成本不透明性、網路延遲等課題,成為企業實際運行上的限制。相較之下,本地 LLM 透過本地部署,預估可在三年內實現 30% 至 50% 的成本削減。此外,GDPR 和 EU AI 法等法規的強化、數據主權意識的提高,以及開源模型的進化,也成為推動力,加速了在自家環境運行高性能 AI 的趨勢。其中,輕量級模型和邊緣 AI 與實際應用的高度親和性,預計到 2027 年,約有三成的企業級 LLM 將在本地環境運行。「AI 應部署在哪裡,由誰來掌控」。由於數據主權是重要課題,此市場正吸引高度關注。
■本地 LLM 的市場概況
在由模型、硬體、軟體、應用程式、運行基礎設施等多層結構構成的本地 LLM 市場中,競爭的本質在於各個層級的領導權爭奪,而非單一企業。尤其在 AI 伺服器領域,主要幾家公司掌握了過半市場,而推理基礎設施則以開源成為事實上的標準,競爭軸已從性能轉移到運行性、成本和治理。另一方面,「實施的壁壘」,如數千萬日圓規模的初期投資、電力負荷和人才短缺,依然很高,企業被要求具備高度的運行能力。在此背景下,日本市場在 AI 推動法的支持下,對國產模型和國內基礎設施的投資正在加速,顯現出「AI 的在地生產在地消費」的趨勢。製造業為主的現場知識數位化也在推進,重視準確性和安全性的獨特需求結構正在推動本地 LLM 的普及。