KnowBe4 Japan 調查:揭示員工對 AI 代理的安全意識

KnowBe4 Japan 發布關於員工對 AI 代理安全意識的調查結果。
サイバーセキュリティ,AI,企業向けシステム・通信・機器NQ 84/100出典:prnews

📋 文章處理履歷

  • 📰 發表: 2026年3月31日 18:00

KnowBe4 Japan 合同會社(總部:東京都港區,職務執行者社長:力 一浩)是全球領先的網路安全平台供應商,全面支援人類風險與代理式 AI 風險管理,今日公布了針對日本企業和組織員工進行的「AI 代理安全影響意識調查」結果。

本次調查繼去年「生成式 AI 安全影響意識調查」之後,旨在了解隨著能夠自主執行任務的「AI 代理」普及所伴隨的安全風險意識與實際情況。

調查結果顯示,儘管對 AI 代理使用擴展的期待日益增長,但「資訊洩漏」和「著作權侵害」等「人類風險」的擔憂,以及員工對風險理解的停滯問題再次浮現。特別是,在 AI 自主運行的「代理式 AI」時代,風險容忍範圍的定義以及預算和規則的決策權限不明確的「治理真空」現象已然顯現。

在 AI 代理深入業務營運的過渡時期,組織間的責任共擔討論以及與技術發展同步的安全文化培養已成為當務之急。

主要調查結果

主要調查結果

  • AI 代理的使用狀況與活用意願:40% 的受訪者表示其組織已導入 AI 代理,70% 預期未來將擴大使用(「同意」36%、「稍微同意」34%)。相較於去年的生成式 AI 調查(導入率 62%、擴大預期 73%),AI 代理因其比生成式 AI 更具專業性和自主性,顯示導入過程更加謹慎。

  • 安全風險的認知與擔憂:認為 AI 代理使用伴隨的安全風險「很大」的受訪者比例為 68%(「同意」27%、「稍微同意」41%)。其中,最常被提及的擔憂是「機密資訊洩漏」,其次是「著作權侵害」和「幻覺(生成錯誤資訊)」,這些都屬於源於人類判斷和操作的「人類風險」。

  • 風險理解的現狀:回答「員工理解」使用 AI 代理時安全風險的受訪者總計僅為 30%(「同意」6%、「稍微同意」24%)。與去年的生成式 AI 調查(32%)相比幾乎持平,顯示即使 AI 的形式改變,「組織整體的風險理解」仍未跟上。

  • 安全責任歸屬:認為使用 AI 代理時的安全責任屬於「所有人」(包括經營者、IT/安全部門、使用 AI 代理的員工)的受訪者僅佔 25%。

  • AI 濫用威脅認知:對於利用 AI 進行的網路攻擊,表示「感到威脅」的受訪者總計為 83%(「同意」46%、「稍微同意」37%),較去年上升 9 個百分點(去年為 74%)。被認為是嚴重攻擊的包括「網路釣魚郵件/簡訊」、「勒索軟體」和「商業電子郵件詐騙(BEC)」,排名接近,顯示對 AI 強化社交工程攻擊的警惕感增強。

  • 應加強的對策:為降低 AI 代理使用風險,最多人選擇的對策是「實施安全教育/素養教育」,其次是「制定並周知使用規定(政策)」和「加強代理的存取控制」。此外,針對 AI 濫用網路攻擊的應對措施中,「安全訓練/教育」也是最多人選擇的項目,顯示今年仍延續了重視「人」的因素,而非僅限於技術層面的對策。

調查報告全文請參閱: https://www.knowbe4.com/resources/whitepapers/impact-of-ai-agents-on-security?hs_preview=DiwXKeUE-209898710894

調查揭示的三大挑戰

  1. 教育體系追不上普及加速:AI 代理的使用擴展已成定局,但員工的風險理解度僅為 30%,與去年(32%)相比未見改善。組織的教育體系已落後於技術的進化速度。

  2. 「治理真空」導致的不可預測事件脆弱性:僅有四分之一(25%)的受訪者認為 AI 代理使用的責任屬於「所有人」。缺乏根據角色劃分責任的討論,導致在 AI 自主運行的過程中,一旦發生事故,可能出現應對延遲或對特定部門造成過度負擔的「治理真空」。

  3. 技術不斷進化,風險的革新仍源於「人」:擔憂的風險包括「機密資訊洩漏」、「著作權侵害」和「幻覺(看似真實的謊言)」。無論 AI 如何自主化,使用和管理它們的「人」的判斷力,仍然是最大的防禦層(人類防火牆)。

KnowBe4 Japan 合同會社 職務執行者社長 力 一浩 的評論

「儘管 68% 的員工認為 AI 代理存在重大的安全風險,但只有 30% 的人認為公司員工對這些風險有足夠的理解。這表明,員工對風險的擔憂與實際知識之間存在差距。我認為,第一線員工正處於一個『治理真空地帶』,在不了解正確規則的情況下,於擔憂與便利性之間搖擺不定。

AI 代理已超越單純的工具,進化為能夠自主執行任務的『夥伴』。同時,利用 AI 進行的社交工程攻擊也變得極其自然和巧妙,傳統的『系統阻擋』等對策已接近極限。AI 時代的風險管理,已進入需要提升整個組織的倫理觀和判斷力,並在人類一方構建堅固『人類防火牆』的階段,而非僅僅依靠系統建立物理屏障。

正因為代理是自主運行的,因此必須建立一個體系,將正確處理的責任賦予控制它們的人類。為了填補『誰來負責』的治理真空,必須制定明確的指導方針,並將知識轉化為實際行動。培養一種將安全視為『組織的常態』而非『被迫執行的任務』的安全文化,並投資於適應不斷進化風險的『持續性教育』,將是 2026 年的首要任務。」

調查概要

調查名稱:AI 代理安全影響意識調查

調查期間:2025 年 12 月至 2026 年 1 月

調查對象:在日本國內企業和組織工作的員工

回答者人數:362 人

調查方法:日經 CrossTech Active Research 進行的線上問卷調查

關於 KnowBe4

KnowBe4 協助組織建立具備安全意識的文化並管理其人類風險。我們是全球最受歡迎的整合式意識培訓和模擬網路釣魚平台供應商,擁有超過 70,000 家客戶。KnowBe4 賦予員工能力,使其能夠每天做出更明智的安全決策。作為一個全面、由 AI 驅動的「最佳套裝」人類風險管理平台,KnowBe4 能夠改變人類行為,並針對不斷演變的網路威脅建立強大的防禦層。KnowBe4 的 HRM+ 平台包含安全意識和合規性培訓、雲端電子郵件安全、即時輔導、雲端防網路釣魚以及 AI 防禦代理。隨著 AI 越來越多地融入企業營運,KnowBe4 透過培訓人類和 AI 代理識別和應對安全風險,來培養現代員工。透過這種整合方法,KnowBe4 在「勞動力信任管理」和防禦策略方面處於領先地位。更多資訊請參閱:https://www.knowbe4.com/ja


歡迎關注我們的 LinkedInXTikTokInstagram

常見問題

什麼是 AI 代理?

AI 代理是指能夠自主執行任務的 AI。這包括無需人類指示即可執行資訊收集、日程管理、數據分析等任務的 AI。

本次調查中發現的與 AI 代理相關的主要安全風險是什麼?

主要風險包括機密資訊洩漏、著作權侵害等,以及幻覺(生成錯誤資訊)。這些風險主要源於 AI 使用和管理過程中人類的判斷失誤或操作,屬於「人類風險」。

員工對 AI 代理風險的理解程度如何?

回答「員工理解」使用 AI 代理時安全風險的比例僅為 30%。與去年的生成式 AI 調查相比,這一比例幾乎沒有變化。

對於 AI 代理使用中的安全責任歸屬有何看法?

認為 AI 代理使用中的安全責任屬於「所有人」的受訪者僅佔 25%。這表明存在責任歸屬不明確的「治理真空」現象。

對 AI 濫用網路攻擊的威脅認知是否正在提高?

是的,表示「感到威脅」的受訪者比例達到 83%,較去年的 74% 有所上升。特別是對 AI 強化網路釣魚郵件、勒索軟體和商業電子郵件詐騙等社交工程攻擊的警惕感正在增強。

為降低 AI 代理使用風險,哪些措施被優先考慮?

最多人選擇的措施是「實施安全教育/素養教育」,其次是「制定並周知使用規定(政策)」和「加強代理的存取控制」。重點不僅在於技術措施,也強調以人為本的方法。