【調查結果】「性深度偽造」逾半數人認知。受害認知亦增加。生成式AI對兒童人權侵害的對策應包括法律規範、行業規範,以及提升兒童自身的AI素養。
日本兒童基金會的調查顯示,逾半數受訪者認知性深度偽造,CSAM受害認知亦增加。建議應透過法律、行業規範及提升兒童AI素養來應對。
📋 文章處理履歷
- 📰 發表: 2026年3月31日 22:40

特定非營利活動法人日本兒童基金會(東京都杉並區,事務局長:武田勝彥)於2026年對全國15至79歲的男女進行了「生成式AI與兒童人權侵害」的國民意識調查。
調查結果顯示,知道性深度偽造的人數增加,同時要求針對線上兒童權利侵害制定法令規範和行業規範,並學習AI素養等自我防衛能力的需求也日益增長。
從生成式AI和深度偽造中保護兒童權利!倡議活動應以兒童和青少年視角出發。
隨著生成式AI的快速發展和普及,大量圖像得以瞬間創建和傳播。近年來,生成式AI造成的兒童性虐待內容「Child Sexual Abuse Material / CSAM」(以下簡稱CSAM)和性深度偽造問題日益擴大,社會各界呼籲完善法律法規並提高社會意識。
日本兒童基金會迄今為止,為保護兒童免受性剝削,已採取多項措施,包括針對青少年進行的誘騙行為調查,以及製作動畫影片提醒兒童和青少年注意誘騙行為。此外,於2024年4月舉辦了「生成式AI對兒童權利的威脅」研討會,並於12月舉辦了學習海外領先實踐的線上研討會。同時,還成立了專家工作組,為制定規範生成式AI造成的CSAM的新法規提出建議。
作為上述工作的一部分,日本兒童基金會進行了關於生成式AI可能侵害兒童人權及其應對措施的國民意識調查。
調查概要
調查期間:2026年1月25日(日)~2月7日(六)
調查對象:全國15~79歲的男女
回答人數:1,200名
調查方法:調查員個別訪問留置調查(搭乘方式)
調查實施機構:株式會社日本研究中心
調查揭示的主要重點如下:
■ 調查結果分析概要
① 性深度偽造有半數人知曉,但女性的認知率較低,特別是15-19歲的群體。性深度偽造的認知途徑,年輕族群主要透過社群媒體和網路,而老年族群則主要透過大眾媒體,兩者區分明顯。
② 回答身邊有未成年人遭受生成式AI造成的CSAM侵害的比例,從上次的0.3%增加到這次的0.7%,顯示CSAM侵害的擴大和對問題認知度的提升。
③ 在預防未成年人加害的對策中,加強學校教育後,提高社會意識的比例較高。女性認為,環境建設和家長控制等家庭對策更為必要。
④ 作為CSAM問題的應對措施,最多人期待政府和企業進行規範。另一方面,兒童自身AI素養的提升,從上次的29.3%增加到這次的34.0%,是所有應對措施中增長最快的。特別是與上次相比,30多歲男性和30-40多歲女性對AI素養必要性的認識普遍較高。
⑤ 關於實體和非實體兒童的法令規範,最多數的結果是「無論實體或非實體,都應全面禁止」佔59.3%。其次是「應禁止包含實體兒童性表現的加工合成內容(包括使用臉部或身體部分/性深度偽造)」佔18.6%。而「僅應禁止包含實體兒童性表現的內容(依現行法令)」佔10.3%,與上次的10.8%相比變化不大。
■ 調查結果詳情(部分)
※調查中,在解釋術語(參見註腳)後,提出了各個問題。
問:您知道「性深度偽造」嗎?

「聽說過」佔52.7%,約半數。
問:關於生成式AI造成的兒童CSAM問題的應對,請告知您的看法。

對於生成式AI造成的兒童CSAM問題的應對,最多人選擇「政府應制定法律進行規範」(46.8%)、「社群媒體和應用程式營運商應對兒童使用服務施加一定限制」(43.7%)。其次是「AI相關行業應施加技術規範」(35.8%)、「企業應限制兒童使用設備(如智慧型手機)」(34.9%)、「兒童自身應提高AI素養以培養自我防衛能力」(34.0%)、「政府應透過AI戰略進行規範」(33.1%)。
基於本次調查結果,調查團隊提出以下建議:
■ 建議
法律應對
1. 制定兒童色情禁止法中「實體兒童描繪」的新判斷標準,以充分應對生成式AI造成的性深度偽造侵害。(例如:修訂法律,將兒童臉部或身體部分描繪納入兒童色情定義)
制度應對
1. 利用各世代的資訊接觸媒體推進宣導。(例如:40歲以下使用社群媒體,50歲以上使用報紙和傳統媒體)
2. 營造環境,使未成年人在使用AI和社群媒體時能自主學習AI素養(例如:在「生命安全教育」中進行主動學習,導入彈出式視窗詢問社群媒體發布和分享的適當性)。
3. 家庭、學校、社會應合作,營造能持續討論兒童線上性侵害的環境。(例如:學校或社區舉辦親子參與式數位安全工作坊,宣導防止AI濫用(如利用畢業紀念冊照片)的活動)
4. 15~19歲的群體可能未能察覺生成式AI造成的CSAM侵害,應仔細掌握10多歲群體的受害認知和實際情況。(例如:對未成年人進行考量年齡的調查研究)
技術應對
1. 要求提供社群媒體和AI服務的企業,加強未成年人使用的安全措施和CSAM預防措施。(例如:導入警示彈出視窗,開發設計不學習CSAM的AI)
日本兒童基金會將繼續透過政策建議和對兒童、青少年的進一步調查等活動,保護兒童的權利。
各問題的回答結果、分析、建議和調查問卷等已在以下連結公開:
https://www.childfund.or.jp/blog/20260330survey
■ 引用・轉載時的署名要求
引用或轉載調查結果時,請註明「特定非營利活動法人日本兒童基金會調查」。
(註腳)
隨著生成式AI(人工智慧)的發展,以兒童※1為性表現對象的內容(CSAM:兒童性虐待材料)※2可以輕易製作,並上傳至社群媒體進行傳播。
此外,利用生成式AI,可以從「實體兒童」的圖像等資料中,輕易製作出虛假的兒童性內容。甚至可以輕易製作出「非實體虛構兒童」的性內容。
再者,由於生成式AI的發展,判斷表現對象兒童是否為實體變得更加困難。
※1 本主題中的「兒童」指「未滿18歲(未成年人)」。
※2 「內容」指以「圖像、影片、音訊等」形式表現的事物。「CSAM:兒童性虐待材料」是Child Sexual Abuse Material的縮寫,其中有些目前尚未受到法律規範。
「性深度偽造」是指利用生成式AI製作人物,其中許多是性內容,例如將真實人物的臉部與虛假的裸體合成。這些也屬於「CSAM」。
製作此類CSAM的應用程式和服務也存在,兒童也成為受害者。它們也可能被用於霸凌和騷擾,有時加害者也是兒童。
~關於日本兒童基金會~

自1975年起,日本兒童基金會作為一個國際合作非政府組織,主要在亞洲地區開展活動,旨在促進貧困兒童的健康成長,以及家庭和社區的自立。他們以菲律賓、尼泊爾、斯里蘭卡為中心,透過贊助計畫(透過與當地兒童書信往來等方式,關懷並支持兒童成長的計畫)持續支援兒童。此外,他們與全球10個兒童基金會成員組織合作,向全球66個國家、3,600萬人提供援助。
他們致力於實現SDGs目標1、3、4、5、16,特別是透過宣導和倡議活動,加強「兒童保護」工作,以實現目標16.2「終止對兒童的一切形式的暴力、剝削、販賣和虐待」。
常見問題
性深度偽造的認知度如何?
根據調查,超過半數(52.7%)的受訪者表示「聽過」性深度偽造,顯示認知度有所提升。
生成式AI造成的CSAM受害是否增加?
是的,身邊有未成年人受害的比例從上次的0.3%增加到這次的0.7%。
為保護兒童人權提出了哪些對策?
建議包括加強法律法規、分世代宣導、AI素養教育、家庭-學校-社會合作以及加強社群媒體和AI企業的安全措施等。