AIインタビューマガジン「AI Future Talks」 第6・7回 公開のお知らせ
デフィデ株式会社は、AI研究者へのインタビューシリーズ「AI Future Talks」の第6回・第7回を公開した。第6回は武蔵大学の宇田川敦史准教授を迎え、AIアルゴリズムに対する批判的思考の重要性について議論。第7回は一橋大学の小町守教授が登場し、生成AIの限界と人間が磨くべきロジカルコミュニケーション力について語っている。本シリーズは、AI時代における経営判断やDX推進の指針を提供することを目的としている。
📋 記事の処理履歴
- 📰 発表: 2026年4月15日 20:00
- 🔍 収集: 2026年4月15日 11:31
- 🤖 AI分析完了: 2026年4月15日 15:58(収集から4時間26分後)
AI/DXコンサルティング企業のデフィデ株式会社(東京都港区赤坂2-4-6、代表取締役:山本 哲也)は、日本を代表するAI研究者へのインタビューシリーズ「AI Future Talks」の第6回・第7回を公開しました。
今回登場するのは、AIアルゴリズムの社会的問題を問い続けるメディア研究者・宇田川 敦史 氏(武蔵大学)と、自然言語処理・生成文章の品質評価に取り組む小町 守 氏(一橋大学)の2名です。「AIを使いこなしたい経営者」「AI・DX推進の責任者」「AI研究に関心のある学生」それぞれに直接刺さる問いと洞察が凝縮された対談です。
■ AI Future Talks:今回の対談
【第6回】 武蔵大学 社会学部 メディア社会学科 准教授 宇田川 敦史 氏
「AIを疑う力が、人間の価値を再定義する」
※推奨読者対象:AI/DX推進責任者、AI研究者・学生
「AIアルゴリズムは中立・公平な機械である」という思い込みは、経営判断を誤らせる最大のリスクの一つだ。宇田川氏はデジタル・メディア論の専門家として、日本IBM・楽天での実務経験を経たキャリアをもとに、「アルゴリズムの裏に必ず人間の主観と価値観が埋め込まれている」という事実を解き明かす。著書『アルゴリズム・AIを疑う 誰がブラックボックスをつくるのか』(集英社新書、2025年)では、AIの意思決定を鵜呑みにしない「深い批判的思考」の必要性を説いている。
同氏が指摘する逆説が経営者にとって特に刺さる。「疑う力がある」と自己申告する人ほど、実は偽・誤情報を拡散しやすい。自分自身のバイアスを疑えているかを常に問う構造的な思考こそ、AI時代の意思決定品質を左右する。DX推進責任者にとっては自社のAI調達・ベンダー選定・データ活用方針の見直しに、学生にとっては就活・キャリア判断で検索やSNSアルゴリズムに踊らされない判断力の礎となる視点が得られる。
▶ この対談で得られる視点
・AIが「正しい答えを出してくれる」という思い込みを経営層がどう解除するか
・アルゴリズムの設計思想を読む力が、AI調達・ベンダー選定の判断基準になる
・「AIを疑う力」が、かえって自社のDX推進を加速させる逆説的な理由
・AI時代に求められる批判的思考—「保留する力・根拠なきものに耐える力」とは何か
【第7回】 一橋大学大学院 ソーシャル・データサイエンス研究科 教授 小町 守 氏
「AIは道具。いかに使うかは人間に責任がある」
※推奨読者対象:AI/DX推進責任者、AI研究者・学生
自然言語処理(NLP)の第一人者である小町氏は、生成AIの急速な進化を認めながら、「理解する側」に依然として本質的な限界があることを明確に指摘する。ChatGPTは膨大な文脈を処理できるようになった一方、意図の読み取り・皮肉の解釈・多言語の公平性といった課題は残る。著書『自然言語処理の教科書』(技術評論社)の著者として、AI精度評価研究に基づいたフラットな現状認識を提供し、「AIを使うかどうか」ではなく「どこまで信頼して使うか」を自分で判断できる力の重要性を説く。
また、日本語・少数言語のデータ資源不足という課題を掘り下げ、英語中心に進む生成AI開発が日本企業のシステム選定に与える盲点にも言及する。さらにビジネスパーソンへの提言として「ロジカルなプレゼンテーション力」こそ生成AI時代に人間が磨くべき最優先スキルだと断言。AI研究者・学生に対しては「AIが得意なことと苦手なことを区別して問題設定できる力」が次世代の研究・ビジネス競争力を決めると語る。
▶ この対談で得られる視点
・生成AIの限界(意図理解・倫理的判断)を知ることで「使い分け判断力」が身につく
・日本語AI精度の課題が、国内企業の生成AIシステム選定で見落とされがちな盲点とは
・AI活用が進む時代に人間が磨くべき「ロジカルコミュニケーション力」とは何か
・学生・若手人材へ:AIが苦手とすることを問える人材が、次世代の研究・職場で差をつける
■ AI Future Talks シリーズ概要
回
研究者
対談テーマ
第1回
栗原 聡 氏
(慶應義塾大学 教授 / 人工知能学会 会長)
チャレンジをしない日本は、AIの未来を切り開けるのか
第2回
伊庭 斉志 氏
(東京大学大学院 教授)
AIを活用し、進化を計算する
第3回
長野 匡隼 氏
(京都大学 大学院情報学研究科 助教)
人と共生するロボットの開発に挑む
第4回
石黒 浩 氏
(大阪大学 教授・栄誉教授)
未来を創造しデザインするのが、人間の責務
第5回
市瀬 龍太郎 氏
(東京科学大学 教授)
AIの原理を知ることが基本
第6回
宇田川 敦史 氏
(武蔵大学 准教授)
AIを疑う力が、人間の価値を再定義する ★今回
第7回
小町 守 氏
(一橋大学 教授)
AIは道具。いかに使うかは人間に責任がある ★今回
第8回
南澤 孝太 氏 ほか 続々公開予定
シリーズ継続中
掲載URL:https://www.defide-ix.com/ai/ai-future-talks
■ 会社概要
社名:デフィデ株式会社(DEFiDE inc.)
所在地:東京都港区赤坂2-4-6
代表取締役:山本 哲也
URL:https://www.defide-ix.com/
AI Future Talks:https://www.defide-ix.com/ai/ai-future-talks
chai+:https://lp.chatbothub.ai/
Recotto:https://lp.recotto.ai/
SmartOps:https://smartops.jp/
JOB Scope:https://jobscope.ai/
生成AIワークバリュー・スコア分析:https://jobscope.ai/ai-survey/
HRキャピタルダッシュボード(JOBScope ISO30414):https://jobscope.ai/hrcapital/
JOB Scopeマガジン:https://marketing.jobscope.ai/media/
今回登場するのは、AIアルゴリズムの社会的問題を問い続けるメディア研究者・宇田川 敦史 氏(武蔵大学)と、自然言語処理・生成文章の品質評価に取り組む小町 守 氏(一橋大学)の2名です。「AIを使いこなしたい経営者」「AI・DX推進の責任者」「AI研究に関心のある学生」それぞれに直接刺さる問いと洞察が凝縮された対談です。
■ AI Future Talks:今回の対談
【第6回】 武蔵大学 社会学部 メディア社会学科 准教授 宇田川 敦史 氏
「AIを疑う力が、人間の価値を再定義する」
※推奨読者対象:AI/DX推進責任者、AI研究者・学生
「AIアルゴリズムは中立・公平な機械である」という思い込みは、経営判断を誤らせる最大のリスクの一つだ。宇田川氏はデジタル・メディア論の専門家として、日本IBM・楽天での実務経験を経たキャリアをもとに、「アルゴリズムの裏に必ず人間の主観と価値観が埋め込まれている」という事実を解き明かす。著書『アルゴリズム・AIを疑う 誰がブラックボックスをつくるのか』(集英社新書、2025年)では、AIの意思決定を鵜呑みにしない「深い批判的思考」の必要性を説いている。
同氏が指摘する逆説が経営者にとって特に刺さる。「疑う力がある」と自己申告する人ほど、実は偽・誤情報を拡散しやすい。自分自身のバイアスを疑えているかを常に問う構造的な思考こそ、AI時代の意思決定品質を左右する。DX推進責任者にとっては自社のAI調達・ベンダー選定・データ活用方針の見直しに、学生にとっては就活・キャリア判断で検索やSNSアルゴリズムに踊らされない判断力の礎となる視点が得られる。
▶ この対談で得られる視点
・AIが「正しい答えを出してくれる」という思い込みを経営層がどう解除するか
・アルゴリズムの設計思想を読む力が、AI調達・ベンダー選定の判断基準になる
・「AIを疑う力」が、かえって自社のDX推進を加速させる逆説的な理由
・AI時代に求められる批判的思考—「保留する力・根拠なきものに耐える力」とは何か
【第7回】 一橋大学大学院 ソーシャル・データサイエンス研究科 教授 小町 守 氏
「AIは道具。いかに使うかは人間に責任がある」
※推奨読者対象:AI/DX推進責任者、AI研究者・学生
自然言語処理(NLP)の第一人者である小町氏は、生成AIの急速な進化を認めながら、「理解する側」に依然として本質的な限界があることを明確に指摘する。ChatGPTは膨大な文脈を処理できるようになった一方、意図の読み取り・皮肉の解釈・多言語の公平性といった課題は残る。著書『自然言語処理の教科書』(技術評論社)の著者として、AI精度評価研究に基づいたフラットな現状認識を提供し、「AIを使うかどうか」ではなく「どこまで信頼して使うか」を自分で判断できる力の重要性を説く。
また、日本語・少数言語のデータ資源不足という課題を掘り下げ、英語中心に進む生成AI開発が日本企業のシステム選定に与える盲点にも言及する。さらにビジネスパーソンへの提言として「ロジカルなプレゼンテーション力」こそ生成AI時代に人間が磨くべき最優先スキルだと断言。AI研究者・学生に対しては「AIが得意なことと苦手なことを区別して問題設定できる力」が次世代の研究・ビジネス競争力を決めると語る。
▶ この対談で得られる視点
・生成AIの限界(意図理解・倫理的判断)を知ることで「使い分け判断力」が身につく
・日本語AI精度の課題が、国内企業の生成AIシステム選定で見落とされがちな盲点とは
・AI活用が進む時代に人間が磨くべき「ロジカルコミュニケーション力」とは何か
・学生・若手人材へ:AIが苦手とすることを問える人材が、次世代の研究・職場で差をつける
■ AI Future Talks シリーズ概要
回
研究者
対談テーマ
第1回
栗原 聡 氏
(慶應義塾大学 教授 / 人工知能学会 会長)
チャレンジをしない日本は、AIの未来を切り開けるのか
第2回
伊庭 斉志 氏
(東京大学大学院 教授)
AIを活用し、進化を計算する
第3回
長野 匡隼 氏
(京都大学 大学院情報学研究科 助教)
人と共生するロボットの開発に挑む
第4回
石黒 浩 氏
(大阪大学 教授・栄誉教授)
未来を創造しデザインするのが、人間の責務
第5回
市瀬 龍太郎 氏
(東京科学大学 教授)
AIの原理を知ることが基本
第6回
宇田川 敦史 氏
(武蔵大学 准教授)
AIを疑う力が、人間の価値を再定義する ★今回
第7回
小町 守 氏
(一橋大学 教授)
AIは道具。いかに使うかは人間に責任がある ★今回
第8回
南澤 孝太 氏 ほか 続々公開予定
シリーズ継続中
掲載URL:https://www.defide-ix.com/ai/ai-future-talks
■ 会社概要
社名:デフィデ株式会社(DEFiDE inc.)
所在地:東京都港区赤坂2-4-6
代表取締役:山本 哲也
URL:https://www.defide-ix.com/
AI Future Talks:https://www.defide-ix.com/ai/ai-future-talks
chai+:https://lp.chatbothub.ai/
Recotto:https://lp.recotto.ai/
SmartOps:https://smartops.jp/
JOB Scope:https://jobscope.ai/
生成AIワークバリュー・スコア分析:https://jobscope.ai/ai-survey/
HRキャピタルダッシュボード(JOBScope ISO30414):https://jobscope.ai/hrcapital/
JOB Scopeマガジン:https://marketing.jobscope.ai/media/