【翻訳】生成AIを活用したユーザーリサーチ方法(Tania Ostanina, UX Collective)

UX分野は目まぐるしい生成AIの席巻期にある

TLDR: 2025年はAIがUXを席巻した年です。本記事ではその理由と、ChatGPTのDeep Research機能に焦点を当て、質的調査分析を大幅に加速する私の手法を解説します。
更新 — 2025年8月10日: 3日前、OpenAIが最新フラッグシップモデル「ChatGPT 5」を発表し、4‑o、o3など複数の旧モデルを終了しました。一方でDeep Researchは引き続き利用可能で、プロンプトバー左のツール一覧にあります。画像アイコンをクリックすると全ツールが表示されます。

注: 本文では「AI」「genAI」「モデル」を「生成AI」の略称として用い、主にテキストを生成する大規模言語モデル(LLM)を指します。
私は10か月前にAI for UXの初稿をMediumに公開し、当ブログで過去最高の反響を得ました。しかし生成AIの10か月は「犬の年」に等しい速度で、当時の内容の一部は既に古びています。
そこで母校であるCity, St George’s, University of Londonのヒューマン・コンピュータ・インタラクションデザイン学科から年次カンファレンス登壇の打診があり、このテーマを更新する好機と捉えました。教授によれば、依頼の一因はMedium記事の人気でした。
ここからは、2025年版「AI for UX」として、HCID 2025での講演の要点も含めて解説します。
2025年、AIはUXを席巻した

2024年初頭、私は未知の領域へ踏み出す探検家の心持ちでAIの実務利用を始めました。家庭でレシピや雑多な画像を生成する遊びは普及していましたが、業務を本格的に作り替える機会は少なかったのです。その最大要因は「AIは渡したデータを何でも食べる」というデータプライバシー問題と、それに伴う職場での厳格な利用禁止でした。

しかし2024年は「プライベートAIの夜明け」でした。OpenAIやAnthropicがLLMを外部と遮断する提供形態を整備し、データ漏えいの懸念を解消。私の所属組織を含め、サブスクリプションで安全に導入できる環境が整いました。
そして2025年、Nielsen Norman Groupの調査によれば、UXの専門職はAIのヘビーユーザーであり、平均的なUX実務者のLLM利用は他職種の平均の約750倍に達します。
UX実務者がAIを好む理由
ハンマーを手にしても、世の中の全てが釘ではありません。学習課題での不正(UX/HCIDの学生各位、インタビュー文字起こしの捏造はやめてください)や、ニック・ケイブの作風模倣曲をChatGPTに作らせて本人の怒りを買った事例のように、AIが不適切な用途は多々あります。

メディアはこうした話題を好み、やがて「AIはすべて無用または有害」という空気が醸成されます。
私は異なる見解です。

生成AIの制約と強みは、特定のUXリサーチ要件と好相性です。
- 生成AIはテキスト要約が得意 → UXリサーチは大量のテキストデータを生みます。
- 生成AIの幻覚は不可避 → 多くのUXリサーチは一定の曖昧さを扱えます(ただし高精度が要求される分野では禁止が妥当です)。
- 生成AIは本質的に派生的な成果物を生成 → UXの成果はゼロからの純粋創作より、既存知の適用・再構成が中心です。
以上により、データプライバシーの制約が解けたいま、UXでのAI利用はごく自然です。レポートがAI生成でも、内容が適切でデータ要件を満たしていれば問題視されません。
注: ただしAI倫理は議論不足です。私はこちらの記事で、過去と現在の倫理問題を引き続き指摘していきます。
本題

ここからは具体例です。最近の案件で、私はAIを使ってUXリサーチのユーザーデータを分析しました。個人が特定されないようすべて匿名化しています。
私が使ったのはChatGPT Enterprise(組織向けの隔離環境)で、最新のDeep Research機能を利用しました。これはOpenAIが2025年2月に発表した、いわく「集中的な知的労働に最適」な特化型エージェントです。

Enterpriseがなくても、ChatGPT Plus(月20ドル)でDeep Researchを使えます(ただし隔離・非学習の保証はないと理解しています)。
私の2025年版の手順は、まず次の3ステップから始まります。

- Feed(投入): 必要な「材料」を渡します。巨大なデータセット、JSON、スクリーンショット、ウェブリンク、PDFなど幅広く対応可能です。ChatGPT EnterpriseはPNG内の文字読み取りに特に強いです。
- Instruct(指示): 何をさせるかを明確に伝えます。基本は以前の記事で述べた「プロンプト・デッキ」のルールに従います。
- Harvest(収穫): 必要情報を引き出し、レポート等に展開します。
ステップ1: 投入(Feed)
Deep Researchは大規模データに強く、OpenAIの説明では従来型モデル(4o、Claude 3.7 Sonnet等)より高精度とされます。文書群を与えたうえで、特定文書を「軸」に設定し、その文書に沿って分析の方向性を取らせることができます。
私の事例では、その軸をディスカッションガイド/リサーチ計画書に置きました。

ディスカッションガイド(プロダクトマネージャー等と共同作成されることが多い)には通常、次が含まれます。
- リサーチの背景: 何のリサーチか、どの製品か、なぜ実施するのか。
- 目的と仮説: 何を立証・反証したいのか。
- 参加者情報: 誰か、募集条件は何か、(私のケースのように)特定の狭い専門領域の職業人か。
- インタビュー構造: テーマと質問の型、各項目と目的・仮説の対応関係。
ステップ2: 指示(Instruct)
インタビュー記録、プロトタイプのスクリーンショット、ディスカッションガイド等を投入したら、モデルへの指示を設計します。
長いやり取りは不要
Deep Researchは従来モデルと異なり、往復の長対話を不要にします。初期の数問の確認の後、モデルはタスクを実行し、指示に基づく詳細レポートを一括出力します。プロンプトは一度きりなので、品質が極めて重要です。

私のプロンプト構成は概ね2024年の記事と同様で、便利な「プロンプト・デッキ」を使います。

ただし各カードの重みづけは変化しました。今もっとも有効なカードは次の通りです。
プロンプトカード: 状況設定(Set Scene)

調査の目的、会社・製品、ユーザー属性、モデルに渡す文書の種類を明確にし、軸となる文書(本例ではディスカッションガイド)にアンカーさせます。
プロンプトカード: 人物設定(Persona)

モデルに演じさせる人物像を指定します。例: 「世界的なUXリサーチャーで、英国の特定職種向けデジタル情報・分析プロダクトを提供するテクノロジー企業Xに所属」。

プロンプトカード: 構造指定(Template)

出力の章立て・体裁を事前に提示します。ディスカッションガイドの構成に従わせるか、すべての見出しを含むテンプレートを与えて踏襲させます。

プロンプトカード: 想定外の発見(Wild Card・新)

同僚の発案。所与の調査枠組み外の発言・兆候も探索対象に含めます。指示しなければ見落とします。

注: 私にOpenAIの「バニーイヤー」動画を思い出させます。二つの視覚・音声アシスタントは、司会者の背後で他者がウサギ耳をしても、明示的に促されるまで無視します。
ステップ3: 収穫(Harvest)
プロンプトと資料を投入し、Deep Researchを実行したら、コーヒーでも入れて待ちます。タスクの複雑さによっては最大約1時間要し、私の事例では約30分でした。
画像をフルサイズで表示するにはEnterを押すか、クリックしてください。

出力が50ページに達することもあります。ここからが最も退屈ですが重要な工程です。
すべての単語を検証します。
Deep Researchは従来より高精度でも、100%ではありません。尤もらしい幻覚が混じり得ます。人間(あなた)が最終責任者として、誤った推論や見落とし(たとえ「想定外の発見」を指示していても)を是正します。
右側パネルで、モデルが結論に至るまでに踏んだステップを確認できます。奇妙な幻覚が現れても、最終レポートに残りにくいのは、推論過程の自己検証(Chain of Thought)が働くためだと感じます。

重要なヒント: Deep Researchは対話ではなく単一タスクです。生成途中に対話で修正はできません。古典的にWordへエクスポートして赤入れします。
修正後は、そのWord版をChatGPTに再投入して、50ページを簡潔なプレゼン(PowerPoint風)に凝縮させられます。この段階はDeep Researchではなく、従来型モデル(4o、o3等)に「テンプレート」カードで体裁を指示するのが簡便です。
ユーザー引用に関する注意
従来モデルは逐語引用の抽出が不得手で、要約へと寄せる傾向があります(多くを試しました)。一方、Deep Researchは引用元を直接参照するため、検証が容易です。それでも最終レポートで用いる引用は、必ず原文と照合してください。
Deep ResearchをUXに使う要点

Deep Researchの生成(約30分)に、人手のプロンプト設計・資料準備・検証・修正を加えても、手作業や従来モデル主体の方法より明確に速いと感じます。
注意喚起: 解析を丸投げして検証を省く誘惑に抗ってください。誤りの責任はAIではなく実務者に帰します。モデルが進化しても、人間の監督は不可欠です。
忘れてほしい(変化は続く)

HCID講演で私が最も気に入っているスライドです。実践的な情報を一通り共有した直後に「いま話したことは忘れてください」と述べました。AIの風景は週単位で変わるため、唯一の方策は自らも変わり続けることです。
例えば講演当時は触れなかったエージェント型AIが、執筆時点では2025年最大かつ最も曖昧な出来事になっています。将来「AI for UX v3.0」を書くなら、これを主題にするかもしれません。あるいは全く別の話になるかもしれません。
画像をフルサイズで表示するにはEnterを押すか、クリックしてください。

私は2025年6月、ロンドン大学セント・ジョージ校のHCIDカンファレンスに招かれ、AIをテーマとする登壇者らとのパネルQ&Aで締めくくりました。(画像提供: Helena Lyhme)