【翻訳】AIの時代における人間の繁栄(Josh LaMar, UX Collective)

uxdesign.cc

クレジット:Marketoonist*1

過去2年間におけるAIの爆発的な普及、特に生成AIと大規模言語モデル(LLM)は、私たちがテクノロジーについてどのように働き、考えるかを大きく変えました。ユーザー研究者やデザイナーにとって、AIの影響は大きく3つの分野に分類されます:

  1. 生成AIのプロダクト開発 AIを新しいプロダクトやサービスに最適に実装するために、研究やデザインプロジェクトで検討されるトピックや課題。
  2. 社内プロセス AIを活用したプロダクトやサービスを共同で構築する際に、AIを活用して効率性や洞察力を高める職場内のシステムやワークフロー。
  3. 個人の実践とトレーニング: スキルや生産性を向上させるための個人のAI活用。

AIはプロダクト設計を加速し、強化する計り知れない可能性を秘めていますが、バランスの取れた視点でアプローチすることが重要です。AIは、その利点と同時に、慎重な検討を要する潜在的な弊害や悪影響をもたらします。

この移行が起こる中、私たちの多くは、人間中心の方法でAIにアプローチする方法を自問しています。責任あるAIの統合を導くための重要な質問には、以下のようなものがあります:

  • プロダクトやサービスにおいて人間の幸福を優先するAI技術の開発を、組織はどのように提唱すればよいのか?
  • 研究、分析、設計、ソフトウェア開発プロセスにおいて、人間のニーズを中心に据えながら、責任を持ってAIを活用できるようにするにはどのような戦略が必要か?
  • 人工的なコンテンツによってますます形作られる状況の中で、本物の人間体験をどのように検証することができるのか?
  • AIに対するバランスの取れた人間中心のアプローチを維持するために、研究者やデザイナーはどのような日々の実践を採用すればよいのか?

そして最も重要なこと:

  • AI技術がどんどん進化していく中で、研究者やデザイナーはどのように学び、成長し、適応していけばいいのか?

この記事では、人間的繁栄の基礎概念を再考し、組織の価値観を振り返り、専門家のコミュニティや学術文献からの多様な視点を統合することで、これらの問いに答えたいと思います。

その目的は、倫理基準とビジネス目標の両方に沿ったAI活用のベストプラクティスを開発することです。

そして、人間中心の循環を維持することです。

ヒューマン・ファーストのアプローチ

ヒューマン・ファーストのアプローチを採用することは、倫理的かつ効果的なAI活用のための強力な基盤となります。この哲学の核心は、共感、信頼性、そして集団の幸福へのコミットメントを通じて、人々に奉仕し、力を与えることにあります。

ヒューマン・ファーストとは、人間が人間に奉仕することだと私は考えています。すべての決断、すべての対話は、共感、信頼性、そして私たちの集団としての人間性を認めることに基づいています。私たちは自分自身を大切にし、他者の健康にも配慮します。私たちは必要に応じてスペースを作ります。

学者や応用実践家によって明らかにされた人間繁栄の中核概念(フレームワークの全リストは以下の付録を参照)を取り入れ、ヒューマン・ファーストの考え方を受け入れる実践者や組織は、これらの中核原則を中心に自分たちの価値を定義します:

  • 目的と貢献:意義があり、影響力があると感じられる仕事を支援すること。
  • 個人の成長と主体性:自己決定と能力開発の奨励
  • ホリスティック・ウェルビーイング:身体的、精神的、社会的、その他の次元の健康に取り組むこと。
  • 倫理的生活: 行動が道徳的価値観に合致し、調和を促進すること。

人間の繁栄に関する全体的な視点は、持続可能で人間中心の解決策を生み出すために、個人、構造、システム、環境の各レベルを考慮します。

学際的かつ文化横断的なフレームワーク(例:社会生態学的フレームワークウェルビーイングの生態学繁栄の測定:ハーバード大学)は、意思決定の助けとなります。

AIの実践をこれらの価値観に根付かせることで、研究者、デザイナー、そして組織は、研究とデザインにおける人間の繁栄への課題をより良くナビゲートすることができます。この基盤は、人類に真に役立つ技術を創造するという共通の目標を推進しながら、AIに関連する特定の懸念に対処するための段階を設定します。

このような背景から、次にUXリサーチとデザインの文脈における人間の繁栄に対するAI関連の課題を明らかにします。

人間の繁栄に対するAIの課題と学んだ教訓

生成なAIベースのツールを開発している企業で調査やコンサルティングを行いながら、AIツールを試せば試すほど、AIが人間の繁栄を損なう可能性の限界が見えてきます。

AIを取り巻く社会的な懸念は膨大かつ複雑ですが(以下の付録のAIリスクを参照)、この議論では、ユーザーエクスペリエンス(UX)やデザインリサーチの日々の経験に最も関連する課題に焦点を当てます。

個人的な(そしてチームとしての)経験や、論文や見解のレビューを通して、私たちは、人間の繁栄を特に脅かすAIの4つの主要な特徴を特定しました:

1. 過度な単純化

複雑に変化するコンテクストを検出し、それに適応するAIの限られた能力は、人間の行動や現実を過度に単純化し、文化的または状況的に不適切な洞察や出力をもたらし、体系的な不平等や不公正を永続させる可能性があります。

AIツールをよく使う人なら、AIの出力が自分の求めていたものとはまったく違うという経験をしたことがあるでしょう。そのようなとき、AIはあなたの質問の背後にある意図を読み取っていないように感じます。この障壁を乗り越えるには、どんなによく練られたプロンプトでも十分でないことがあります。

AIモデルは、特に人間の解釈が鍵となる複雑で動的な環境では、文脈のニュアンスを完全に理解し、それに適応するのに苦労することがよくあります。口調、文化的な言及、暗示的な意味など、人間のコミュニケーションの微妙なニュアンスを完全に把握することや、人間の行動や現象に対する潜在的な動機や説明を探り当てることができないのです。(テキストの文脈を理解するAIの限界とは?- スペース・コースト・デイリー紙、人工知能におけるコンテキスト問題 ACM通信)。

事前に定義されたルールと学習データに依存しているため、社会的、文化的、システム的、環境的な影響を考慮できない可能性があります。

このような特性により、AIが文脈や文化、新しい状況での研究において責任を持って活用されること、また、高度な問題解決や創造的な問題解決を必要とするタスクをこなすことが制限されます。

研究やデザインには、行動を促進したり経験を形成したりするために組み合わされる、ユーザーやコンテキストの要因の複雑な相互作用を理解することがしばしば含まれます。

すべての生成AIツールが同じであるわけではなく、各プロダクトのコンテキストウィンドウを認識することで、ツールがどの程度までリサーチやデザインにおける人間性の中心をサポートできるかを現実的に理解することができます(コンテキストウィンドウとは?)

2. 一般化する傾向

AIは要約し、一般化する傾向があるため、人間の多様な経験や包括性の表現にリスクをもたらします。AIは大規模なデータセットを処理して共通のパターンを特定し、効率的な要約を提供することに優れていますが、ニュアンスの異なる視点を過度に単純化したり、一般的でない経験を除外したりすると、この長所が限界になる可能性があります。

例えば、AIを搭載した検索エンジンは、最も人気のある回答を強調表示しますが、コンテキスト固有の洞察を除外し、不完全または偏った結論につながる可能性があります。(AIの要約のジレンマ:十分では不十分な場合: 機械知能の安全性促進センター - ノースウェスタン大学AIの暗い秘密:平等の進歩を後退させる|Context)。

同様に、研究分析をAIだけに頼ると、平均値の表面的な理解にとどまる可能性があります。AIによる分析では、参加者のあらゆる回答が考慮されず、少数派の視点が無視され、排他的なプロダクトや体験が生み出される可能性があります。

分析には、大まかなテーマを理解したい場合もありますが、個々のニュアンスを理解することが重要な場合もあります。

このような限界は、多様な人々を調査したり、高度な感受性やニュアンスを必要とするソリューションを設計したりする際には、特に危険です。実際、リサーチや分析のためにAIツールを使って実験しているうちに、アウトプットが不十分で誤解を招く可能性があることに気づきました。

3. 透明性の欠如

AIツールの透明性の欠如とデータプライバシーのガードレールは、プライバシーに対する私たちの基本的人権を侵害し、テクノロジーとの関係を選択する私たちの主体性を低下させる可能性があります。

透明性を向上させ、プライバシーを重視したAIを開発する努力にもかかわらず、AIの使用はいまだに「ブラックボックス」で作業しているように感じられることが多く、ユーザーはAIがどのようにデータを処理するかについての深い理解や、プライバシー慣行についての明確で簡潔な説明が不足しています(財団モデルの訓練に使われるデータの透明性の欠如を正すべき - 特集5:ジェネレーティブAI革命との格闘AIへの関心が高まる中、透明性の欠如が深刻|ZDNET Japan

このことは、AIを使って人々のデータを収集・分析する際や、同意、主体性、エンパワーメントを促進するAI搭載プロダクトを開発しようとする際に影響を及ぼします。

研究者やデザイナーとして、私たちには研究参加者の個人を特定できる情報(PII)やクライアントの知的財産を保護する義務があります。

私たちは、研究参加者が自分のデータがどのように使用されるかに同意する力を持ち、消費者がプライバシーの侵害やデータの搾取につながらないプロダクトや体験を創造できるようにする責任があります。私たちの経験では、一般的なAIツールをフル機能で使用する場合、これらの保護が守られることを保証することはできません。

4. AIは自身のバイアスに気づかない

バイアスを再現し、不正確な出力を生成するAIの傾向は、既存の社会的不平等を悪化させ、情報に基づいた意思決定を脅かす可能性があります。

例えば、イギリスのパスポート写真チェッカーは、女性や肌の黒い人への偏見を示しました:

https://www.bbc.co.uk/news/technology-54349538.amp*2

AIツールが学習データに存在する人間のバイアスを永続させ、悪化させる傾向は、おそらくAIの脅威として最もよく議論されているので、ここではこの問題について深く議論しません(Battling Bias in AI)。

バイアスは、研究参加者の差別的な経験、歪んだ洞察、潜在的なデザインの方向性の範囲の狭さ、覇権的なアイデンティティや多数派のユーザーグループに便宜を図るデザインにつながる可能性があります。

幻覚: 偏った出力だけでなく、存在しない出力や不正確な出力を生み出す幻覚の可能性もあります(AIが間違えるとき: AIの幻覚とバイアスに対処する - MIT Sloan Teaching & Learning Technologies)。この誤った情報は、研究やプロダクトの決定に大きな影響を与える可能性があります。

別の例では、エアカナダのチャットボットが遺族運賃について乗客に嘘をつきましたが、後にその顧客が勝訴しました:

この乗客は、チャットボットが航空会社の方針と矛盾する回答を幻覚で表示したため、航空会社の遺族運賃に関する規則について誤解されたと主張しました。カナダの少額訴訟の裁判所は、乗客の言い分が正しいと判断し、損害賠償と裁判費用として812.02ドルを支払いました。裁判所は、エア・カナダが、チャットボットによってウェブサイト上で提供された情報を乗客が信用してはならない理由を説明しなかったと判断しました。出典 フォーブス

生成AIプロダクトが偏った情報や不正確な情報を生成する可能性があることを認識することは良い第一歩ですが、トレーニングデータセットの透明性と多様化、AI出力の批判的評価に関する広範なトレーニングの必要性はまだ満たされていないと感じています。AIは、常に人間中心のニーズのために、慎重に活用されなければなりません。

人間の繁栄への脅威への対応

AIの利用を進めるにあたり、私たちは人間的な経験を優先し、同僚、研究参加者、顧客、そして私たちが作るプロダクトを利用する顧客の幸福を育むことを約束し続けなければなりません。

テクノロジーは、人々とそのコミュニティの幸福、成長、充足に貢献すべきです。

上述した4つの課題に対処し、その限界に立ち向かうための4つの戦略をご紹介します。

戦略その1:代替ではなく補完としてのAI

AIは研究において強力なツールであることが証明されていますが、その最大の可能性は人間の専門知識を置き換えるのではなく、補完することにあります。AIが得意とするところと、人間が独自の価値をもたらすところを理解することで、適切なバランスをとることができます。

AIが輝くところ

  • 大規模データセットの処理 AIの計算能力により、膨大な量のデータを人間よりもはるかに速く分析できるため、パターン認識や大規模分析に不可欠なツールとなります。
  • イデアの創出 AIは、多様で偏りのない可能性を提示することで、ブレインストーミングを喚起することに優れています。
  • パターンの認識 AIのパターン認識能力は、データセットの傾向や相関関係を特定する上で比類のないものです。

人間が輝くところ

  • 共感とつながり: これらは定性調査の基本です。信頼を築くこと、ボディランゲージを読み取ること、真摯に関わることは、テクノロジーでは再現できない人間特有の能力です。
  • 複雑な文脈の理解 人間は、パターンにうまく当てはまらないような微妙で多面的な情報を統合することに優れています。
  • 倫理的・文脈的判断力: 人間は意思決定に文化的・道徳的配慮を持ち込むことで、繊細さと適切さを保証します。
  • 独自の洞察力: 真に斬新な洞察に必要な創造性と文脈理解は、依然として人間の強みです。

適切なバランス

データ収集

AIは意図的に使用することで、データ収集の効率を高めることができます。例えば、リクルート時の参加者スクリーニングを支援することができますが、リサーチャーの監督によって品質と適切性が保証されます。つながりを生み出し、共感を育み、参加者を深く理解するためには、人間によるモデレーションが不可欠です。

AIによるモデレーションは、定性調査を迅速かつ大規模に実施するのに有効ですが(AIで研究を加速 )、人間によるエンゲージメントの深さを再現することはできません。

データ分析

分析において、AIは主要なテーマを特定し、質的データのコーディングを支援することで、研究者に先手を打つ機会を提供します。トランスクリプションだけでも素晴らしいスタートです。要約に関しては、私が試したほとんどのツールは、この点ではまあまあですが、将来性はあります。

Dovetailによる書き起こしおよび要約の例。出典 NN/g

しかし、参加者の行動を解釈し、コミュニケーションのニュアンスを理解し、多様な視点を認識することは、依然として人間の専門知識に大きく依存しています。AIは最初の合成のためのツールとして、また比較のポイントとして役立ちますが、人間の経験を理解するためには人間が不可欠です。

データ生成: AIに人間の反応をシミュレートさせるなど、質的データを生成するためにAIを使用することは、本物の経験を誤って表現することにより、研究の完全性を危険にさらす可能性があります。

とはいえ、AIが生成した回答が研究成果を高めるケースもあります。例えば、没入型AIアバターは、医療従事者(HCP)の市場調査において、エンゲージメントを高め、より豊かなインサイトを提供するために効果的に使用されており、特定のコンテキストにおいて実行可能な代替手段を提供しています(AIアバターによる没入型体験でHCP市場調査のエンゲージメントとインサイトを向上させた方法 - Research Partnership)。

www.youtube.com

出典 リサーチパートナーシップ

人間の専門知識を補完するものとしてAIを活用することで、リサーチの深さと完全性を損なうことなく、効率性と拡張性を高めることができます。重要なのは意図性です。AIが得意とする分野ではAIを活用し、一方では人間の強みに頼って人々を真に理解し、人々とつながることです。

戦略その2:文脈と文化に配慮した実施

人間の多様性は、効果的な異文化リサーチとデザインの中心であり、個人間の違い、日常的な文脈、より広範な社会文化環境を理解することは、意味のある洞察を生み出す鍵です。これと同じ原則が、実践やワークフローにAIを慎重に組み込む際にも当てはまります。

AIの導入は、いつ、どのようにAIがそのタスクに適したツールであるかを慎重に検討し、文脈を考慮しながら慎重に行うべきです。AIが特定のプロジェクトの目標を強化するか、あるいは損なうかを決定する上で、コンテキストは極めて重要な役割を果たします。文化的なニュアンス、環境要因、ユーザーのニーズに合わせてAI戦略を調整することで、テクノロジーが目の前の仕事を複雑にするのではなく、補完することができます。例えば

AIを導入する際には、そのツールの能力と限界(コンテキストウィンドウや潜在的な盲点を含む)について十分な情報を得ることが不可欠です。AIプロダクトを設計する組織は、ローカライゼーションとコンテキスト感度の向上を優先し、これらのツールが人間の多様なニーズに効果的に対応できるようにする必要があります。

人間の専門知識とAI主導の手法のバランスを熟考することで、文化的な独自性を尊重しつつ、テクノロジーを活用して理解を深め、有意義なつながりを育むソリューションを生み出すことが可能になります。

戦略その3: プライバシーと同意の実践

効果的なAIの導入には、イノベーションと強固なプライバシーおよび同意の実践とのバランスをとることが必要です。一般的なAIプラットフォームは、ツールのトレーニングのために入力されたデータを保持することが多く、機密性とデータセキュリティに関する懸念が生じます。

Zoomは2023年3月に利用規約を微妙に更新し、反発を招きましたが、8月には撤回し、明確化しました:

Xのスレッド ソース*3

これらのリスクに対処するために、組織は個人を特定できる情報(PII)や専有データを含む機密情報を保護するための明確なポリシーを確立する必要があります(GPT-4oはあなたの個人情報を預けるのに信頼できるか?これらは事前にオープンに共有されるべきです。匿名化や安全なデータ保管といったプラクティスは、最初からリスクを最小限に抑えるのに役立ちます。より大きなコントロールを求める組織にとっては、独自のAIモデルを開発することも検討に値する選択肢です。

透明性は、効果的なプライバシーと同意の実践の基礎です。研究参加者に、同意書や参加資料でAIの使用に関する詳細な情報を提供することで、自分のデータがどのように扱われるかについて、十分な情報を得た上で決定することができます。チームメンバーがAIツールに関する疑問や懸念を共有することを奨励することで、オープンな対話と倫理的説明責任の文化が育まれ、プライバシー慣行が社内の価値観と社外の期待の両方に沿ったものになります。

さらに、ユーザーエクスペリエンス(UX)と人間中心設計の原則をAI技術に適用することで、プライバシーとセキュリティ機能をより透明化し、アクセスしやすくし、権限を与えることができます。これによって、同意がチェックボックスの枠を超え、有意義で十分な情報を得た上でのユーザー体験の一部となることが保証されます(AI同意の難問:私たちは同意する内容を本当に理解しているのか?| ネリア・セバスティアン(EdD)|Medium

これらの戦略を採用することで、組織はAIの実践を倫理基準とユーザーの期待の両方に合わせることができ、信頼と人間の繁栄を促進するツールとシステムを構築することができます。

戦略その4:継続的なAIトレーニングとディスカッション

AIが急速に進化する中、その可能性を最大限に活用するためには、常に情報を入手し、その能力を批判的に評価し、その影響を理解することが不可欠です。チームベースのアプローチでAIトレーニングを行うことで、AIの可能性と限界について学び、オープンに議論することができます。これは、ポリシーを洗練させ、懸念に対処するのに役立つだけでなく、技術の進歩に伴うイノベーションを促進します。

効果的なAI戦略には、AIを使用する際の非開示要件やデータプライバシー要件の維持、偏りや誤った情報を特定して緩和するためのアウトプットの見直し、効率性と有効性を高める方法の発見など、重要なトピックへの取り組みが含まれます。このような対話は、AIが責任を持って生産的に使用されるようにするために不可欠です。

このような取り組みの指針となるのは、ヒューマン・ファーストの哲学です。

組織は、AIが参加者、消費者、顧客だけでなく、社内のチームにも与える影響を定期的に評価する必要があります。

その目的は、AIが有意義な仕事を確実にサポートすること、つまり、人々が新たなスキルを身につけ、創造的で批判的な思考を磨き、目的とインパクトのある仕事に従事し続けることができるようにすることです。AIは、チームの目的意識を守りつつ、より効率的で効果的な仕事ができるようにする必要があります(AI時代に意義ある仕事を見つける|LinkedIn )。

AIのトレーニングと方針は、柔軟で適応性のあるものでなければなりません。テクノロジーが進化したり、限界が明らかになったりした場合、組織はアプローチを再調整し、人間の価値がイノベーションの中心にあり続けるように準備する必要があります。このような考え方を取り入れることで、企業はAIの可能性を活用しながら、ヒューマン・ファーストのサービスを提供することができます。

AIと繁栄促進の機会

この記事では主に、AIが人間の繁栄にどのように挑戦するか、そして私たち研究者やデザイナーがこれらのリスクを軽減するためにどのような戦略をとるかに焦点を当ててきましたが、AIが繁栄を促進する可能性を認識することも同様に重要です。

人間の生活を向上させるという特定の目的を持って開発され、適用された場合、AIは逆説的に、最大のリスクをもたらす分野にも対処し、成長と幸福のための機会に変えることができます。人間の繁栄に貢献するAIについて、私たちが期待しているいくつかの方法をご紹介します:

インクルーシブでアクセシブルなプロダクト: AIは、多様なユーザーと協力し、彼らのニーズを理解することで、プロダクトをより包括的で利用しやすいものにする力を持っています。思慮深く設計された場合、AIは個人の能力、嗜好、アイデンティティに合わせて体験をパーソナライズすることができます(人工知能がアクセシビリティを再定義する方法)。

例えば、AIを搭載した音声アシスタントは、多様な話し方、アクセント、バリエーションを認識するように訓練することができ、コミュニケーションの障壁を取り除き、すべてのユーザーの帰属意識を育みます(声によるデバイス操作: 音声認識におけるAIの壮大な役割 )。

低レベルのタスクの自動化と複雑なタスクの支援: AIは、反復的でやりがいのない作業を戦略的に自動化することで、人々を創造的で意義のある、あるいは戦略的な活動に集中させることができます。ヒューマンエラーを減らし、精神的・肉体的ストレスを軽減することで、AIは私たちの目的意識を守り、生産性を高めます(仕事でAIを使う(避ける)ための究極のガイド)。

逆に、AIは、ブレーンストーミング、デザイン、執筆、アート制作など、より複雑で認知的負荷の高いタスクのクリエイティブアシスタントとしても機能します。私たちの思考を広げ、新たな可能性を引き出すことで、AIはより高度な認知作業やイノベーションをサポートします(創造性はChatGPTのもう一つの征服だった。私たちが考えている以上に計算可能な理由がここにある。| ポール・パラギー博士|Medium)。

ポジティブな行動変容のための洞察: AIを活用したアナリティクスは、行動のパターンを特定し、前向きな変化を促すための実用的な洞察を生み出すことができます。例えば、これらの洞察は、健康や教育のために設計されたプロダクトの改善に役立ち、個人がより効果的かつ効率的に目標を達成できるようにします。

データプライバシーとセキュリティの強化 AIには、異常検知、暗号化、アクセス制御管理などの高度な機能を通じて、データのプライバシーとセキュリティを向上させる可能性があります。ディファレンシャル・プライバシーやフェデレーテッド・ラーニングのような技術は、機密情報を保護するセーフガードを維持しながら、データから価値ある洞察を引き出すことを可能にします。これらのツールを意識的に導入することで、研究参加者や顧客のプライバシーとセキュリティを優先したシステムを構築することができます。

しかし、固有のリスクと課題を認識することは重要です。AIトレーニングはデータを大量に必要とするため、過剰なデータ収集が奨励されることが多く、プライバシーの目的と相反する可能性があります。さらに、AIシステムは複雑であるため、プライバシー保護がアプリケーション間で一貫して維持されることを保証することが困難な場合があります。その結果、プライバシーを重視する文脈でのAIの使用に関連するリスクは、組織が特別な注意と透明性をもって実装に取り組まない限り、潜在的な利益を上回ることがよくあります。

この二重の視点は、慎重な楽観主義の必要性を強調しています。AIは理論的にはプライバシーを向上させることができますが、実際にこのような利点を実現するには、倫理的な設計、強固な規制、データの使用を厳密に必要なものに限定するというコミットメントを優先させる必要があります。これらの検討事項のバランスを取ることで、組織はリスクを軽減し、データ・セキュリティの向上につながるAIの可能性を責任を持って追求することができます。

バイアスのチェック: AIは、人間の意思決定における偏見や盲点を明らかにするための「直感的なチェック」や追加のデータポイントとして機能します。多様なデータセットで訓練されたAIツールは、思慮深い推奨を提供し、プロダクト開発から広範な意思決定プロセスまで、幅広い文脈で価値を提供することができます。

文化的な隔たりを埋める AIが文脈に敏感になるにはまだまだ時間がかかりますが、リアルタイムの言語翻訳や多様なコンテンツのプロモーションにおけるその能力は、すでに文化やコミュニティの壁を埋めるのに役立っています。例えば、AIはより包括的な国際調査を可能にし、グローバルな多様性を称える豊かなデジタル体験を生み出すことができます。

アクセシビリティ、セキュリティ、文化的感受性を優先してAIを意図的に設計することで、つながり、創造性、幸福感を育み、最終的に最も重要な方法で人間の繁栄を促進するために、AIの計り知れない可能性を活用することができます。

まとめと次のステップ

AIは、挑戦と刺激を与えながら急速に進化する、動く目標です。研究者、デザイナー、技術者として、私たちはAIに批判的にアプローチする独自の責任があります。規制、ガバナンス、説明責任の仕組みがまだ形作られていない今、私たちの警戒心と倫理的コミットメントはこれまで以上に重要です。

AIが人間の繁栄を損なうのではなく、むしろ向上させることを確実にするために、実行可能なステップをいくつかご紹介します:

  1. ヒューマン・ファーストのレンズの適用: AIツールが、包括性、透明性、倫理的責任といった価値観にどのように合致するかを継続的に評価します。
  2. AIと人間の専門知識のバランス:人間ならではの深み、共感、ニュアンスを保ちながら、AIの強みを活用します。これは、「ループの中に人間を保つ」という意味で聞いたことがあるかもしれません。
  3. オープンな対話の促進: チームやプロフェッショナル・コミュニティ内で学びを共有し、懸念を提起することで、より良い実践を集団で形成しましょう。
  4. 資料と付録を調べる: 理解を深め、新たなアイデアを生み出すために、本記事全体を通して参照されているリソースや、この後に続く広範な付録を深く掘り下げましょう。
  5. 責任あるAIを提唱する:あらゆるレベルにおいて、人間の幸福を中心に据えた思慮深い規制と設計を推進しましょう。
  6. 会話に参加しましょう: 同僚や友人に話しましょう。上司に相談しましょう。クライアントに相談しましょう。私と話すこともできます。あなたが実践的な洞察を求めているにせよ、これらの戦略を統合することに興味があるにせよ、あるいは単に協力的な方法でこのトピックを探求しているにせよ...他の人と会話することで、これらのアイデアが最前線にもたらされ、私たち全員が人間中心の方法で前進し続けることができるのです。

何十億もの人々が毎日使うプロダクトを形作る研究者やデザイナーとして、私たちは人間をこのテクノロジーの中心に据えておく力を握っています。

意図的に行動することで、AIを衰退させたり分裂させたりするものではなく、高揚させ力づける力へと進化させることができるのです。

本記事の作成に至るまで、文献レビュー、コンテンツ開発、編集、ディスカッションに協力してくれた同僚のケイティ・トロシンと ラトーヤ・タフツに深く感謝します。

ジョシュ・ラマーは、アメリカ、フランス、ブラジル、インドを拠点とする異文化リサーチ&デザインに特化した国際的エージェンシー、Amplinateの共同設立者兼CEO。また、JoshLaMar Consultの最高戦略責任者として、倫理的な競争優位性を通じて起業家のビジネスの成長を支援しています。

付録 参考文献とリソース

人間繁栄のフレームワーク

AIのリスク

AIの限界

AIにおけるバイアス

戦略1:補完

戦略2: コンテキストの把握

戦略3:プライバシーと同意

戦略4:継続的なトレーニン

チャンス

AIの失敗例

*1:訳注:「AIが、この単一の箇条書きを長いメールに変えてくれるから、それを自分が書いたふりができるんだ。」/「AIが、この長いメールを単一の箇条書きに変えてくれるから、それを自分が読んだふりができるんだ。」

*2:訳注:1. 肌が明るい人々の写真では、女性の方が男性よりも「低品質」と評価される割合が高い。 2. 肌が濃い人々の写真では、さらに顕著に女性が男性よりも「低品質」と評価される割合が高い。 3. 肌の色が濃くなるにつれて、男女ともに「低品質」と評価される割合が上がるが、特に女性が影響を受けやすい。

このデータは、自動化された品質評価システムにおけるバイアス(偏り)を明らかにしています。このシステムは、女性や肌の色が濃い人々の写真に対して不公平な結果をもたらす可能性があることを示唆しています。

*3:訳注:Zoomは2023年8月7日に、利用規約の更新について説明しました。この更新では、AI機能と顧客コンテンツの取り扱いについて透明性を高めることを目指しています。特に、利用規約のセクション10.4を更新し、ユーザーの同意なしに音声、映像、チャット内容をAIモデルの学習に使用しないことを明確にしました。これは、ユーザーのプライバシーを尊重し、信頼を維持するための取り組みの一環です。