【翻訳】YouTubeのレコメンドの倫理観を考える(Alexis C. Madrigal, The Atlantic, 2018)

www.theatlantic.com

もしあなたが平均的なYouTubeユーザーでないならば...

水曜日に発表されたPewリサーチの調査によると、YouTubeに投稿されたすべての動画の中で、今このプラットフォームが最もレコメンデーションしている動画があるといいます。その動画は "Bath Song | +More Nursery Rhymes & Kids Songs - Cocomelon (ABCkidTV)" と呼ばれるものです。YouTubeは、ピューが追跡した696,468回の提案のうち650回以上レコメンドし、2位のマルーン5の「Girls Like You」のビデオ(カーディ・Bをフィーチャー)を大幅に上回りました。

この研究では、YouTubeの世界を174,117回ランダムに遷移し、ソフトウェアを使って、最初にランダムな動画を選択し、その後に推薦された上位5つの動画の中から自動的に選んで、数十万件のサジェストを生成しています。各Youtubeジャーニーでは、おすすめビデオが4回順番に選択されました。これは、世界で最も重要なアルゴリズムシステムの1つを探求するための、完全ではないにせよ魅力的な方法論であり、ユーザーはおろか研究者にもほとんど不透明なままでした。

最も多く推薦された10件の投稿では、子供向けの動画が上位を占めました。"Bath Song" には、"Learn Colors with Spiderman 3D w Trucks Cars Surprise Toys Play Doh for Children", "Wheels on the Bus | +More Nursery Rhymes & Kids Songs - Cocomelon (ABCkidTV)", そして "Learn Shapes with Police Truck - Rectangle Tyres Assemby - Cartoon Animation for Children" が続きました。いずれもキーワードサラダ的なビデオタイトルで、親にとってはともかく、アルゴリズムにとっては意味があるらしいのです。しかし、拡大してみると、このレコメンデーションは奇妙に見えます。なぜアルゴリズムは、YouTube上のすべての子供のコンテンツのうち、これらの特定のビデオをサポートする必要があるのでしょうか?

しかし、ズームアウトしてみると、おそらくYouTubeがより関心を持つであろうレベルで、粗削りな部分が解消されます。トップ50の推薦のうち、43は音楽ビデオ(14)、子供向け(11)、テレビ番組(11)、ライフハック(7)でした。

YouTubeは、人々が好むものを勧めたいと考えており、その最も明確なシグナルは、他の人々がそれを好きかどうかということです。ピューは、推薦の64パーセントが100万回以上再生されたビデオであることを発見しました。YouTubeが最も頻繁に推薦する50のビデオは、それぞれ平均4億5,600万回再生されています。人気は人気を生む、ということでしょう。少なくとも、YouTubeがよく知らないユーザー(あるいは今回のようにボット)の場合はそうだと言えます。

一方、YouTube過去にそのアルゴリズムを説明する際に、ユーザーはより新鮮なコンテンツを好み、それ意外のすべては同じであることを述べています.。しかし、ある投稿が膨大な再生回数を記録し、アルゴリズムに宣伝する価値があるというシグナルを送るには時間がかかります。そこで課題となるのが、「ユーザーが見たい新しい動画」を、その動画がシステムにとって新しく、再生回数が少ない場合に、どのように推薦するかということです。(新鮮で話題になりそうな動画を見つけることは、「バイラルコンテンツを伝播させる」ために重要であると、YouTubeの研究者は書いています)。

Pewの調査はこれを反映しています。レコメンデーションの約5パーセントは、50,000未満のビューを持つビデオにも及びました。このシステムは、動画の初期のパフォーマンスから学習し、それがうまくいけば、再生回数が急速に伸びる可能性があるということでもあります。ある事例では、強く推薦された子供向けビデオが、7月にピューが初めて出会ったときには34,000ビューだったのが、8月には3,000万ビューになったということもありました。

このシステムの挙動は、他のいくつかの点でも説明可能でした。特に、YouTubeのシステム内部でより多くのクリックを行うように適応していったことが挙げられます。まず、Pewのソフトウェアが選択を行う際、システムはより長いビデオを選択しました。まるで、ユーザーがしばらく滞在することを認識し、より長い動画を提供し始めたかのようです。第二に、開始時のビデオの人気度に関係なく、より人気のあるビデオをレコメンデーションするようになりました。

これらの条件は、アルゴリズムによる意思決定にハードコーディングされていないことはほぼ確実です。YouTubeは、ほかのGoogleの姉妹会社の多くと同様に、ディープラーニングニューラルネットワークという、入力されたデータに基づいて出力を再調整するソフトウェアを使用しています。YouTubeのエンジニアが「もっと長くて人気のある子供のビデオを見せよう」と言ったのではなく、YouTubeが望むすべての次元に沿って最適化されることをシステムが統計的に推論したのです。

ただし、Pewの研究には、重要な限界があります。YouTubeは、ユーザーの履歴に基づいてレコメンデーションを大幅にパーソナライズしており、これを全面的にシミュレートすることは不可能です。Pewがテストしたのは、YouTubeが匿名のユーザーに対して提供するレコメンデーションです。しかし、ほとんどのYouTubeユーザーはログインしており、視聴履歴に基づいたレコメンデーションを受け取っています。タフツ大学でレコメンデーションシステムを研究している人類学者のニック・シーヴァーは、この研究は、匿名ユーザーが一種の「基本線」を生成し、パーソナライゼーションはその周辺を修正するだけだと仮定している、と述べています。

「パーソナライゼーションの仕組みを考えると、それは合理的な前提とは思えません」とシーバー氏は言います。

次に、YouTubeが推薦した動画の70%以上は、一度だけリストに表示されました。それぞれの動画についてこれほど限られたデータしかないのに、何十万もの動画がそれぞれの最初のランダムな動画にどのようにつながっているかを調べることは不可能です。

そのため、Pewの調査ではいくつかの重要な疑問が未解決のまま残されています。人々は、Zeynep Tufekci教授が示唆したように、「YouTubeが定期的にそのレコメンデーションで人々を過激化するかどうかを知りたがっています。この研究は、YouTubeが匿名ユーザーを、より過激なコンテンツではなく、より人気のあるコンテンツに押しやることを示唆しています。しかし、視聴履歴が蓄積している一般的なYouTubeユーザーには当てはまらないかもしれません。

また、この研究は、過激化についてのTufekciの議論に対する反証では決してありません。たとえ、過激化よりもむしろ人気作への押し上げを示しているとしても、それこそがパーソナリゼーションによって変化するものだからです」とシーバーは述べています。

例えば、数週間前にMSNBCの司会者であるChris HayesがTwitterで流したスレッドは、連邦準備制度に関する情報をYouTubeで検索するとどのようなことが起こるかを示しています。


YouTubeアルゴリズムがいかに情報弱者であるかを示す例として、私が最も気に入っているのがこれです:まず、あなたは高校1年生で、連邦準備制度に関する課題を出されたとします。

YouTubeでいつも動画を見ているあなたは、家に帰ってからYouTubeの検索バーに「連邦準備制度」と入力します。そうして最初に出てきた動画がこれです(再生回数160万回)

https://youtu.be/5IJeemTQ7Vk *1

おそらく驚くには値しないと思いますが、これは陰謀論的なヤラセ動画です。それを表示してみると、次にアルゴリズムがサイドバーでこんなものも示唆しています。「アメリカ建国について知ってはいけないこと」 (863,00再生)

「若い頃マルクス主義者の組織に潜り込んだ」「マルクス主義者はメディアに潜り込んでいる」という主張をしている人が行うジョン・バーチ協会の講演会です。

そして、世界的な共産主義奴隷制度廃止論者の両方の背後にイルミナティがいることについて、複雑な講義を行います。チャールズ・サムナーとホレス・グリーリーは共産主義者であり、南北戦争共産主義者のテロリスト、ジョン・ブラウンが始めた共産主義者イルミナティの陰謀であったそうです。

それを見たあとに、アルゴリズムによって都合よく据えられたこの動画をクリックすればいいのです。トランプは、誰がイルミナティを作ったか正確に皆に伝える(400万再生) https://youtube.com/watch?v=SxCsqk-OlRE *2

これにとどまらず、もっともっといろいろあります。全ては、誰かが純粋な気持ちで連邦準備制度に関する基本的な情報を検索することから始まります。これは2、3回のクリックで終わることができるのです。そして、それがYouTube にお金をもたらしているのです。何かが深く腐っているのです。


YouTubeのパーソナライゼーションの性質上、本当のレコメンデーションを定量的に追跡することは非常に困難です。YouTubeのおかしなウサギの穴(())に落ちる可能性は確かにありますが、YouTube自身がどれくらいの頻度でそこに導くかは、まだ熱い議論が続いています。

子どもたちに関連することとして、疑問が生じます。YouTubeは、PBSのビデオから不適切なものへと子どもを誘導することがよくあるのでしょうか?80パーセントの親が、少なくとも時々は子どもにYouTubeを観せているとPewに答え、そのうちの60パーセント以上が、子どもが "YouTubeで子どもにふさわしくないと感じるコンテンツに出会った "と回答しているのです。

11月に雑誌で紹介した「子ども向けYouTube」の取材では、こうした問題提起に対する同社の回答は、「YouTubeは子ども向けではない」というものでした。子どもたちは、安全な空間として作られたYouTube Kidsアプリだけを使えばいい、と。そして、Pewの調査をめぐって、「子供と家族を守ることは、常に私たちの最優先事項です」と、このセリフにこだわったのです。「YouTubeは子供向けではないので、子供向けに特別に設計された代替手段を提供するために、YouTube Kidsアプリの作成に多大な投資をしてきました。」とも言っています。

YouTubeはバーの外に子供向けではないという看板を出し、隣の遊び場を指差しているが、それなら誰が来てもサービスしてくれるでしょう。彼らのシステムがどのように機能するかについて、私たちがほとんど知らないことを考えると、それで十分なのでしょうか?

そうではいけないと社会が判断したとしても、まだ疑問は残ります。YouTubeにこれ以上、子どもを排除するようなことをさせることができるのは、一体誰なのでしょうか?

*1:訳者注:現在削除済み

*2:訳者注:現在削除済み