Facebook幹部に聞いた、広告プラットフォーム浄化の内情

Facebookは1月9日、ラスベガスで開催されたCESにおいて、グローバルマーケティングソリューション担当VPキャロリン・エバーソン氏が主導する四半期に約1回のチェックインのひとつとして、クライアント会議を開いた。こうした会議の機会に、トップマーケターやエージェンシー幹部によるFacebookの私設諮問グループがFacebookにフィードバックをして、Facebook側はプロダクトの最新情報を提供する。

Facebookの2018年は議論がたっぷりあったので、話すことはたくさんあったはずだ。

Facebookが最初に招集した2011年以降、「年に4回とほぼ毎回」出席しているという、同社の広告およびビジネスプラットフォーム担当のVPであるマーク・ラブキン氏が今回の会議に先立ち、インタビューに答えてくれた。9日の会議で議題になるかもしれない具体的な分野については語らなかったが、乱用の抑制やブランドセーフティを巡る懸念の軽減のため、Facebookが広告プラットフォームの浄化にどのように取り組んでいるのかといった質問に答えてくれた。

ラブキン氏はまた、プロクター・アンド・ギャンブル(The Procter & Gamble)のマーク・プリチャード氏などマーケターがFacebookなどのプラットフォームに要求しているデータの透明性の向上とプラットフォーム横断の測定に取り組むため、「プライバシー面で本当に安全なクリアリングハウス方式のソリューション」をFacebookがどのように考えているのかについても語ってくれた。

ストーリー広告

いまマーケターたちと議論すべきFacebookの最大のテーマは、ストーリー広告だとラブキン氏は語った。Facebookは、Snapchat(スナップチャット)のストーリー製品をまずインスタグラムで模倣して以来、この縦長の全画面動画広告の推進を強め、FacebookやMessenger(メッセンジャー)にも広げている。また、CESにやってくるマーケターがタクシーの列に並ぼうと空港を出る際に目に留まるよう、マッカラン国際空港の自動ドアにもストーリー広告を宣伝する広告を掲載している。

データの透明性

マーケターはP&Gのプリチャード氏のように、ブランドの広告がFacebook、Google、その他のプラットフォームで見られた総数をもっとよく知りたがっている。広告の頻度が高すぎることで嫌がられたり、あからさまにインターネット中をつけ回していると気味悪がられたりすることがないようにしたいのだ。しかしそれには、こうしたプラットフォームを合計した広告露出の全容を広告主が把握するのに使えるようなデータを、Facebookなどのプラットフォームにもっと提供してもらう必要がある。

アイクロッシング(iCrossing)の最高メディア責任者のジェフ・ラトナー氏は、「測定と重複を排除した頻度については、実際に一歩後退していると感じている。Facebookからのデータを見て、Googleからのデータと対比することはできない」と語った。

データの透明性とクロスプラットフォーム測定の向上を広告主側が要求している点について、ラブキン氏は、「プライバシー面で実際に安全なクリアリングハウス方式のソリューションの検討」をFacebookは進めていると語った。しかし、この1年だけでも、ケンブリッジ・ アナリティカのスキャンダルデータ侵害とプライバシー面の失敗が続いており、Facebookがすでに共有しているデータでさえ人々や規制当局が警戒するなか、Facebookがさらなるデータを広告主に提供するのは簡単なことではないだろう。「拙速にはできない。適切にやる必要がある」と、ラブキン氏は話す。

Facebookが検討している「クリアリングハウス方式のソリューション」について、ラブキン氏は詳しく語ることを拒否した。ラブキン氏は、「データの浄化、収集、匿名化、ハッシュ化、そしてたとえば第3のパートナー――コムスコア(comScore)やニールセン(Nielsen)のような昔からの大手パートナーでも、そうでなくてもよい――との協力が、どのような形で可能なのかがわかってきたところであり、こうしたピースを実際に機能する形でどうまとめるのかを考え出そうとしているところだ」と語った。

広告プロダクトの悪用

近年、広告プロダクトによってFacebookがフェイクニュースの宣伝特定グループへの差別に使えるようになっていることが繰り返し発覚している。実例は積み上がっている。広告プラットフォームがどう悪用される可能性があるのかを把握し、プロダクトを提供する前にそうした乱用を防ぐ対策を取れるのかが問題になっている。

ラブキン氏によると、Facebookはこの2年間、「プロダクトの各部分を構築する各チームの中心的な仕事の一環」として、Facebookが乱用される可能性に取り組んできた。Facebookの広告測定チーム、広告ランキングと配信のチーム、ターゲティングのチーム、インターフェイスのチーム、いずれのチームにも、悪用や乱用を防ぐため透明性とコントロールに取り組むのが任務の人員がいる。「そして、(広告プラットフォームの)セキュリティと信認の保全に全般的に取り組む、大きなビジネス信認チームが私のところにある」とラブキン氏。加えて、挙げてきたチームとは別に、製品に近いチームが見過ごしがちな方法で乱用される恐れがないか、Facebook製品の詮索を仕事とする、いわゆる「レッドチーム」がFacebookにはある。

ブランドセーフティ

Facebookは、パブリッシャーや個人クリエイターの動画に添えるプレロールやミッドロールの形の動画広告を増やしており、YouTubeのブランドセーフティ問題のようなものがFacebookでも表面化するのではないかという、広告主が抱く懸念に向き合う必要がある。

Facebookはどこに動画広告を流すのかを十分にコントロールできないという懸念から、Facebookのプレロール広告とミッドロール広告をまとめて避けるバイヤーも出てきている。Facebookは、広告が流れるかもしれないパブリッシャーとクリエイターのリストを広告主に提供し、個々のパブリッシャーやクリエイターを広告主がブロックできるようにしている。また、Facebookがとりわけ視聴が多くブランドに安全だと考える200チャンネルに広告を制限する「インストリーム・リザーブ(In-Stream Reserve)」という広告購入プログラムを展開している。

しかし、このようにチャンネルレベルのコントロールを実施していても、ブランドに安全なチャンネルが例外的に投稿するかもしれない不快な個々の動画については、Facebookが取り除くことを信頼するしかない。「動画レベルでは、内容分析と点検を実施している。私の知る限り、システムは全般的にうまく行っており、かなり満足している。ただ、精度の最新の詳細については、私は把握していない」と、ラブキン氏。「この部分に取り組むたくさんの人員」の採用をFacebookは進めており、「Facebookの重要なプロダクト開発分野になっている」と、同氏は続けた。

ラブキン氏によると、FacebookはYouTubeと同じく、人間とコンピューターを組み合わせた点検を通じてブランドセーフティに取り組んでおり、まずいくつかの動画について人間に判断をさせ、そのうえで人工知能を使って、その判断を人間が点検できる範囲でより多くの動画に拡大して適用している。もちろん、フェイクニュース問題についても、Facebookは同じような方法で取り組んでいる。

Tim Peterson (原文 / 訳:ガリレオ)