Googleは、特定の個人をターゲティングせずにパーソナライズされた広告を実現するFLoC(Federated Learning of Cohorts:コホートの連合学習)を提案しているが、この手法は、欧州でプライバシー […]
Googleは、特定の個人をターゲティングせずにパーソナライズされた広告を実現するFLoC(Federated Learning of Cohorts:コホートの連合学習)を提案しているが、この手法は、欧州でプライバシー面でのハードルに直面し、試用が遅れている。だが、AIベースのFLoCのテストが米国などで実施されるなかで、テック業界や学界、さらには米国政府関係筋内でも、FLoCの潜在的な差別的かつ有害な影響について、懸念が高まってきた。
Googleは3月30日、オーストラリア、ブラジル、カナダ、インド、インドネシア、日本、メキシコ、ニュージーランド、フィリピン、米国で、同社のChromeブラウザを利用している比較的少数のユーザーのあいだで、FLoCのテストを開始した。
初期テストが進むなか、データ倫理の研究者やプライバシー擁護派のほか、一部のアドテク業界関係者さえも、FLoCのデータが、個人を特定できる情報と結びつけられて、人々のウェブページ訪問や関心についての情報が、悪質な行為者(および広告主)にさらされかねないと心配している。また、コホートベースのターゲティングが、特定層に対して意図的に害を与えたり差別したりするのに利用されかねず、FLoCが、意図された倫理的に健全な目的を果たさずに、アルゴリズムによる人々の分類につきものの問題を悪化させる一方になると懸念している。
Advertisement
注目すべきは、長年にわたるGoogleによる支配と闘ってきたアドテク企業やデジタル広告企業だ。こうした企業には、GoogleがサードパーティCookieを用いてトラッキングやターゲティングを行うことを時代遅れなものにしようと計画している代替機能考案への同社の取り組みを妨害する動機がある。
米DIGIDAYがGoogleに、FLoCのアルゴリズムが持つ潜在的に有害な影響を評価する社内での取り組みについて尋ねたところ、この数カ月間その問題に取り組んできた、と同社は回答した。「慎重に扱うべきカテゴリー」が確実にブロックされるように、コホートベースのアルゴリズムを広範にテストし、それらを再定義することで、慎重に扱うべき問題との相関関係をなくしてきたという。この作業にはGoogleリサーチ(Google Research)や機械学習モデリングチームなど、社内の複数のチームが関わっているという。
学界と政府による調査
3月下旬に開かれた米下院エネルギー・商業委員会の偽情報をめぐる公聴会で、ニューヨーク州選出のイベット・クラーク米下院議員は特に、GoogleのCEO、サンダー・ピチャイ氏に対し、FLoCと、機械学習アルゴリズムの潜在的な偏りやさまざまな影響に対する同社のこれまでの取り組みについて質問した。「それが遅れれば遅れるほど、Googleが構築したこれらのシステムが、アルゴリズムに差別をより一層織り込んでいくことになる」とクラーク議員は述べ、同議員からの質問を受けたピチャイ氏は、GoogleはFLoCの開発において、「慎重に扱うべきカテゴリー」に基づく分類を禁じる同社のAIの原則を適用する予定だと回答した。
FLoCの手法は、「プライバシーサンドボックス(Privacy Sandbox)」構想を通じてGoogleが推進してきた、広告のターゲティングおよび測定をめぐる多くの取り組みのひとつだ。ブラウザに組み込まれたアルゴリズムのプロセスを頼りに、最近訪問したサイトや閲覧したページの内容などに基づいて、数千人単位の集団、すなわちコホートを構築する。プライバシー保護のため、Chromeは、個人レベルのデータを含めずに、FLoC IDをコホートに割り当てる。たとえば、インテリアデザインに興味がある人のためのFLoCがあったとすると、そのコホートに属する人には同じFLoC IDが付与されるが、同時にその人たちには、彼らが振り分けられたほかのコホートのIDも付与することが可能だ。
FLoC IDは、数日以内に訪問したウェブページに基づいた興味を反映するように割り当てられるので、IDは定期的に変更される。Googleは、自社のデータ、機械学習モデル、予測分析を用いて、FLoC IDが意味するところに基づき、それらのコホートに属する人々が何に興味をもっているかを広告主が評価できるようにする。ただし、広告主がどういう形でIDにアクセスできるようになるのかは不明だ。
プリンストン大学や南カリフォルニア大学などの大学の学術研究者たちは、システムの仕組みや、差別および意図せぬプライバシー侵害の可能性を理解するために、FLoCを徹底的に調べ始めている。また、プライバシー擁護派もFLoCを批判している。
「Googleが今言っていることは、(Googleは)個人データを有していないということだが、それは一時的なものだ」と語るのは、非営利研究団体ワールド・プライバシー・フォーラム(World Privacy Forum)のエグゼクティブディレクター、パム・ディクソン氏だ。懸念材料のひとつは、Chromeブラウザを使用しない限り、人々がどのようにしてFLoCのターゲティングをオプトアウトできるようになるのかが不明な点だ。「そうしたカテゴリーから自身をFLoCの対象外にできない」とディクソン氏はいう。同氏は、置き換えられるよう意図されているサードパーティCookieベースのターゲティングよりも、ある意味で「不当」だと示唆した。他者も警告しているように、差別的な形で人々を分類し、ターゲティングが行われる可能性があるからだという。
非営利団体の電子フロンティア財団(Electronic Frontier Foundation:以下、EFF)は、これまで特にFLoCに批判的で、コホートベースの分類によって現行のトラッキング手法がさらに強力になると主張している。「FLoCの識別子は、(広告主が)すでに持っているものに追加できる新たな情報の塊になるだけだ」と、EFFのスタッフテクノロジスト、ベネット・サイファーズ氏は語る。
サイファーズ氏によると、Google Chrome自体が禁じているフィンガープリンティングを採用しているアドテク企業などは、FLoC IDの恩恵を受ける可能性もあるという。簡単に言うと、フィンガープリンティングは、デバイスに関する多様な個々のデータを利用して、識別情報を解読する。「FLoC IDは、プロフィールの新たなデータポイント、それも特に強力なデータポイントになるに過ぎない」と同氏は指摘する。3月のEFFの投稿で、サイファーズ氏は、「FLoCのコホートからトラッキングが始まれば、そのブラウザをほかの(数億ではなく)数千のブラウザと区別するだけでいい」
W3Cで検討中
研究者はGoogleの初回テストからFLoCの仕組みについてより多くのインサイトを得られるため、W3C(ワールドワイドウェブ・コンソーシアム)がFLoCの標準を策定する方向に動いた場合、テスト結果が考慮に入れられるだろう、とW3Cの戦略リーダー兼カウンセル、ウェンディ・セルツァー氏は語る。「重要な調査だと思う。技術の社会的影響を懸念しているため、W3Cが標準策定に移行する際に考慮すべき点や疑問点を伝えるのに役立てたいと思っている」。セルツァー氏は、W3Cがホストしている「プライバシーサンドボックス」プロセスが依然として初期段階にあることもあり、それ以上の詳細は明らかにしなかった。
FLoCについては、特定可能な既存のプロフィールをより強化することを研究者が懸念しているだけでなく、悪意を持つ者がFLoCのターゲティングを利用して社会的弱者を攻撃する可能性があると心配する者もいる。
アドテク企業クリテオ(Criteo)で機械学習専門シニアエンジニアを務めるバジル・ルパルメンティエ氏は、FLoCに関するW3Cの1月の投稿で、アイルランドのLGBTQの若者が、マッチングアプリでLGBTQを装う者たちに攻撃された極端な例について言及した。「攻撃者は容易に、被害を与えようとしているグループのメンバーのブラウジング履歴をエミュレートして、対象者が振り分けられているFLoCを確認することができる」と、同氏は書き、悪質な人物は、同じFLoC IDを持つ人物に関する、個人を特定可能な情報を組み合わせることができると指摘した。「『攻撃者』は、特定のユーザーにアクセスできなくても、このFLoC IDを望む任意の方法で標的にできる」。
Googleが、「慎重に扱うべきカテゴリー」をブロックする取り組みの詳細を明らかに
3月28日の週に、GoogleはW3Cのグループに対して、プライバシーサンドボックスの広告技術の開発とテストに焦点を当てた文書を提出した。Googleはその文書で、FLoCが生成するコホートが、慎重に扱うべき特性と関連付けられないようにする自社の取り組みを詳説している。文書では、たとえば、強力なプライバシー保護機能を提供する一方で、慎重な扱いの必要性に関する閾値を利用して、少数の慎重に扱うべきコホートをブロックする計画を文書で説明している。
Googleが定義する、コホートを生成するには感度が高すぎるウェブページとは、同社の既存の広告ポリシーに基づいている。既存の広告ポリシーでは、人種、民族、信仰する宗教、所属政党、性的関心や、健康や医療上の問題、犯罪記録といった個人的な苦難を反映するカテゴリーに関連付けられた広告ターゲティングを禁じている。
AIの倫理に関するGoogle独自の取り組みは、何年も物議を醸してきた。2019年に人工知能(AI)倫理委員会の委員に選んだ特定の人物に対する批判を受けて、同委員会を解散した。最近では、AI倫理研究者のティムニット・ゲブル氏に対し、GoogleのAI技術に批判的な研究論文を撤回するよう求めたあと、同氏を解雇し、激しい反発を招いた。
Googleの文書は、「慎重に扱うべきカテゴリー」への自社の取り組みは、「もっとも差し迫った問題を回避するものだ」と説明している、とEFFサイトへの3月30日の投稿でサイファーズ氏は述べている。「特定の層は、ほかの層とは異なるウェブのサブセットを訪問する可能性が高く、そうした行動は、Googleの『慎重に扱うべきサイト』の枠組みでは捉えられない」。
「一方、トラッキング企業は、大勢のユーザーのトラフィックを収集し、ユーザーの層や行動についてのデータに関連付けて、どのコホートが、慎重に扱うべきどの特性に結びついているかを解読することができる。Googleのウェブサイトベースのシステムは、提案されているように、それを阻止するすべがない」。
KATE KAYE(翻訳:矢倉美登里/ガリレオ、編集:長田真)