「現状では不十分」: 動画共有 に関する規制、英国で強化

欧州の各国政府は現在、さまざまな面で米国のテック系プラットフォームへの締め付けを強めている。さらに今回、欧州全体に対する指令として放送局と同基準の規制を動画共有プラットフォームにも求め、遵守しない場合は罰金またはサービスの規制を課すと報じられている

新たに導入されるオーディオビジュアル・メディア・サービス指令(Audiovisual Media Services Directive、AVMSD)では、インスタグラム(Instagram)やFacebook、YouTubeといった動画共有や生配信のプラットフォームで暴力や児童虐待、ポルノといった有害な動画が流された場合、25万ポンド(約3200万円)または収益の5%の罰金が課される。

英国において各プラットフォームへの調査および罰金は英国メディア規制機関オフコム(Ofcom)が実施し、これを遵守しない場合は英国内におけるサービスの規制、または停止の権限も持つ。具体的には検索エンジンでのブロックや経営陣の個人責任を問うといった措置が可能だ。本記事ではそんなAVMSD指令について知っておくべき点をご紹介しよう。

指令の対象範囲は?

詳細部分についてはまだ話し合いが進められている部分も多い。だが、英国デジタル・文化・メディア・スポーツ省の草稿では、動画共有プラットフォームに対して8の対策を求めている。効果の高い年齢認証や通報、保護者管理機能といったシステムだ。これは放送局に対して定められる基準と同一となっている。

また4月には個人をオンラインで保護するための企業責任を定めた規制、オンラインにおける加害行為への対策白書(Online Harms White Paper)が定められており、動画共有プラットフォームはこれも遵守しなければならない。「オンラインにおける加害行為」は正式な機関が動き出すまで、暫定的な規制機関としてオフコムが同規制の執行を担当する。

どのような影響が考えられる?

エージェンシー関係者らは、プラットフォームは今後より積極的なコンテンツ管理が求められるため、さらに多くの人的および技術的なリソースをコンテンツの監視に割く必要があるとしている。さらに進捗についても年次報告書をまとめなければならない。

ドイツではすでに同様の法律が制定されている。同国ではプラットフォームがヘイトスピーチや名誉毀損、フェイクニュースといった違法コンテンツを通報から24時間以内に削除しなかった場合、規制機関に罰金を課されるおそれがある。いまのところ同法律に関しては表現の自由を訴える活動家らが懸念を表明しているものの、上々な滑り出しを見せている。

デジタルアルゴリズムの仕組みについて政府が詳細に把握していないという懸念も指摘されているが、こうした介入はいまや不可避だいうのが業界専門家の共通見解だ。広告業界における非倫理的な行為に対抗する70以上の組織によって構成されているコンシャス・アドバタイジング・ネットワーク(Conscious Advertising Network)で共同議長を務めるジェイク・ダビンズ氏は、次のように述べている。「政府の介入があまり実効性を伴わないおそれもあるが、いずれにせよ現状は改善せねばならない」。

放送各局はこれまで、テック系プラットフォームが広告プラットフォームとして「テレビ的な環境」であるにもかかわらず自分たちのような規制に縛られていないことに不満を表明してきた。エージェンシー役員らは、今回の規制によってテック系プラットフォームのリスクは低減するため、広告主からのさらなる投資を呼び込むだろうと指摘している。

ある持株会社のエージェンシー役員は匿名を条件に次のように明かしている。「ここ12カ月で当社と取引するブランドの95%が、当社のブランドセーフティ対策と、ブランドセーフティにおける許容度を判断するパラメータについて尋ねてきた。だがブランドセーフティについて一意的な定義は存在しない」。

プラットフォーム上におけるブランドセーフティへの懸念は薄らぎつつある一方で、問題が進行しつつある分野も存在する。

「Facebookやインスタグラムで(不適切なコンテンツが)近くに表示される問題が拡大している。両プラットフォームとも個人のフィードをより重視するようになっているためだ。問題は混迷を深めている」と語るのは、グループ・エム(GroupM)のソーシャル部門のグローバルリーダーでマネージングパートナーを務めるキーリー・テイラー氏だ。解決策のひとつとして、同分野ではサードパーティの認証ベンダーが役立つと見られている。

なぜAVMSDの導入に至ったのか?

テック系プラットフォームで有害コンテンツが拡散しているにもかかわらず、プラットフォームが責任を問われないケースがあまりにも多発してきた。3月にはFacebookにニュージーランドのクライストチャーチで起きた銃乱射事件の動画が載せられ、削除されるまでに4000回以上再生される問題が生じている。1月には、当時14歳だったモリー・ラッセル氏の自殺報道において、同氏がインスタグラムで自傷に関するコンテンツを閲覧していたこととの関連性が指摘されている。それらに関して、広告主役員の目からすれば、いずれのプラットフォームの自主規制も不十分なのだ。

「プラットフォームにもっとも早く対応を迫る方法は、法令によるプレッシャーだ」と、テイラー氏は指摘する。「規制に対応しない場合、デューデリジェンスによって問題の原因を取り除く以上に収益へ悪影響が発生する」。

これからどうなる?

今後は詳細を詰めていく段階になる。たとえば年齢認証におけるより厳密な制限や、プラットフォームがコンテンツ削除するまでの時間制限、サービスのブロック方法などだ。

「提供するデータの種類と、それが年齢認証に及ぼす影響といった解決すべき問題もある。これはたとえ認証を行うのが信頼できるサードパーティであっても避けて通れない」と、ダビンズ氏は指摘する。

AVMSD指令が適用されるのは2020年9月以降だが、テック系プラットフォーム、そして英国内におけるテック系業界を代表するテックUK(TechUK)やインターネット協会(Internet Association)は、政府と対話を重ねて今回の規制が具体性を帯びた公平な内容となっているか確認を続けている。

Lucinda Southern(原文 / 訳:SI Japan)