EU、MetaにDSA違反の予備認定——子ども保護不足で数十億ユーロ制裁も
FacebookとInstagramで13歳未満の利用が横行、欧州委が是正を要求
FacebookやInstagramを傘下に持つアメリカのテック大手Metaが、欧州当局から厳しい視線を向けられている。欧州委員会は、Metaが13歳未満の子どもによるプラットフォームの利用を十分に防いでいないとして、予備的違反認定(暫定的な違反通知)をMetaに送付した。2024年に開始された調査の結論として示されたもので、Metaがこれに対して十分な反論や是正策を示せなければ、年間売上高の最大6%、数十億ユーロ規模の制裁金が科される可能性がある。
子どもが容易にアカウントを作れる構造的問題
欧州委員会が問題視するのは、主に二つの点だ。一つ目は、年齢確認の仕組みの脆弱さである。FacebookおよびInstagramでは独立してアカウントを管理できる最低年齢を13歳と定めているが、生年月日を偽ることで13歳未満の子どもでも簡単にアカウントを作成できる状態が続いている。欧州委員会が示した調査によれば、欧州の13歳未満の子どものうち10〜12%がすでにMetaのプラットフォームに何らかのアカウントを持つとされる。二つ目は、未成年アカウントの削除対応だ。通報・報告の仕組みが利用者にとって不必要に複雑で、実際に報告が行われてもMetaが十分な対処をしていないと委員会は指摘している。
DSAが根拠、TikTokも先行して警告を受けた
今回の調査と通知は、2022年に施行されたEUのデジタルサービス法(DSA)に基づくものだ。DSAは大手テックプラットフォームに対して、ユーザー保護のための体系的なリスク管理を義務づけており、違反には厳しい罰則が設けられている。欧州委員会はすでに今年初め、TikTokに対しても「極めて中毒性の高い設計がEU規則に違反している」としてDSAに基づく警告を発しており、MetaへのアクションはTikTokに続く二例目となる。委員会はMetaに対し、子どもをプラットフォームから排除するための新たな戦略の策定と、未成年アカウントを削除するためのより実効性の高い手段の開発を求めている。Metaは現在、調査結果に対して反論を行う機会が与えられている段階だ。
未成年者保護はEU政策の最前線に
欧州委員会が未成年者のSNS利用規制を主要政策課題と位置づけているのは明らかだ。今月初めには、ユーザーが有効な身分証明書で本人確認を行うことを前提としたオンライン年齢確認アプリの構想も発表されており、年齢偽装そのものを技術的に防ぐ仕組みの整備も進められている。在蘭の子どもを持つ家庭にとっても、この動きは無縁ではない。オランダでも子どものSNS依存や有害コンテンツへの露出は社会的な関心事であり、EU規制の強化が実際の利用環境の変化につながるかどうか、今後の欧州委員会とMetaの交渉の行方が注目される。
情報源: NOS Algemeen


/s3/static.nrc.nl/images/gn4/stripped/data147562008-0eb5db.jpg)

