米アップルは、スマートフォン「iPhone」などの同社製端末で導入を予定していた児童ポルノ対策機能の計画を延期する。米ウォール・ストリート・ジャーナルなどが9月3日に報じた。プライバシー侵害のリスクが生じると擁護団体などが懸念を示していたという。
アップルは声明で、「顧客や権利擁護団体、研究者などの意見を基に、今後数カ月さらに時間をかけて情報収集や改善に取り組むことを決めた」と説明した。具体的な導入時期については明らかにしていない。
児童性的虐待コンテンツを検知
アップルは、子供を性的搾取から守り、「CSAM:Child Sexual Abuse Material」と呼ばれる児童性的虐待コンテンツのまん延を防止する取り組みを進めている。2021年8月には、年内にリリースする基本ソフト(OS)の新版にこの機能を導入するべく米国の一部の利用者を対象に試験を始めたと明らかにしていた。
具体的には、iPhoneなどから写真をアップルのクラウドサービス「iCloud(アイクラウド)」にアップロードする際、当該写真をCSAMの画像データベースと照合して問題のある写真を特定する。システムが一定数を検知すると、アップルの担当者が写真を確認し、利用者のアカウントを停止。全米行方不明/被搾取児童センターであるNCMEC(National Center for Missing & Exploited Children)に報告する。
新機能は米国の利用者を対象にしており、年内にリリースする予定の「iOS 15」「iPadOS 15」「watchOS 8」「macOS Monterey」に含まれるとしていた。
本記事は、日本ビジネスプレス社のサイト「JBpress(日本ビジネスプレス)」向けに弊社が執筆した記事「物議醸す児童ポルノ対策、iPhoneへの導入延期」の一部です。全文は、JBpress(日本ビジネスプレス)のサイトにてお読みください。