米アップルが先ごろ発表した、スマートフォン「iPhone」などの同社製機器に導入する児童ポルノ検知機能が物議を醸している。
全米行方不明/被搾取児童センターに報告
子供を性的搾取から守り、「CSAM:Child Sexual Abuse Material」と呼ばれる児童性的虐待コンテンツのまん延を防止する目的で導入するものだが、これがプライバシー侵害や市民への監視強化につながりかねないと、プライバシー擁護団体やテクノロジーの専門家などが懸念を示している。
アップルは2021年8月5日、年後半にリリースする基本ソフト(OS)にこの機能を導入するべく米国の一部の利用者を対象に試験を始めたと明らかにした。
iPhoneなどから写真をアップルのクラウドサービス「iCloud」にアップロードする際、当該写真を児童ポルノに関するデータベースと照合して問題のある写真を特定する。システムが一定数を検知すると、アップルの担当者が写真を確認し、ユーザーのアカウントを停止。全米行方不明/被搾取児童センターであるNCMEC(National Center for Missing & Exploited Children)に報告する。
新機能は米国のユーザーを対象にしており、年内にリリースする予定の「iOS 15」「iPadOS 15」「watchOS 8」「macOS Monterey」に含まれる、とした。
本記事は、「Yahoo!ニュース 個人」向けに弊社が執筆した記事「iPhoneの写真を検閲?児童ポルノ検知機能が物議醸す」の一部です。全文は、Yahoo!ニュース 個人のサイトにてお読みください。