Apple、iPhoneに搭載される児ポ発券システムの導入を延期「プライバシーの懸念」

シェアする

  • このエントリーをはてなブックマークに追加
  • 2

AFP=時事】米アップル(Apple)は3日、スマートフォン「iPhone」などの同社製端末で導入を予定していた児童ポルノ対策について、プライバシー侵害だとの批判が出たことから、導入を延期すると発表した。

 アップルは先月、iPhoneやタブレット型端末「iPad」を対象に、米国内のオンラインストレージにアップロードされる児童性的虐待の画像を検出し、通報する技術を近く導入すると発表。その直後、デジタル権利団体は、アップルの基本ソフト(OS)改変によって、政府などが利用できる「バックドア(セキュリティーの抜け穴)」が生じる恐れがあると指摘していた。

 アップルは、消費者や権利擁護団体、研究者などからの反響を理由に、延期を発表。「これらの非常に重要な児童保護機能を導入する前に、今後数か月かけて情報収集や改善に取り組むことを決めた」と説明した。

 導入が予定されていた新技術では、アップルのモバイル端末に搭載されたソフトウエアが、ユーザーの端末上にある虐待写真を、児童の権利保護団体が作成した児童性的虐待画像データベースと照合。同社のクラウドストレージサービス「iCloud(アイクラウド)」にアップロードされる問題写真を検出する仕組みだった。

 同社は、照合プロセスには「暗号技術が用いられ」ており、児童性的虐待に当たる内容が含まれた画像でない限り、「結果を明かすことなく一致の有無を」判定できると説明している。

続きを見る

・「児童ポルノ対策」と言えば聞こえはいいが、やろうとしてることは
「プライバシーの勝手検閲」。

たかがApple一社がやっていいのかという話でもあるし、
中共のような独裁政権に悪用されたら目も当てられない。

・あっちを立てればこっちが立たず。
こんな法規制的な要素を一民間企業の判断でやらせる、
やろうとすることが、そもそも脱法行為ではないか。
こう言った問題は国内法で手続きを踏んで、
国の指示のもと行う様にすれば良い。
技術が法より先行しても、
走りながら法を追い付かせていくのがデジタルの世界だと思う。

・日本では自分の子供の水着写真とか撮ったりしますよね?
これ、全部児童ポルノ判定されて通報される訳ですから、もしも日本で導入されたなら殆どの親は通報される訳ですね。

まあ、アメリカでも同じような懸念があるのではないですか?

・これはアップルのサーバーに写真を勝手に抜かれるのが問題ありすぎですよね……自動検出じゃ限界があるから、人の目でも確認も必要になってくるし、個人で撮影したプライベート画像が赤の他人の目に触れる可能性とか怖すぎる。
お子さんの水着写真にもひっかかるかもしれないし、日本人みたいな欧米に比べて童顔種族だと大人でも引っかかる可能性がありそう。








シェアする

  • このエントリーをはてなブックマークに追加