iOS15の児童ポルノ検出機能の同技術者「危険すぎる」と批判のコメント

シェアする

  • このエントリーをはてなブックマークに追加
  • 2

AppleがiOS15などで導入すると発表した、ユーザーのiPhoneに保存された児童への性的虐待画像(CSAM:Child Sexual Abuse Material)の検出機能について、同様の技術を研究する研究者「危険」と述べ、導入を見送るべきだと指摘しています。
ユーザーのiPhoneに非営利団体が把握している画像と一致するハッシュを持つ画像がないかスキャンし、検出された画像をAppleが検証し、一致が確認されれば通報されます。
米プリンストン大学の研究者で、コンピュータ科学と公共問題が専門のジョナサン・メイヤー助教授と、情報科学政策研究所のアニュネイ・クルシュレッサ氏は、米紙The Washington Postに論説を寄稿し、AppleのCSAM検出技術の危険性について指摘しています。
エンド・トゥ・エンドで暗号化されたオンラインサービス上でCSAM画像を検出する技術を2年前から研究している両氏は、Appleの方針そのものは正しいとしながらも、この技術には問題も多く、実用化にはほど遠いものだというのが専門家の認識だと述べ、この問題に対しては中立の立場を取りたい、と述べています。

続きを読む








シェアする

  • このエントリーをはてなブックマークに追加