アップルの不適切画像検知セキュリティ「誤解されている」

シェアする

  • このエントリーをはてなブックマークに追加
  • 2

Appleのソフトウェアエンジニアリング担当上級副社長クレイグ・フェデリギ氏は、The Wall Street Journalのインタビューに答え、iCloudとiMessageの2つのサービスで実施される児童虐待の防止方策について、「大きく誤解されている」と述べました。
Appleは先日、iCloudに保存される写真とiMessageの両方で導入される新たな児童虐待の防止方策を発表しました。フェデリギ氏は、新しいCSAM(児童性的虐待のコンテンツ)検知システムと、不適切な写真を検知する新しいコミュニケーションの安全性機能を同時に発表したことにより、「このような誤解を招くことになった」とコメントしています。
他のクラウドサービスもCSAMの検知を行っていますが、フェデリギ氏いわく、Appleの手法では写真を見ることなく振り分けができるとのことです。

続きを読む

日本のユーザーは?

天安門事件だろ

日本のユーザー爆死しそうか心配だ。萌え萌えのキャラクターだらけだし

プライバシーよりも保護されるべき利益があればそれが優先されることになる。プライバシーが気になるのならiPhoneを使わなければ良いんだな。

欧米が絡むとモラリズムが際限なく暴走するので、追従しないとOSのみならず、ユーザーまでもがペドリファのレッテルを貼られる展開が容易に予想できます。








シェアする

  • このエントリーをはてなブックマークに追加