Appleさん、「iPhone内の児ポの画像も見つけて通報します」→子どもの画像も検閲対象になるのはおかしいと話題に

シェアする

  • このエントリーをはてなブックマークに追加
  • 2

アップルは、iPhone内に保存された児童の性的虐待の画像を発見するための仕組みを、米国において導入する。ロイターの8月6日の記事によると、アップルは人々がiCloudにアップロードする前の写真をデータベースと照合し、問題がある画像を検出するという。

ここで用いられるソフトウェアは「neuralMatch(ニューラルマッチ)」と呼ばれる予定で、個人のiPhoneに保存されている画像と、米国の法執行機関のデータベースに登録されている画像を比較し、フラグが立てられた場合、審査が開始されるという。違法な写真であると判断された場合、法執行機関にアラートが出される。

ロイターによると、このシステムは、iCloudサーバーにアップロードされる前のiPhoneに保存されている写真を、チェックするものだという。 このニュースは、フィナンシャル・タイムズが最初に報じていた。フォーブスはアップルにコメントを求めている。

米国司法省は昨年、テクノロジー企業やソーシャルメディア企業に対し、子どもの性的搾取や虐待への対策を強化することを目的とした「自主的原則」を発表し、違法なコンテンツを発見した場合、ただちに当局に報告するよう呼びかけた。 マイクロソフトは、その後、企業がインターネット上の児童の性的虐待画像を特定するためのphotoDNAを作成した。フェイスブックとグーグルも、画像の内容を確認しフラグを立てるシステムをすでに導入している。

続きを読む

みんなの声

自分の子どもの画像もアップルに認定されかねないって事か。。

アップルってクラウドだけじゃなくて、スマホ内のデータも見ようと思えば見られるって事なんやなww








シェアする

  • このエントリーをはてなブックマークに追加

『Appleさん、「iPhone内の児ポの画像も見つけて通報します」→子どもの画像も検閲対象になるのはおかしいと話題に』へのコメント

  1. 名前:匿名 投稿日:2021/08/07(土) 16:10:58 ID:fd522c7a6 返信

    児ポ関係あるなしに関わらず覗き見されるのは気持ち悪いよな
    やっぱAndroid最強だわ