人気のトピック

物議をかもすiPhone内の画像検知にAppleがFAQ公開 「メッセージは見ない」等

米Appleは8月8日(現地時間)、5日に発表した児童の性的虐待対策に関するFAQを公開した。この対策は米国でiOSおよびiPadOSのバージョン15の更新で実施される見込みだが、多方面からプライバシーを懸念する声が上がっている。

発表された対策は、「メッセージ」アプリで12歳以下のユーザーが児童性的虐待コンテンツ(Child Sexual Abuse Material、CSAM)を送受信しようとすると警告する機能「Communication safety in Messages」、iPhotoの「写真」にCSAM画像が保存されているとそれを検出し、アカウントを停止して当局に報告する機能「CSAM detection for iCloud Photos」、Siriや検索でCSAM関連検索をすると警告する機能の3つ。

3つの対策の中で、メッセージでの警告とiCloudの写真での画像検知が物議を醸しており、この機能追加をやめるよう求める署名運動も展開されている。

懸念の中心は、Appleがユーザーのデータにアクセスできるようになるのではないかということと、CSAM検知の技術が政府などによってCSAM以外の検知に使われる可能性だ。

Appleは、メッセージについては、データはE2EE(エンドツーエンドの暗号化)になっており、Appleが内容を見ることはないという説明を繰り返した。

https://news.yahoo.co.jp/articles/92fa2dfa0942542d0ab91f5355a0d410ae6522f6

ニュースへの反応

全て見てるに決まってる

他の写真見ずにどう区別するんだ?

確実に問題ない画像も引っかかって目視チェックされる機会はある
チェックするのは人間

レベルの高い手描きの絵とか、稚拙な手描きの絵なども的確に見分けて
対象から外してくれるのかな?

アメリカはどうか知らんけど絵がアウトな国もあるしなぁ

良いことだよね
アップルが正解だよ
これ先進国の日本とかだと法的に無理
でも世界を股にかけてアイフォンがやるなら日本も洗浄できるわけ
非常にいいことだ
 
世界が平和になり
遺伝子異常で悪魔に魂を売り渡したような唾棄すべき人間たちが捕まる
良いことだ
Androidもやってほしいね

Appleの方針ではなく米政府による国策でで実装された機能でしょ?
すぐにAndroidも追従するよ

自分の子供の風呂とかの裸写真も通報されんの?

子供の成長記録は怖くて撮れないな

AI誤認による冤罪が怖すぎる

関連ワード

IT

最近あったニュース

みんなの声

  • ジョブズも草葉の陰で泣いてるな

アクセスランキング