第41回女子生徒30人の偽ポルノ、作ったのは同級生 AI使えば数秒で…

有料記事新世AI

[PR]

 AI(人工知能)を使って偽の性的な画像や動画を作る「ディープフェイクポルノ」。身近な人をターゲットにした被害が広がっている。

 米ニュージャージー州の高校では昨年10月、少なくとも女子生徒30人の「裸画像」が学校内で出回っていることが発覚した。

 「こんなことが自分の身に起こるなんて考えもしなかった。どうしたらいいのか分からず、ショックでただ泣いていた」。被害者の一人、フランチェスカ・マニさんは話す。

 作成したのは、同級生の男子生徒だった。SNS上の画像を「服を脱がすAIアプリ」を使って加工し、他の生徒らと共有していたという。

 マニさんが不信感をいだいた…

この記事は有料記事です。残り1810文字有料会員になると続きをお読みいただけます。

【初トクキャンペーン】有料記事読み放題!スタンダードコースが今なら2カ月間月額100円!詳しくはこちら

  • commentatorHeader
    辛酸なめ子
    (漫画家・コラムニスト)
    2024年12月21日11時30分 投稿
    【視点】

     イギリスの「イメージに基づく性的虐待(Image―Based Sexual Abuse、IBSA)」という概念に驚き、日本は遅れていると感じました。ディープフェイク以前に、性的イメージを共有、拡散するケースが多いように思います。男性向けの

    …続きを読む
  • commentatorHeader
    小西美穂
    (関西学院大学総合政策学部特別客員教授)
    2024年12月23日17時41分 投稿
    【視点】

    授業でディープフェイクを議論した際、ある女子学生が「街角で外国人観光客に写真を撮ろうと言われたものの、友達から『写真の顔だけ切り取られて悪用されるかもしれない』と言われ、断った」という話をしてくれました。本人もそれまで深く考えたことがなかっ

    …続きを読む

連載新世AI(全50回)

この連載の一覧を見る