「軽いパニックになりました」 15歳の女子高校生が語ったのは、まったく思いがけない被害。 ある日突然、SNS上で自分の裸の画像が送りつけられてきたというのです。 撮った覚えも、撮られた覚えもないのに…。 SNSにあげた画像や動画が勝手に加工される被害がいま急速に広がっています。 子どもたちや若者に迫る、“性的ディープフェイク”の実態とは? もし被害にあったら、どこに相談したらいいのか記事の最後に窓口についての情報もまとめました。 (クローズアップ現代取材班)

生成AIの技術が急速に進化するなか、日本ではこれを利用した子供の性的画像の問題が深刻化している。欧米ではこうした画像が厳しく規制される一方、日本ではなぜ野放しにされているのか。背景にある日本の司法や文化的な価値観を中国紙が専門家に取材した。 日本では、生成AIによって作られた児童の性的画像の大量流出が問題になっている。 地元メディアの報道によれば、国内のIT企業が法律の抜け穴をつき、生成AIによる児童ポルノを生産しているという。 人権活動家はこうした動向を憂慮しているが、日本の政治家は問題の介入には消極的だ。1998年に「子ども虐待ネグレクト防止ネットワーク(現・特定非営利活動法人チャイルドファーストジャパン)」を創設した山田不二子は、政府が生成AIによる児童ポルノの問題を放置していることを批判し、子供たちが性産業に取り込まれると懸念する。 「日本の法律では児童ポルノは違法とされていますが
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く