白い背景に置かれた巨大な青いボタンが、顔写真をアップロードするよう誘う。シンプルさが目を引くWebサイトだ。ボタンの下には、サービスを試すために人工知能(AI)によって生成された4つの顔が提供されている。ボタンの上にあるタグラインは、堂々とその目的を宣言している。「ディープフェイク・テクノロジーを使ってアダルトビデオの出演者と顔を交換することで、誰でもポルノ・スターになれます」。必要なのは顔写真とボタンのクリックだけだ。
MITテクノロジーレビューはサイトへのアクセスを防ぐため、このサービスの名前をあえて伏せ、記事中では「Y」と表記する。コンテンツやスクリーンショットなどの引用も一切控える。Yは、ネット上の合成メディアの進化と発展を追跡してきたディープフェイク研究者、ヘンリー・アジャーによって発見され、本誌にその情報が寄せられた。
現時点でYは比較的無名で、少数の常連ユーザーがオンライン・フォーラムを通じて開発者へ活発なフィードバックを送っているにとどまっている。しかし、このようなサービスが出現したことで、研究者たちはこれまでは越えなかった倫理的一線を越えてしまう事態を懸念している。
当初からディープフェイク、あるいはAIによって生成された合成メディアは、主に女性をポルノに登場させる目的で使われてきた。標的にされた女性は多くの場合、大きな心理的苦痛を受ける。ディープフェイクを最初に広めたレディット(Reddit)のクリエイターは、有名女性の顔をポルノビデオの出演者の顔と入れ替えた。センシティAI(Sensity AI)の調査によると、ネット上のディープフェイク・ビデオの90〜95%は当事者の同意がないポルノで、そのうちの約90%が女性と推定されている。
ディープフェイク・テクノロジーが進歩するにつれて、簡単に使えるコーディング不要のツールも出現し、女性の着衣画像から服を「脱がす」ことも可能になった。これらのサービスの多くはその後Web上から排除されたが、コードはオープンソースのリポジトリに存在し、姿形を変えて繰り返し出現している。研究者のジェネビーブ・オーが最近発見したサイトは、8月に670万人の訪問数を記録しており、いまだオフラインになっていない。
単一写真の顔交換アプリは以前から存在する。例えば、ユーザーが人気映画や音楽ビデオの特定のシーンに登場しているかのように見せる、「ザオ(ZAO)」や「リフェイス(ReFace)」などだ。しかし、初のポルノ画像に特化した顔交換アプリとして登場したYは、新たなレベルに到達している。テクノロジーの濫用による虐待について教育する非営利団体エンドタブ(EndTAB)の創設者アダム・ドッジは、Yが当事者の同意なしにポルノ画像を作成するために「オーダーメード」されているからだという。ポルノという特殊な用途に特化したことで、開発者は用途に合わせたテクノロジーの改良がしやすくなり、ディープフェイクでポ …
- 人気の記事ランキング
-
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- These AI Minecraft characters did weirdly human stuff all on their own マイクラ内に「AI文明」、 1000体のエージェントが 仕事、宗教、税制まで作った
- Google’s new Project Astra could be generative AI’s killer app 世界を驚かせたグーグルの「アストラ」、生成AIのキラーアプリとなるか
- We saw a demo of the new AI system powering Anduril’s vision for war オープンAIと手を組んだ 防衛スタートアップが目指す 「戦争のアップデート」