フェイクネックタイムショット - 百科事典

フェイク裸写撮影は、個人の本物の裸写撮影のように見せるために作成された裸写撮影です。これらの修正された写真を作成する動機には、好奇心、性的な満足、被写体の恥辱や困惑、そしてポルノサイトを通じての商業的利益などがあります。これらのフェイクは、画像編集ソフトウェアや機械学習を使用して作成できます。後者による方法で作成されたフェイク画像は「deepfakes」と呼ばれます。

歴史
「Celebrity Skin」などの雑誌は、本物のパパラッチ写真や不法に入手した裸写撮影を発表し、そのような画像に対する市場の存在を示しました。その後、一部のウェブサイトは、時には「スターのフェイク」として知られる、セレブのフェイク裸写撮影やポルノ画像をホストしました。1990年代と2000年代には、セレブのフェイク裸写撮影がUsenetやウェブサイトに広がり、画像やウェブサイトの作成者に対する法的措置を求めるキャンペーンが行われました。「deepfakes」という人工神経網を使用して、ある人の顔を別の人の画像やビデオに重ね合わせる技術は、2010年代後半に普及し、フェイクニュースやリベンジポルノの技術の使用についての懸念が生じました。

フェイク裸写撮影は時々Deepfakeポルノと混同されますが、これは異なります。フェイク裸写撮影は、典型的には人間が作成した非性的な画像から始まり、その中の人々が裸に見えるようにしています(しかし性的な行為ではありません)。Deepfakeポルノは、典型的には人間が作成した性的(ポルノ)画像やビデオから始まり、性行為の参加者の顔を別の人に見せるように変えます。

= DeepNude =
2019年6月に、WindowsとLinux用のダウンロード可能アプリケーション「DeepNude」がリリースされ、生成対抗ネットワークを使用して女性の画像から衣服を取り除きました。作成された画像は通常ポルノではありませんでしたが、裸でした。裸の女性の画像が男性よりも多く利用可能であったため、作成された画像はすべて女性で、元の画像が男性であってもです。アプリには有料版と無料版の両方があり、数日後の6月27日に、開発者がアプリを削除し、消費者に返金しましたが、無料であったり料金がかかるものであったりするさまざまなアプリのコピーが存在しました。GitHubでは、このプログラムのオープンソース版「open-deepnude」が削除されました。オープンソース版は、より大きな裸の画像データセットで訓練することで、生成された裸の画像の精度レベルを向上させる利点がありました。その後、Dreamtimeという無料ソフトウェアアプリケーションがリリースされ、その一部がまだ利用可能です。

= Deepfake Telegram Bot =
2019年7月に、メッセージアプリTelegramでAI技術を使用して女性の裸画像を作成するdeepfakeボットサービスが開始されました。このサービスは無料で、ユーザーが画像を提出し、数分で操作された裸画像を受け取ることができます。このサービスは、ボットをホストするメインチャンネル、技術サポート、画像共有チャンネルを含む7つのTelegramチャンネルに接続していました。ユーザーの総数は不明でしたが、メインチャンネルには45,000人以上のメンバーがいました。2020年7月時点では、画像共有チャンネルで約24,000の操作された画像が共有されたと推定されています。

= Nudifyウェブサイト =
2024年後半までには、衣服の写真から裸の画像を作成する方法はウェブサイト上でアクセス可能になり、アプリ上でアクセスする方法よりも一般的になりました。

目的
裸写撮影を作成する理由は、公的にターゲットを貶める必要があること、ターゲットに対する個人的な憎悪、または写真の作成者による経済的利益の約束など、さまざまです。フェイク裸写撮影は、ビジネスマンや政治家などの著名な人物をよくターゲットにします。

規範
2010年に、K-popグループGirls'Generationのフェイク裸写撮影をインターネットで拡散した後、韓国で97人が逮捕されました。2011年に、53歳の仁川の男性が同じグループのさらなるフェイク画像を拡散した後逮捕されました。2012年に、韓国警察はフェイク裸写撮影が回っている157人の韓国のアーティストを特定しました。2012年に、劉亦菲のフェイク裸写撮影がネットで公開された際、劉亦菲レッドスター・ランド株式会社は法的な捜査を開始しました。同年、中国の俳優黄晓明が公的な論争を引き起こした裸写撮影が公開されましたが、最終的には本物の写真であることが証明されました。2014年に、スーパーモデルのケイト・ユプトンは、フェイク裸写撮影を投稿したウェブサイトに対して訴訟を起こすと脅しました。2011年に、テイラー・スウィフトも同じページに対して脅迫しました。2014年11月に、歌手のビ・レインはインターネット全体で拡散したフェイク裸写撮影に怒りを感じました。情報によると、「レインの裸写撮影はキム・テヘの紛失した携帯電話から流出した」とされました。レインのレーベルであるCube Entertainmentは、裸写撮影に写っているのはレインではなく、その後、会社は写真と一緒に虚偽のコメントを投稿した人々に対して厳格な法的措置を取ることを発表しました。2018年7月に、ソウル警察は韓国の急進的なフェミニストグループWOMADのウェブサイトにムン・ジェイン大統領のフェイク裸写撮影が投稿された後、調査を開始しました。2019年初頭に、民主党の政治家であるアレクサンドリア・オカシオ=コルテスは、バスルームでのフェイク裸写撮影が拡散されたことについて他の政党から批判されました。この写真はアメリカで大きなメディア論争を引き起こしました。

方法
フェイク裸写撮影は、画像編集ソフトウェアや神経ネットワークアプリケーションを使用して作成できます。基本的な方法には以下の2つがあります:

1. 現存する画像を元の画像に組み合わせ、被写体の顔を裸のモデルに重ね合わせる。
2. 元の画像から衣服を取り除き、裸の写真のように見せる。

影響
このような画像は、被写体に悪い心理的な影響を与え、脅迫目的として使用されることがあります。

参考資料
Nude photography
Glamour photography
Deepfake pornography
Voyeurism

参考文献
Forbes, chapter 169, no 1–6, p. 84, Bertie Charles, Forbes Incorporated, 2002, California university.
American Journalism Review: AJR., chapter 18, no 1–5, p. 29, College of Journalism of the University of Maryland at College Park, 1996
Hana S. Noor Al-Deen, John Allen Hendricks, Social Media: Usage and Impact, p. 248, Lexington Books, 2012.
Janet Staiger, Media Reception Studies, p. 124, NYU Press, 1 July 2005
Kola Boof, Diary of a Lost Girl: The Autobiography of Kola Boof, p. 305, Door of Kush, 2006.
Laurence O'Toole, Pornocopia: porn, sex, technology and desire, p. 279, Serpent's Tail, 1999