デッドインターネット理論 - 百科事典

**死亡インターネット理論**

死亡インターネット理論は、計画性と意図的な努力によって、インターネットが主にボット活動とアルゴリズムによるカurationによって操作された自動生成コンテンツで構成されていると主張する陰謀説です。この理論の支持者は、これらのソーシャルボットが意図的に作成され、アルゴリズムを操作し、検索結果を向上させるために消費者を操作する手助けをするために作成されたと信じています。この理論の支持者の一部は、政府機関がボットを使用して公衆の認識を操作すると非難しています。この「死亡」の日付は一般的に2016年または2017年とされています。死亡インターネット理論は、観察された多くの現象が測定可能であるため(例えば、ボットトラフィックの増加など)、人気を博しましたが、この主題に関する文献は完全な理論を支持していません。

起源と普及
死亡インターネット理論の正確な起源は特定できません。2021年に、ユーザー「IlluminatiPirate」がAgora RoadフォーラムのMacintosh Cafeエスotericボードに「Dead Internet Theory: Most Of The Internet Is Fake」と題する投稿を行い、これが同ボードやWizardchanの前の投稿に基づいていると主張し、用語がこれらの初期のイメージボードを超えたと記しています。この陰謀説は、広範な報道を通じて公衆文化に浸透し、さまざまな高知名度のYouTubeチャンネルで議論されました。The Atlanticの「Maybe You Missed It, but the Internet 'Died' Five Years Ago」という記事でより多くの注目を集めました。この記事は、このトピックに関する他の多くの記事で広く引用されました。

主張
死亡インターネット理論には二つの主要な要素があります:ウェブ上の有機的な人間活動がボットとアルゴリズムによるカurationの結果、ボットによって作成されたコンテンツに置き換わったこと、そして国家行動者がこのことを協調して行い、人間人口を操作することを目指していると主張しています。この理論の最初の部分、ボットがインターネット上の多くのコンテンツを作成し、おそらく有機的な人間のコンテンツよりも多いとする部分は、しばらくの間懸念されていました。IlluminatiPirateの元の投稿は、ニューヨークマガジンの「How Much of the Internet Is Fake? Turns Out, a Lot of It, Actually」記事を引用しています。死亡インターネット理論は、Googleや他の検索エンジンが、インデックスされ表示されるコンテンツを制限することで、望ましくないコンテンツを検閲していると主張しています。Googleは、クエリに対して数百万の検索結果があると提案するかもしれませんが、ユーザーがアクセスできる結果はそれを反映していません。この問題は、ウェブサイトのコンテンツが利用できなくなり、他のサイト上のすべてのリンクが破損する「リンク腐食」という現象によって悪化します。これにより、Googleがポテマキン村であり、検索可能なウェブが私たちが信じているよりもはるかに小さいという理論が生まれました。死亡インターネット理論は、これがオンライン上のカurationされた、そしておそらく人工的なコンテンツにユーザーを制限する陰謀の一部であると示唆しています。

死亡インターネット理論の第二部は、この観察可能な現象を基に、米国政府、企業、または他の行動者が意図的にユーザーをカurationされた、そしておそらく人工的にAI生成されたコンテンツに制限し、さまざまな理由で人間人口を操作するとしています。元の投稿では、ボットが人間のコンテンツを置き換えたというアイデアが「setup」として説明され、理論自体の「thesis」はアメリカ政府がこれに責任があると焦点を当てています:「アメリカ政府は、世界中の人口に対して人工知能を駆使したガスリッティングを行っています」。

専門家の意見
Caroline Busta、New Modelsメディアプラットフォームの創設者は、2021年のThe Atlanticの記事で、ボットトラフィックやインターネットの健全性に関する合法的な批判が含まれているにもかかわらず、多くの死亡インターネット理論を「パラノイアのファンタジー」と言い、しかし「全体のアイデア」には同意すると述べました。The New Atlantisの記事では、Robert Marianiは、理論を本物の陰謀説とcreepypastaのミックスと呼びました。

2024年に、死亡インターネット理論は時々、ChatGPTなどの大規模言語モデル(LLM)が人気のインターネット空間に登場するという観察された増加を指して使用されることがありましたが、完全な理論を言及していませんでした。2025年のThomas Sommererの記事では、死亡インターネット理論のこの部分が探求され、Sommererは人間生成コンテンツが人工的なコンテンツに置き換わることを「必然的な出来事」と呼びました。Sommererは、死亡インターネット理論が科学的な性質を持っていないと述べ、インターネットに対する公的な認識を反映しているとしました。Journal of Cancer Educationの別の記事では、オンラインがんサポートフォーラムにおける死亡インターネット理論の認識の影響について議論し、サポートがLLMからではなく、本物の人間から提供されていると気づいた患者に対する心理的な影響に焦点を当てました。この記事は、AI生成コンテンツを使用してLLMをトレーニングするためのトレーニングデータに発生する可能性のある問題についても議論しました。

証拠


= 大規模言語モデル =

生成前トレーニングトランスフォーマー(GPT)は、人工神経網を使用して人間のようなコンテンツを生成する大規模言語モデル(LLM)のクラスです。これらの中で最もよく知られていたのは、OpenAIによって開発されたものでした。これらのモデルは大きな論争を引き起こしました。例えば、コペンハーゲン未来研究所のTimothy Shoupは2022年に、「GPT-3が「放り出された」場合、インターネットは完全に認識不可能になる」と述べ、2025年から2030年までにオンライン上の99%から99.9%のコンテンツがAI生成されるという予測を行いました。これらの予測は、死亡インターネット理論の証拠として使用されました。

2024年に、Googleは検索結果が「人間ではなく検索エンジンのためのもののように感じるウェブサイト」で洪水のように溢れていると報告しました。Gizmodoとの通信で、Googleの広報担当者は生成AIのこのような内容の急速な増加における役割を認め、これがより価値のある人間による代替案を置き換えるリスクがあると述べました。LLMを使用するボットがスパムの量を増加させ、ボットが互いに相互作用して「自己複製可能なプロンプト」を作成し、人間ユーザーが中断できるループを作成する状況が発生するリスクがあると予測されています。

ChatGPT
ChatGPTは、2022年後半に一般公開されたAIチャットボットであり、ジャーナリストたちは死亡インターネット理論が以前よりもより現実的であると指摘しました。ChatGPTの公開前に、死亡インターネット理論は主に政府組織、企業、そしてテクノロジーに詳しい個人に焦点を当てていました。ChatGPTは、一般のインターネットユーザーに大規模言語モデルへのアクセスを提供し、AIを使用して作成されたコンテンツが有機的な人間のコンテンツを埋め尽くすことを懸念させました。

= ボットトラフィック =
2016年に、セキュリティ会社Impervaは、100,000のランダムに選択されたドメインに対して16.7億回以上の訪問を検討した後、ボットがウェブトラフィックの52%を責任であるとする報告を発表しました。この報告は、死亡インターネット理論に関する報告の証拠として使用されました。Impervaの2023年の報告では、インターネットトラフィックの49.6%が自動化されており、2022年から2%の上昇がありました。これは、人工知能モデルがトレーニングコンテンツを収集するためにウェブをスクレイピングしているためとされました。

= Facebook =
2024年に、Facebook上で「AI slop」と呼ばれるAI生成画像が流行し始めました。これらの画像の主題には、フライトアテンダント、黒人子供が彼らが作成したとされる芸術作品の横に立っている、そして「Shrimp Jesus」というさまざまなバージョンが含まれていました。これらの投稿の多くは数百、場合によっては数千のAIコメントが「Amen」と書かれていました。これらの画像は、当時のインターネットが「死んだ」と感じる開始を示す例として引用されました。Sommererは、自分の記事で「Shrimp Jesus」を詳細に議論し、特に「イエスは神の使者であり、Shrimp Jesusは私たちが自分自身に導き込んだ致命的なシステムの使者」と述べました。

Facebookには、グループ投稿に対してAI生成の応答を提供するオプションがあります。これらの応答は、ユーザーが投稿に@MetaAIを明示的にタグ付けする場合や、投稿に質問が含まれており、1時間以内に他のユーザーが応答していない場合に表示されます。

2025年1月に、Metaが新しいAIパワードの自動アカウントを導入する計画に関する声明が発表され、興味が再び高まりました。Metaの生成AIプロダクト部門の副社長であるConnor Hayesは、「これらのAIが実際には、時間が経つにつれて、プラットフォーム上に存在するようになることを期待しています...彼らにはプロフィール画像があり、プロフィールを生成し、プラットフォーム上でAIパワードのコンテンツを生成し共有できるようになります」と述べました。

= Reddit =
過去には、RedditウェブサイトはAPIとデータへの無料アクセスを許可しており、ユーザーは第三者によるモデレーションアプリを使用したり、人間の相互作用をトレーニングするためにAIをトレーニングしたりすることができました。2023年に、会社はユーザーデータセットへのアクセスに対して料金を課すようになりました。AIをトレーニングする会社は、今後もこのデータを使用して将来のAIをトレーニングすることを期待されています。LLMのようなChatGPTが一般のユーザーに利用可能になるにつれて、Reddit上のユーザーやボットアカウントによってますます使用されています。ニューサウスウェールズ大学のコンピュータサイエンス教授であるToby Walshは、Business Insiderとのインタビューで、前世代のAI生成コンテンツによって次世代のAIがトレーニングされることで、コンテンツが損なわれる可能性があると述べました。フロリダ大学の教授であるJohn Licatoは、AI生成のウェブコンテンツがRedditに洪水のように流れる状況を死亡インターネット理論と比較しました。

= Twitter =


"I hate texting" tweets
2020年から、いくつかのTwitterアカウントが「I hate texting」というフレーズから始まるツイートを投稿し始めました。これには、「I hate texting i just want to hold ur hand」や「I hate texting just come live with me」などの代替活動が含まれていました。これらの投稿は数万回のいいねを獲得し、その多くがボットアカウントによるものと疑われています。死亡インターネット理論の支持者はこれらのアカウントを例として使用しました。

= TikTok =
2024年に、TikTokは広告代理店にバーチャルインフルエンサーの使用を提案することを始めました。Fast Companyの2024年の記事で、ジャーナリストであるMichael Grothausは、これと他のソーシャルメディア上のAI生成コンテンツを死亡インターネット理論にリンクしました。この記事では、このコンテンツを「AI-slime」と呼びました。

= YouTubeと「the Inversion」 =
YouTubeには、ビデオの信頼性と到達範囲を向上させるためにフェイクビューを提供するオンライン市場があります。ある時点で、フェイクビューは非常に普及し、一部のエンジニアが、YouTubeのフェイクビューを検出するアルゴリズムがこれらをデフォルトとして扱い、実際のものを誤って分類し始めることを懸念していました。YouTubeエンジニアは、この現象を「the Inversion」と呼びました。YouTubeのボットと「the Inversion」の恐怖がインターネットフォーラムMelonlandのスレッドで死亡インターネット理論の支持として引用されました。

= SocialAI =
2024年9月18日にMichael Saymanによって作成されたSocialAIは、人間との相互作用なしにのみAIボットとチャットするという完全な目的で作成されました。Ars Technicaウェブサイトの記事では、SocialAIが死亡インターネット理論にリンクされています。

流行文化
死亡インターネット理論は、ソーシャルメディアプラットフォームTwitterのユーザーによって議論されました。ユーザーはボット活動が彼らの体験に影響を与えたと指摘しました。多くのYouTubeチャンネルやオンラインコミュニティ、例えばLinus Tech TipsフォーラムやJoe Roganサブレディットなどが死亡インターネット理論を取り上げ、このアイデアを主流の議論に持ち込みました。TikTok上でもこのトピックに関する議論やミームが登場しました。これは、AI生成コンテンツがより一般的になるためです。

参考リンク
[参照リンク]