В начале 2020-х годов возникла «теория мертвого интернета», предполагающая, что глобальная сеть заполнена искусственным интеллектом, который создает контент исключительно для взаимодействия с другими ботами. К 2025 году использование ИИ стало неизбежным, и хотя вывод Live Science гласит, что сеть еще не полностью «мертва», люди все чаще смешиваются с ботами в цифровом пространстве. Инженер по этике ИИ Нелл Уотсон, член IEEE и представитель Университета Сингулярности, утверждает, что интернет не превратится в пустой «город-призрак». Вместо этого, по ее мнению, нас ждет сценарий «зомби-апокалипсиса», где пространство будет переполнено бездумным синтетическим контентом.

Этот низкокачественный массовый продукт, получивший название «AI slop» (ИИ-шлак), создается для манипуляции SEO, генерации кликов и получения доходов от рекламы. Яркими примерами служат странные ролики в И⃰ с кошками, играющими на инструментах, фейковые новости и политическая дезинформация. Исследование SEO-фирмы Graphite, проведенное в ноябре 2024 года, показало тревожную статистику: общее количество опубликованных статей, написанных ИИ, уже превысило число материалов, созданных людьми. Тем не менее, алгоритмы Google Search пока отдают предпочтение человеческому авторству: 86% ранжируемых статей написаны людьми, и лишь 14% — машинами.
Ситуация на видеоплатформах развивается еще стремительнее. Отчеты по трендам YouTube указывают на то, что один из десяти самых быстрорастущих каналов состоит исключительно из контента, сгенерированного нейросетями. Такое засилье «ИИ-шлака» приводит к вытеснению живых авторов, чьи доходы напрямую зависят от их творчества. Журнал Clarkesworld Magazine был вынужден прекратить прием рукописей из-за потока сгенерированных историй, а системы модерации сообщества Wikipedia испытывают колоссальную нагрузку, пытаясь фильтровать машинный текст.
Издатели и платформы реагируют на вызовы по-разному. Live Science, например, ввел строгие правила, запрещающие использование ИИ для написания или редактирования материалов, допуская его применение только для рутинных задач, таких как удаление фона на изображениях. Однако инструменты генеративного ИИ, такие как Sora и ChatGPT, постоянно совершенствуются, размывая грань между реальностью и вымыслом. Это приводит к эрозии доверия и «усталости от аутентичности», когда пользователи начинают сомневаться даже в подлинном человеческом контенте. Нелл Уотсон описывает этот эффект как «зов Сирены»: контент ИИ часто выглядит ярче, громче и привлекательнее, чем реальность, лишенная «трения» человеческого взаимодействия.
Показательным примером опасности стала дезинформация после урагана «Хелен», когда сгенерированные изображения ребенка и щенка использовались для политических манипуляций. Адам Немерофф, помощник проректора по инновациям в обучении и технологиям Университета Куиннипиак в Коннектикуте, советует пользователям исходить из презумпции, что весь контент создан ИИ, пока не доказано обратное. Он также рекомендует платить за медиа, имеющие четкие редакционные правила. Немерофф подчеркивает связь между алгоритмами SEO и низкокачественным контентом, отмечая необходимость регулирования, которое пока отстает от технологий, подобно ситуации с беспилотными автомобилями.
Интернет трансформируется из библиотеки для человеческих глаз в базу данных для машин. Поисковые привычки меняются: Google Search использует ИИ-обзоры для агрегации информации, а новые поисковые чат-боты и браузеры с ИИ-агентами, такие как Comet, Atlas и Dia, заменяют традиционные визиты на веб-сайты. Это явление называют «агентными рабочими процессами» (agentic workflows). В будущем персональные ИИ-агенты будут самостоятельно вести переговоры о бронировании и суммировать отзывы, избавляя людей от необходимости «серфить» в сети.
Экономические последствия такого перехода могут быть разрушительными для существующей модели интернета. Если ИИ-агенты будут извлекать ответы без посещения сайтов, рекламная модель рухнет. В ответ издатели могут начать блокировать скраперы ИИ и закрывать контент платным доступом или переходить в закрытые сообщества, такие как Discord. Кроме того, существует риск «коллапса модели»: если будущие нейросети будут обучаться на «ИИ-шлаке», это приведет к деградации качества и полному отрыву от реальности.
В условиях централизации власти у алгоритмов и риска передачи им критического мышления, доверие, по словам Нелл Уотсон, быстро становится самой дорогой валютой в сети. Возможно формирование контрдвижения — «ремесленного» (artisanal) веба, где люди будут целенаправленно искать верифицированный контент, созданный человеком. Несмотря на мрачные прогнозы, эксперты видят и позитивный потенциал: агентные инструменты могут извлекать ценную информацию, ранее похороненную в глубинах поисковой выдачи из-за плохого SEO, делая ее доступной для пользователей.

Изображение носит иллюстративный характер
Этот низкокачественный массовый продукт, получивший название «AI slop» (ИИ-шлак), создается для манипуляции SEO, генерации кликов и получения доходов от рекламы. Яркими примерами служат странные ролики в И⃰ с кошками, играющими на инструментах, фейковые новости и политическая дезинформация. Исследование SEO-фирмы Graphite, проведенное в ноябре 2024 года, показало тревожную статистику: общее количество опубликованных статей, написанных ИИ, уже превысило число материалов, созданных людьми. Тем не менее, алгоритмы Google Search пока отдают предпочтение человеческому авторству: 86% ранжируемых статей написаны людьми, и лишь 14% — машинами.
Ситуация на видеоплатформах развивается еще стремительнее. Отчеты по трендам YouTube указывают на то, что один из десяти самых быстрорастущих каналов состоит исключительно из контента, сгенерированного нейросетями. Такое засилье «ИИ-шлака» приводит к вытеснению живых авторов, чьи доходы напрямую зависят от их творчества. Журнал Clarkesworld Magazine был вынужден прекратить прием рукописей из-за потока сгенерированных историй, а системы модерации сообщества Wikipedia испытывают колоссальную нагрузку, пытаясь фильтровать машинный текст.
Издатели и платформы реагируют на вызовы по-разному. Live Science, например, ввел строгие правила, запрещающие использование ИИ для написания или редактирования материалов, допуская его применение только для рутинных задач, таких как удаление фона на изображениях. Однако инструменты генеративного ИИ, такие как Sora и ChatGPT, постоянно совершенствуются, размывая грань между реальностью и вымыслом. Это приводит к эрозии доверия и «усталости от аутентичности», когда пользователи начинают сомневаться даже в подлинном человеческом контенте. Нелл Уотсон описывает этот эффект как «зов Сирены»: контент ИИ часто выглядит ярче, громче и привлекательнее, чем реальность, лишенная «трения» человеческого взаимодействия.
Показательным примером опасности стала дезинформация после урагана «Хелен», когда сгенерированные изображения ребенка и щенка использовались для политических манипуляций. Адам Немерофф, помощник проректора по инновациям в обучении и технологиям Университета Куиннипиак в Коннектикуте, советует пользователям исходить из презумпции, что весь контент создан ИИ, пока не доказано обратное. Он также рекомендует платить за медиа, имеющие четкие редакционные правила. Немерофф подчеркивает связь между алгоритмами SEO и низкокачественным контентом, отмечая необходимость регулирования, которое пока отстает от технологий, подобно ситуации с беспилотными автомобилями.
Интернет трансформируется из библиотеки для человеческих глаз в базу данных для машин. Поисковые привычки меняются: Google Search использует ИИ-обзоры для агрегации информации, а новые поисковые чат-боты и браузеры с ИИ-агентами, такие как Comet, Atlas и Dia, заменяют традиционные визиты на веб-сайты. Это явление называют «агентными рабочими процессами» (agentic workflows). В будущем персональные ИИ-агенты будут самостоятельно вести переговоры о бронировании и суммировать отзывы, избавляя людей от необходимости «серфить» в сети.
Экономические последствия такого перехода могут быть разрушительными для существующей модели интернета. Если ИИ-агенты будут извлекать ответы без посещения сайтов, рекламная модель рухнет. В ответ издатели могут начать блокировать скраперы ИИ и закрывать контент платным доступом или переходить в закрытые сообщества, такие как Discord. Кроме того, существует риск «коллапса модели»: если будущие нейросети будут обучаться на «ИИ-шлаке», это приведет к деградации качества и полному отрыву от реальности.
В условиях централизации власти у алгоритмов и риска передачи им критического мышления, доверие, по словам Нелл Уотсон, быстро становится самой дорогой валютой в сети. Возможно формирование контрдвижения — «ремесленного» (artisanal) веба, где люди будут целенаправленно искать верифицированный контент, созданный человеком. Несмотря на мрачные прогнозы, эксперты видят и позитивный потенциал: агентные инструменты могут извлекать ценную информацию, ранее похороненную в глубинах поисковой выдачи из-за плохого SEO, делая ее доступной для пользователей.