Википедия столкнулась со значительным снижением прямого трафика, поскольку всё больше пользователей получают информацию из крупнейшей онлайн-энциклопедии через генеративные чат-боты на основе искусственного интеллекта.
Во Фонде Викимедиа отмечают, что обученные на статьях Википедии ИИ-чат-боты и поисковые системы, которые выдают обобщённые ответы, уменьшают необходимость переходить на сам сайт. Это создаёт риски для долгосрочной устойчивости проекта.
По словам старшего директора по продуктам Фонда Викимедиа Маршалла Миллера, падение посещаемости ухудшает возможности волонтёров и спонсоров поддерживать работу над развитием и пополнением контента энциклопедии.
Хотя генеративные модели ИИ и поисковые платформы снижают прямой трафик Википедии, её данные остаются критически важными для их функционирования. Статьи Википедии входят в число наиболее используемых наборов данных для обучения ИИ, а Google и другие компании годами применяют их для формирования собственных карточек знаний и фрагментов ответов, которые оттягивают внимание пользователей от оригинального сайта.
«Практически все крупные языковые модели обучаются на данных Википедии, а поисковые системы и соцсети при ответе на запросы пользователей опираются именно на неё. Это означает, что люди продолжают читать информацию, созданную волонтёрами Викимедиа, даже не посещая wikipedia.org. Эти знания, созданные людьми, стали ещё важнее для распространения достоверной информации в интернете», — подчеркнул Миллер.
Он также рассказал, что в мае Википедия зафиксировала необычно высокий трафик, вероятно, в основном из Бразилии. Это заставило Фонд пересмотреть собственные системы обнаружения ботов.
«После обновления систем мы наблюдаем снижение реального человеческого трафика примерно на 8% по сравнению с тем же периодом 2024 года. Мы считаем, что это отражает влияние генеративного ИИ и социальных сетей на то, как люди ищут информацию. Всё чаще поисковые системы предоставляют ответы прямо в интерфейсе, часто на основе контента Википедии», — объяснил он.
По его словам, Фонд выдвигает строгие требования к сторонним ботам, которые сканируют Википедию: они должны указывать идентификационную информацию, соблюдать правила robots.txt и ограничивать частоту запросов.
Недавние исследования подтверждают наблюдения Викимедиа. Так, в июле исследовательский центр Pew установил, что лишь 1% поисковых запросов Google приводит к переходу пользователей по ссылке в ответе, сгенерированном ИИ.
Поисковики всё чаще используют генеративный искусственный интеллект, чтобы предоставлять готовые ответы вместо перенаправления на сайты. Молодая аудитория всё чаще ищет информацию на видео-платформах, а не в традиционном интернете. Это постепенное смещение тенденции касается не только Википедии — многие издатели и медиаплатформы также фиксируют падение трафика, поскольку пользователи предпочитают получать ответы напрямую из ИИ-сервисов и соцсетей.
Не пропустите интересное!
Підписывайтесь на наши каналы и читайте анонсы хай-тек новостей, тестов и обзоров в удобном формате!