17 апреля
А1 празднует 27 лет и представляет обновленную «Инклюзивную кофейню»
| 1 |
Еще недавно борьба за трафик сводилась к одному: попасть в топ пoисковой выдачи. Но с появлением ChatGPT, Gemini и генеративного поиска Google пользователи все чаще получают готовый ответ прямо в интерфейсе AI, не переходя на сайты. Из-за этого многие компании замечают странную ситуацию: ресурс занимает высокие позиции в поиске, но его почти не цитируют нейросети. В ответах AI появляются другие площадки: иногда менее известные и даже находящиеся ниже в выдаче. Елена Салтыкова, тимлид команды SEO инновационного digital-хаба Wunder Digital, объясняет механику выбора источников нейросетями и разбирает ошибки, которые мешают сайтам попадать в ответы ИИ.
Когда мы говорим о видимости в AI-поиске, важно понимать: нейросети не оценивают сайты так, как это делают SEO-специалисты. Они работают с источниками информации, и у разных AI-систем эти источники (ChatGPT и другие LLM-чаты, такие как Gemini, Claude) принципиально различаются. Большие языковые модели формируют ответы на основе нескольких типов данных.
1. Обучающие данные — то, на чем модель «выросла»
Перед запуском модель обучают на огромных массивах текстов: открытых сайтах, статьях, книгах, форумах, технической документации и других публичных источниках. На основе этих данных модель формирует статистическое понимание языка, фактов и взаимосвязей между ними.
2. Актуальная информация из интернета
Современные версии чат-моделей могут получать свежие данные из сети: например, через встроенный поиск или интеграцию с поисковыми системами. Это используется для информации, которая быстро меняется: новости, курсы валют, погода и т.д. В таких случаях ответ формируется как комбинация внутренних знаний модели и найденных в данный момент внешних источников.
3. Файлы и корпоративные базы знаний
Если пользователь загружает документы — PDF, DOCX, таблицы — или подключает собственную базу знаний (например, через RAG-систему), модель может использовать эти материалы как локальный источник информации в рамках конкретного ассистента.
ChatGPT не «заходит» на конкретный сайт каждый раз, когда пользователь задает вопрос. Он опирается либо на знания, сформированные в процессе обучения, либо на результаты внешнего поиска, если такая функция используется, поэтому вероятность того, что информация из вашего контента повлияет на ответы модели, зависит от качества и авторитетности источника.
Чем сильнее контент с точки зрения E-E-A-T (экспертиза, опыт, авторитетность и достоверность), ссылочного профиля и цитируемости, тем выше шанс, что похожие материалы будут присутствовать в обучающих данных или подтягиваться при онлайн-поиске.
Важно понимать ограничения таких моделей:
Модель не «знает», из какого именно источника взят факт. Она просто генерирует наиболее правдоподобный и логичный ответ на основе обучения.

Генеративный поиск Google — AI Overviews (ранее SGE) — работает иначе. В отличие от чат-моделей, он напрямую опирается на поисковый индекс Google, а языковая модель лишь формирует итоговый ответ и связывает его с источниками. Все цитируемые страницы берутся из обычного органического индекса Google — тех же документов, которые участвуют в классическом ранжировании. Система сначала формирует пул кандидатов по запросу и его возможным подзапросам. Этот процесс называют fan-out: сложный вопрос разбивается на несколько подтем, для каждой из которых подбираются релевантные документы. Google подтверждает, что в AI Overviews используются те же сигналы качества, что и в обычном поиске, но дополнительно учитывается фактор извлекаемости информации — насколько удобно системе взять конкретный факт со страницы.
К ключевым факторам обычно относят:
Исследования показывают, что большинство цитируемых страниц уже находятся в топ-10 органической выдачи по этому или близкому запросу.
Как происходит генерация ответа:
- модель формирует структуру на основе запроса пользователя.
- Система извлекает релевантные документы из индекса (retrieval + semanticranking).
- Модель объединяет знания из предобучения и факты из найденных страниц.
- К каждому фрагменту ответа прикрепляются ссылки на 1−3 источника, которые лучше всего подтверждают конкретный тезис.
В интерфейсе эти ссылки отображаются рядом с абзацами или под ними, позволяя пользователю перейти к первоисточнику.

По наблюдениям специалистов и рекомендациям для вебмастеров, вероятность цитирования в AI Overviews повышают несколько факторов:

И генеративный поиск Google (AI Overviews), и чат-модели стремятся выбирать источники, которые выглядят опытными, экспертными, авторитетными и надежными. Это снижает риск дезинформации и повышает качество ответа. При этом ни одна система не использует E-E-A-T как единый «фактор». Он распознается через множество косвенных сигналов, например:
Иными словами, и поисковые системы, и AI-ассистенты пытаются определить, насколько источнику можно доверять. Главное отличие заключается в том, какие сигналы оказываются решающими. Для LLM-систем важен и фактор Brand Authority — насколько часто бренд упоминается в профессиональной среде: в медиа, исследованиях, обзорах и обсуждениях. Чем чаще название фигурирует в разных источниках, тем выше вероятность, что AI-модель будет воспринимать его как надежный источник.
Для Google E-E-A-T — это результат сочетания нескольких типов факторов:
Сайты с сильным SEO часто получают преимущество в ранжировании.
Чат-модели гораздо сильнее зависят от того, как устроен сам текст. Для них важны:
Другими словами, модель должна легко «понять» материал и извлечь из него факты. Прокачка E-E-A-T почти всегда одновременно повышает шансы и на хороший ранкинг в Google, и на то, что AI-ассистенты будут ссылаться на ваш сайт. Но это не означает полного совпадения алгоритмов.

Есть несколько распространенных причин, из-за которых даже хорошие сайты не становятся источниками для AI-ответов.
Нейросети не определяют текст как AI-контент по самому факту его происхождения, они оценивают качество текста по паттернам. К типичным признакам слабого контента относятся:
Если текст состоит в основном из общих фраз и не содержит новой информации, он будет восприниматься как низкокачественный. Независимо от того, писал его человек или ИИ. Важно понимать: AI-текст сам по себе не является проблемой. Проблема — это бессодержательный, неоригинальный и бесполезный контент.
AI-поиск не отменяет базовые принципы качественного контента. И Google, и чат-модели стремятся опираться на источники, которые выглядят экспертными, авторитетными и надежными. Однако способы определения этих качеств различаются. Google в большей степени зависит от классических SEO-сигналов — ссылочного профиля, структуры сайта, поведенческих факторов и авторитета домена. Чат-модели сильнее ориентируются на понятность и полноту текста, а также на то, насколько легко из него извлечь конкретные факты.
Для видимости в AI-поиске важно сочетать два подхода:
В новой поисковой реальности выигрывают сайты, которые не просто оптимизированы под алгоритмы, а действительно становятся источником знаний в своей теме.

17 апреля
А1 празднует 27 лет и представляет обновленную «Инклюзивную кофейню»

17 апреля
А1 отмечает 27 лет: обновленный магазин и суперскидки для клиентов

16 апреля
Betera Green Week: восстановление леса в Беларуси и конвертация лайков в деревья. Кейс экологического проекта

14 апреля
«Эко Движ. Зеленый сезон»: А1 собрал 8000 гаджетов и высадил более 8000 деревьев

14 апреля
3 млрд рублей на косметику: тренды бьюти-рынка Беларуси от «Золотого Яблока» и экспертов рынка

14 апреля
Успешный старт со «SMART START» Белагропромбанка

8 апреля
Чтобы вести бизнес с комфортом: как кредит от Приорбанка помогает решать ежедневные задачи

6 апреля
В Минске выступят крупнейшие франшизы Беларуси и России, они уже открыли 2000+ точек в 20 странах




