Модели и архитектура LLM
Perplexity AI не ограничивается одной языковой моделью – это многомодельная система, сочетающая несколько передовых LLM и собственные модели компании. Сервис изначально строился как «ответный поисковик», используя API крупных моделей (в частности, OpenAI GPT-3/4) для генерации ответов на основе найденной информации. По состоянию на 2025–2026 гг. Perplexity поддерживает модели OpenAI (GPT-4 и более новые), Anthropic Claude, Google Gemini и др., а также собственную линейку Sonar. В режиме Best система автоматически подбирает «лучшую» модель под задачу, балансируя скорость и точность, тогда как подписчики Pro могут вручную выбирать конкретный движок.
Sonar – это фирменная модель Perplexity, основанная на открытой архитектуре LLaMA (в поздних версиях – Llama 3.1 70B) и специально доработанная для быстрого веб-поиска и суммаризации с привязкой к источникам. Sonar выступает базовой моделью по умолчанию – особенно для бесплатных пользователей – обеспечивая высокую скорость и фактическую точность ответов на основе веб-контекста. Для более сложных запросов сервис может переключаться на «партнерские» LLM с особыми навыками: например, GPT-4/5 от OpenAI – для логических рассуждений и кода, Claude – для больших контекстов и «этических» ответов, Gemini – для мультимодальных задач и т.п.. Таким образом, инфраструктура Perplexity динамически маршрутизирует запрос: либо через свою быстродействующую модель, либо через внешний передовой LLM, подходящий под тип задачи.
Эксперименты с моделями. Perplexity не полагается только на закрытые API – компания активно работает с open-source LLM. В 2023 г. они тонко настроили свои онлайн-модели Sonar (размеров Small и Medium) на базе открытой Mistral 7B, а также собрали собственную смесь экспертов “Mixtral 8×7B” (восемь моделей по 7B), обученную с помощью Amazon SageMaker. Эти кастомные модели ориентированы на приоритет свежих знаний из интернета над статичным обучающим корпусом, чтобы отвечать на актуальные вопросы. Perplexity также заявляла о доступе к Anthropic Claude 2/3 (через платформу AWS Bedrock) для улучшения навыков кода, математики и длительных рассуждений. Интересно, что в начале 2025 г. компания открыла исходный код модели R1 1776 – модификации китайского LLM DeepSeek, «разблокированной» от цензуры, с упором на объективные факты. Этот шаг демонстрирует стремление Perplexity к прозрачности и участию сообщества в доработке моделей. В целом же, сила Perplexity – именно в модульности архитектуры: совмещение нескольких моделей и алгоритмов поиска позволяет выдавать персонализированные, актуальные ответы с доказательной базой, а не просто «сочинять» текст.
Алгоритмы отбора источников
Как Perplexity выбирает сайты для ответа? Процесс устроен как многоступенчатый пайплайн отбора, где на каждом этапе применяются фильтры и ранжирование по ряду критериев. Ниже основные стадии и факторы:
- Понимание запроса (Intent Mapping) – сначала запрос кодируется моделью в семантический вектор. Определяется тема и тип запроса: например, является ли он трендовым (всплеск интереса в новостях/соцсетях) или «вечнозеленым» (частый информационный вопрос). От этого зависят дальнейшие настройки поиска – так, для трендовых тем система даст больше шанса свежим публикациям, а для стабильных вопросов – ресурсам с глубоким покрытием темы.
- Начальный поиск (Retrieval) – Perplexity формирует расширенный поисковый запрос и обращается к веб-индексу. На этом этапе используется комбинация Bing Web Search API и собственного индекса Perplexity. Bing выдает топ-N результатов (URL, заголовки, сниппеты), параллельно Perplexity может дополнять список из своей кешированной базы (~200 миллиардов URL). Техническая фильтрация сразу отсеивает страницы, которые не пригодны для чтения: если сайт блокирует сканер (например, запретил BingPreview/PerplexityBot в
robots.txt), скрывает контент за тяжелым JS или не прогружается, то такие URL удаляются. Только доступные для рендеринга страницы проходят дальше. - Семантический отбор – для прошедших страниц вычисляются эмбеддинги и сопоставляются с вектором запроса. На этом шаге отбрасываются результаты, не имеющие смысловой близости к информационному намерению пользователя. Например, если Bing вернул страницу с упоминанием ключевых слов, но в ином контексте, Perplexity это выявит и исключит. Также действует дедупликация и разнообразие доменов: механизм “feed-level controls” не даст одному сайту заполнить весь список – дубликаты и избыточные результаты с одного домена будут урезаны. Цель – получить пул качественных кандидатов от разных источников.
- Ререйтинг (L3 reranker) – следующий уровень: внутренний модельный алгоритм ранжирования пересчитывает оставшиеся кандидаты по совокупности метрик качества. Известно, что Perplexity учитывает семантическую релевантность (порог сходства содержания с запросом), полноту ответа (страницы с достаточной информацией по теме), свежесть (время публикации и «decay» старых материалов), качество текста и структуру, а также авторитетность источника. Последний фактор интересен тем, что реализован комбинированно: с одной стороны, Perplexity использует алгоритмические показатели (например, тематическая авторитетность сайта по теме запроса), с другой – применяет ручные белые списки надежных доменов. Аналитики отмечают, что у системы есть привилегированные «high-confidence» источники – научные базы, крупные энциклопедии, официальная документация, издания с безупречной репутацией. Если ваш сайт относится к числу известных доверенных ресурсов, шанс попасть в ответ заметно выше. Кроме того, Perplexity учитывает “ассоциативные” сигналы доверия: например, если страница ссылается на авторитетные источники или ее часто цитируют другие надежные сайты, то она получает бонус к рейтингу. Такой подход повышает вероятность, что система выберет контент, уже подтвержденный экспертным сообществом.
- Учет свежести и трендов. Perplexity активно отслеживает актуальность информации. Новые данные и обновления получают повышенный вес – в частности, страницы с явной датой последнего обновления (например, “Updated: Jan 2026”) ранжируются выше для запросов о технологиях, ценах, обзорах и т.д.. В одном исследовании ~70% сайтов, цитируемых Perplexity, имели обновления за последние 12–18 месяцев. Это намеренно: система стремится избежать устаревших сведений (например, не рекомендовать инструмент, который уже закрыт). Также на этапе ранжирования происходит кросс-платформенный анализ трендов: если тема запроса резко набирает популярность, скажем, на YouTube или X (Twitter), и формулировки вопросов перекликаются с обсуждениями, Perplexity может учесть этот «внешний сигнал» как подтверждение значимости темы. Иными словами, всплеск интереса в соцмедиа даст контенту по этой теме дополнительный шанс быть включенным в ответ.
- Финальная фильтрация по поведению. Наконец, перед выдачей цитат, Perplexity применяет корректировки на основе истории пользовательских взаимодействий. Сайты, которые в прошлом получали негативный отклик – например, пользователи массово пропускали ссылку, отмечали ответ как бесполезный или жаловались – временно занижаются в видимости. Такой feedback loop служит для очистки выдачи от страниц, которые формально прошли все фильтры, но на практике оказались разочаровывающими для читателей. Обратная ситуация – если источник стабильно получает клики и положительные оценки, это повышает его «репутацию» в системе. Персонализированные сигналы тоже играют роль: Perplexity заявляет, что учится на интересах пользователя со временем, т.е. может подстраивать результаты под ваши предпочтения. Например, если вы часто открываете статьи с определенного сайта или определенного типа (форумы, научные статьи и т.п.), со временем система может чаще включать сходные источники. В итоге в выдачу попадают только те страницы, которые успешно прошли всю цепочку фильтров – от технической доступности и тематической релевантности до высокого рейтинга и отсутствия негативного опыта у пользователей.
Формирование ответов и цитирование
Perplexity следует парадигме Retrieval-Augmented Generation (RAG) – генерация ответа всегда опирается на найденные источники, а не на “голые” параметры модели. После отбора релевантных документов система непосредственно конструирует развернутый промпт для языковой модели, куда включает ключевые выдержки из источников, их метаданные и указатели на ссылки. Иными словами, перед генерацией ответа модель уже снабжена «справочным материалом»: фрагментами текста, упорядоченными по значимости, и специальными маркерами, которые обозначают откуда какая информация взята. Ответ формируется как синтез этих данных – языковая модель Perplexity интегрирует разные фрагменты, перефразирует и связывает их, но при этом строго привязывает утверждения к конкретным источникам.
Отличительная черта – цитирование встроено “по умолчанию” в процесс генерации. Perplexity не просто добавляет ссылки уже после того, как написан текст (как это делает, к примеру, традиционный поиск с фичер-сниппетами). Вместо этого ссылки «вшиты» в логику ответа изначально. Каждое утверждение, которое вы читаете в ответе Perplexity, обычно сопровождается индексом в квадратных скобках – это не постфактум проставленный источник, а изначально предусмотренный компонент ответа. Разработчики подчеркивают, что такой «заземленный» стиль генерации – ключевой принцип платформы: никаких голословных выводов, только проверяемые факты. В результате любой тезис в ответе можно щелкнуть и перейти к оригиналу, убедившись, что модель не исказила смысла.

Важно, что Perplexity не ограничивается одной ссылкой – ответ может агрегировать сведения с нескольких страниц. Например, при сложном вопросе («Объясните принцип квантового компьютера и последние достижения в этой области») система разбивает запрос на подтемы, проводит многошаговый поиск (agentic workflow) и собирает контекст из множества источников. Отдельные факты, определения и примеры берутся из разных документов (научные статьи, новости, энциклопедии) и аккуратно связываются. Только убедившись, что по каждой подтеме набран достаточный обоснованный материал, система передает все это модели для финального ответа. Такая многоходовая оркестрация особенно характерна для режимов Pro Search и Deep Research, где Perplexity выступает как виртуальный исследователь: планирует шаги, ищет поэтапно, суммирует промежуточно и строит длинные ответы с иерархией источников.
Формат ответа. Генерированный текст, благодаря подготовленному промпту, уже содержит специальные placeholder для цитат. Модель выводит ответ вида: «…по данным такого-то источника X, …; в другом источнике отмечается Y, что…». Затем движок Perplexity автоматически рендерит эти ссылки в удобном формате: пронумерованные цитаты в квадратных скобках, которые ведут на оригинальные страницы. Каждая ссылка кликабельна, позволяя пользователю сразу перейти и прочесть первоисточник. Такой интерактивный формат делает ответы прозрачными и удобными для проверки.
В профессиональных режимах (например, при генерации отчетов) система еще более тщательно связывает части ответа с источниками – вплоть до пословного соответствия сложных выкладок набору ссылок. Никакие ссылки не «подбираются» задним числом – Perplexity принципиально не дорисовывает факты без указания, откуда они взялись. Если модель не уверена или не нашла подтверждения, она скорее явно укажет на отсутствие данных, чем выдумывает. Такой подход существенно снижает риск галлюцинаций и ложных сведений: каждая фраза «привязана» к реальному документу, а пользователь видит эту привязку.
Отметим, что Perplexity также внедрила режим Reasoning (шаг цепочки рассуждений) для некоторых моделей: при его включении LLM объясняет свой ход мыслей и проверяет последовательность действий. Это используется, например, в кодовых задачах и сложных технических вопросах, когда важна прозрачность, как получен ответ. В целом же, генерация ответов в Perplexity – управляемый процесс, где модель выступает не фантазером, а „пишущим редактором“, составляя связный ответ строго по предоставленным ей материалам.
Влияние на SEO и наблюдения экспертов
Появление «ответных движков» вроде Perplexity вызвало новый вызов для создателей контента и SEO-специалистов – вместо классического ранжирования страниц в Google теперь важно, попадет ли ваш сайт в цитаты AI-ответа. Исследования показывают, что алгоритмы Perplexity отбирают источники по иным правилам, чем поисковые системы. Например, страницы, занимающие топ-1 в Google, не обязательно появятся в ответе Perplexity, если они не подходят под формát или структуру ответа. Сообщество SEO провело ряд экспериментов и выявило факторы, повышающие шансы быть цитируемым:
- Актуальность и свежесть. Контент должен быть обновлен и иметь явную отметку даты. Perplexity склонен выбирать материалы с недавними обновлениями, особенно для тем, где данные быстро меняются (IT-инструменты, обзоры «лучших X» и т.п.). Отсутствие видимой даты или старый год публикации могут привести к фильтрации страницы как устаревшей. Добавление схемы
lastmodи регулярное обновление статей заметно повышают цитируемость – в исследовании 70% цитат приходились на страницы, обновлённые в последний год-полтора. - Структурированность контента. Страницы, которые структурированы под ответ, имеют преимущество. Модель пытается сформировать связный ответ, поэтому предпочитает источники с четкой разбивкой: заголовки и подзаголовки по шагам или пунктам, списки, таблицы сравнения, FAQ-разделы. Если вопрос предполагает список или сравнительный обзор, Perplexity ищет «листикл»-формат: отдельные пункты с заголовками
<h2>на каждое, таблицы со свойствами продуктов и т.д.. Однотонный «простынный» текст без разделов имеет меньше шансов – системе сложно вычленить оттуда аккуратный фрагмент для ответа. Практический совет: включать “золотой абзац” в начале – 1–2 предложения, четко отвечающие на вопрос (определение или вывод), – а далее разбивать материал на логические части. Многие успешные страницы сразу дают сжатое определение (Entity = категория, польза) в первых строках, что удобно для быстрого цитирования. - Тематическая авторитетность vs. общий рейтинг. В отличие от Google, где большой домен с высоким DR часто выигрывает по умолчанию, Perplexity ценит узкую тематическую экспертизу. Анализ 30 запросов показал, что движок нередко выбирает нишевые сайты или блоги экспертов по теме вместо крупных универсальных порталов. Например, в выдаче по запросу о management-решениях цитировался специализированный блог ZenPilot, а не общеизвестный Forbes. Это говорит о том, что сильная тематическая репутация перевешивает общий вес домена. Если весь ваш сайт посвящен одной теме и вы регулярно публикуете глубокий контент по ней, Perplexity будет «доверять» вам в рамках этой ниши больше, чем многопрофильному изданию. Проще говоря, не обязательно быть Wikipedia или NYTimes, чтобы получить цитату – достаточно быть экспертным источником на своем узком поле.
- Наличие внешних и внутренних доказательств. Любопытный инсайт: страницы, которые сами содержат ссылки на авторитетные первоисточники (например, официальные доки, стандарты, исследования), кажутся Perplexity более надежными. Модель, анализируя текст, «видит», что автор подкрепляет слова ссылками, и таким страницам доверяет больше. Это побуждает веб-мастеров практиковать “цитирование для ИИ”: не бояться ссылаться на официальные данные и конкурирующие источники. Такой “citation loop” повышает ваш «trust score» в глазах алгоритма. Кроме того, сильная внутренняя связность сайта (наличие серии взаимосвязанных материалов по теме, сквозных ссылок) помогает Perplexity лучше «запомнить» ваш домен как экспертный. Модель отмечает, когда один ресурс многократно публикует на смежные темы – это своего рода «memory reinforcement», усиливающий сигнал экспертности домена.
- Техническая доступность для бота. Как упоминалось, если сайт блокирует PerplexityBot или контент загружается только через сложный скрипт, страница вообще не попадёт в индекс. Специалисты рекомендуют явно разрешить в
robots.txtдоступ дляUser-agent: PerplexityBotна весь сайт. Также важно оптимизировать скорость и рендеринг: Perplexity ценит простой статичный HTML. Если при проверке «просмотр кода» (как Googlebot) основной текст не виден без выполнения JS, переработайте страницу – вероятно, ИИ ее не сможет прочитать в режиме реального времени. В гонке за мгновенным ответом движок не станет ждать долгой загрузки; предпочтение получат легковесные, быстро парсящиеся страницы. Проще говоря, контент должен быть “виден” боту сразу. И конечно, базовые вещи: корректная разметка, отсутствие капч и блокировок для известных сканеров – необходимые условия, чтобы ваш материал вообще участвовал в подборе источников. - Пользовательский контент и «Human consensus». Интересная особенность Perplexity – тяга к коллективному опыту. Модель обучена ценить мнение реальных людей, поэтому в ответах на субъективные или обзорные запросы часто фигурируют форумы и Q&A-платформы. Анализ показал, что по запросам вида «стоит ли X?», «отзывы о…», «лучший Y по мнению пользователей» Perplexity нередко цитирует ветки Reddit, StackExchange, Quora и другие сообщества, иногда ставя их выше официальных сайтов брендов. Алгоритм трактует высокий рейтинг/лайки у ответа на форуме как сигнал коллективного одобрения – своеобразное “human consensus”. Сооснователь Reddit однажды даже отметил, что Perplexity называла контент Reddit «топовым источником данных» для своих ответов. Это подтверждается и тем, что PerplexityBot активно скрапил Reddit (за что, кстати, в 2025 г. Reddit подала на них в суд). Для SEO это открыло стратегию “Barnacle SEO”: если сложно ранжировать свой сайт, продвигайся через UGC. Например, по высококонкурентному запросу лучше оставить развернутый экспертный комментарий на релевантном Reddit-треде (вместе с упоминанием своей марки), и Perplexity скорее возьмет цитату оттуда – “согласно обсуждению на Reddit, …” – фактически продвигая ваш бренд внутри своего ответа. Многие компании начали отслеживать, на каких площадках модели «берут» информацию, чтобы присутствовать в этих обсуждениях. Это совсем другой уровень оптимизации – Generative AI Optimization (GAO) или Answer Engine Optimization (AEO), как уже окрестили его на профильных форумах.
Как Perplexity влияет на трафик и контентную стратегию? С одной стороны, попав в число цитируемых источников, сайт получает видимость и потенциальные переходы: ведь ссылки открыты, и пользователь может кликнуть для подробностей. Однако на практике многие пользователи довольствуются сводным ответом, не переходя на первоисточник – ведь Perplexity уже пересказала основное. Издатели СМИ выразили обеспокоенность, что ИИ-ответ подменяет их контент, снижая мотивацию читателя посетить оригинальный сайт. В иске New York Times прямо указывается: Perplexity цитирует и перефразирует материалы газеты, удовлетворяя любопытство пользователя, из-за чего “у читателя меньше необходимости переходить по ссылке”, а издание теряет трафик и доход. Некоторые издатели назвали это «клептократией контента», когда ИИ собирает журналистские работы в единый ответ без должной компенсации авторам.
В ответ на эти опасения Perplexity запустила программу партнерства с медиа. С конца 2024 г. компания предлагает издателям Publisher Program – своего рода ревеню-шеринг: медиасайты разрешают Perplexity доступ к своим статьям, а взамен получают долю от рекламной выручки и аналитику по вовлечению контента. Уже более десятка крупных ресурсов присоединились: LA Times, Adweek, The Independent, Der Spiegel, TIME, Fortune и др.. Представитель Perplexity отметил, что без журналистов они не смогли бы давать столь ценные фактические ответы, поэтому готовы делиться доходами с первоисточниками. Однако ряд крупных издателей (NY Times, Wall Street Journal, The Guardian и др.) принципиально отказались, потребовав не использовать их материалы. NYT даже выставила Perplexity ультиматум (а затем и иск) – обвиняя в массовом несанкционированном копировании статей и нарушении robots.txt на своем сайте. Судебные тяжбы еще продолжаются, и исход их важен для всей отрасли: они определят, может ли ИИ-система легально читать и суммировать веб-контент, или ей нужны лицензии от правообладателей.
С точки зрения SEO, Perplexity меняет правила игры. Теперь мало занять высокое место в выдаче – нужно учесть алгоритмы AI-ранжирования. Контент-маркетологам приходится адаптироваться: уделять внимание структуре и фактам, поддерживать свежесть страниц, открывать доступ для AI-сканеров. Возникают новые метрики – доля цитирования в AI-ответах, «видимость бренда в сгенерированных советах» и т.п. Уже появляются инструменты для мониторинга, сколько раз ваш сайт упомянут в ответах ChatGPT, Perplexity, Bing/Copilot и др.. Это подтверждает: SEO не умер, но трансформируется. По сути, традиционный поиск ищет страницы, а AI-поиск (ответники) – ищет отрывки знаний внутри страниц. Поэтому оптимизировать нужно не только ключевые слова, но и то, как ваш контент выглядит для модели. Тем, кто инвестирует усилия в AEO/GAO, Perplexity может даже дать новые возможности: небольшие сайты с отличным, структурированным ответом на узкий вопрос теперь могут обойти гигантов и сразу попасть «на глаза» пользователя через цитирование.
Подытожим
Perplexity AI сочетает мощь современных LLM (GPT-4, Claude и др.) с собственными поисковыми технологиями, чтобы предоставлять пользователям развернутые ответы с подтверждениями. Внутри у него работает сложная система отбора источников: от семантического понимания запроса и краулера, снимающего свежий контент, до многоуровневого ранжирования (с учётом авторитета, структуры, актуальности и поведения аудитории). Генерация ответа тесно связана с цитированием – каждое утверждение привязано к источнику, что повышает доверие и позволяет пользователю перепроверить факты. Появление таких «ответных движков» стимулирует эволюцию контент-стратегий: качество, фактаж и удобство для машинного чтения выходят на первый план. SEO-специалисты уже адаптируют страницы под требования Perplexity – структурируют тексты, обновляют даты, открывают доступ ботам – чтобы занять место среди избранных источников, звучащих в ответах ИИ. В целом, Perplexity AI демонстрирует, каким может быть будущее поиска: конвергенция поискового индекса и генеративного ИИ, где важны не столько позиции сайтов, сколько их вклад в конечный ответ пользователю.
