Класическото SEO мери позиции в SERP. ИИ видимостта (AI visibility) работи по фундаментално различен начин и ако не разбираш защо, бизнесът ти бавно изчезва от мястото, където клиентите реално търсят отговори през 2026.
Тази статия е практическа рамка за измерване и оптимизация на присъствието на бранда ти в AI отговорите на ChatGPT, Perplexity, Gemini и Claude. Ще разгледаме как функционират LLM-ите на ниво архитектура, защо това променя играта за бранд видимост, кои пет метрики трябва да следиш и какъв екшън план да приложиш още сега.
Как LLM-ите всъщност работят и защо това има значение
Всички съвременни модели – GPT-5, Claude Opus 4, Gemini 3, Grok 4, DeepSeek – са изградени върху Transformer архитектура. На практика моделът представлява огромен набор от floating-point числа, наричани parameters или weights. GPT-4 има около 1 трилион параметри, Claude Opus 3 – около 1 трилион, най-големите експериментални модели достигат 5 трилиона.
Ключов момент, който повечето SEO специалисти подценяват: моделът не съхранява знания. За разлика от Google, който има индекс с документи, LLM-ът няма база данни. Всичко, на което е обучен, е поставено в тези структури под формата на статистически модели.
Какво може един LLM в текущото си поколение? Едно нещо – да предсказва следващия токън въз основа на контекст. Цялата „магия“ на логическото мислене, изследванията и верижното мислене се състои просто от последователности от генериране на токени, облечени в продуктов слой.
Тази архитектура има две критични последствия за бранд видимостта:
Първо: стохастична природа. Един и същ промпт дава различни отговори всеки път. Не съществува детерминистичен отговор. Но при достатъчно голяма извадка отговорите следват Гаусова дистрибуция – статистически стабилни са. Затова не може да се мери AI видимостта през единични заявки. Нужни са поне 10-15 промпта на сценарий, за да се получи репрезентативен резултат.
Второ: халюцинации срещу запаметяване. Когато даден модел се среща често в обучителните данни („столицата на България е София“), моделът го възпроизвежда точно. Когато моделът е с висока честота в данните за обучение („столицата на България е София“), моделът го възпроизвежда точно.
RAG: ключът към твоята AI видимост
За да се борят с халюцинациите, всички съвременни AI системи използват Retrieval-Augmented Generation (RAG). Принципът е прост: вместо моделът да отговаря само от собствените си модели, той прави допълнителна search заявка, обогатява контекста с резултатите и едва тогава генерира отговор. Този процес се нарича grounding.


Фиг. 1. RAG механизмът: как LLM използва search engine за избягване на халюцинации
Какъв е практическият извод? Класическото SEO остава фундамент за AI visibility. Всеки от водещите модели разчита на search engine за enrichment:
- ChatGPT и Claude → Google
- Perplexity → собствен search index + Bing
- Gemini → Google + директен достъп до YouTube транскрипти
- DeepSeek и Qwen → собствени Chinese search източници + западни fallbacks
Ако сайтът ти не е добре класиран в Google за информационни заявки, няма как да попадне в RAG pool-а на ChatGPT. AI visibility и SEO не са две отделни дисциплини – AI visibility е надстройка върху солидно техническо SEO.
Това обяснява защо някои сайтове с отлично класиране при търсения с търговска насоченост остават незабелязани в отговорите на големите езикови модели. Моделът таргетира информационното намерение, а не към търговски ключови думи. Ако сайтът ти е оптимизиран за „купи X онлайн“, но информационните заявки в нишата са за „какво е X“ или „как се избира X“, LLM-ите ще цитират конкурентите, дори те да са под теб в SERP.
Пет метрики за измерване на AI visibility
В класическото SEO имаме ясни KPI-та: позиции, импресии, кликове. За LLM-ите се нуждаем от съвсем нов набор метрики.
1. Mention rate
Базовата метрика – процентът промпти, в които брандът ти е споменат изобщо. Изчислява се като броя prompts с твоя бранд, разделен на общия брой промпти в сценария. Може да се сегментира по отделни модели, по сценарии или по групи сценарии.
2. Share of voice
По-сложна, но по-показателна метрика – споменаванията на твоя бранд спрямо общия брой споменавания на всички брандове (твой + конкуренти). Тук нещата стават интересни.
Може да имаш Mention rate 50%, но Share of voice само 10% – означава, че конкурентите се споменават много по-често в същите отговори, в които и ти присъстваш. Обратният случай – нисък MR (10%), висок SoV (80%) – типичен е за brand guardrails: моделът отказва да отговаря на много prompts, но когато отговори, цитира предимно теб.


Фиг. 2. Mention Rate vs Share of Voice матрица: 4 типа brand positioning в LLM
За да изчислиш SoV коректно, трябва да си идентифицирал всички конкуренти в нишата, всичките им subbrands и всичките им алиаси (от латински: alias – „иначе“,). Това не е тривиална задача и обикновено се прави с второ LLM passes върху извлечените entities.
3. Позиция в списъците
LLM-ите обожават numbered lists. Когато потребител пита „топ 5 X в Y“, моделът връща listicle. Тук метриката е средната позиция на твоя бранд в тези lists или процентът prompts, в които си в топ 3.
4. Net sentiment score
Не е достатъчно да си споменат – важна е тоналността. NSS се изчислява чрез LLM as a judge подход: chunk от ±200 token-а около всяко споменаване на бранда се подава на по-лек модел (Sonnet или GPT-mini), който класифицира контекста като positive, neutral или negative. Финалният NSS = (positives − negatives) / общ брой споменавания.
Важно: не питай директно „оцени бранда X“. Това е leading question и дава изкривени резултати. Използвай неутрални informational prompts от типа „кой е най-добрият X за Y“ и анализирай тоналността в естествения отговор.
5. Честота на цитиране
Кои домейни цитира конкретен модел при отговори в твоята ниша? Perplexity връща тези данни безплатно през API; ChatGPT и Claude чрез search citations; Google AI Overview директно в SERP-а.
Тази метрика ти показва точно кои външни сайтове трябва да набележиш за споменавания в медиите, гостуващи публикации или сътрудничество с редакторите, за да попаднеш в „grounding pool“-а на конкретен модел.
Методология: от заявки към сценарии
В класическото SEO работиш с keywords. В LLM-овия свят ключовите думи не работят – потребителите не пишат „евтин хотел Анталия 2026“, а формулират сложни разговорни заявки в контекст: „Планирам семейна почивка в Анталия през юли с две деца, бюджет 2500 евро, какъв хотел да избера?“.
Затова работният модел е scenarios + prompts. Scenario е персонажен контекст („семейство с деца планира почивка в Турция“). За всеки scenario генерираш 10-15 промпта, които покриват различни ъгли на едно и също намерение. Най-добрата практика е промпите да се генерират от LLM, а не ръчно – това намалява bias-а.
За всеки промпт извличаш отговорите от целевите модели, минаваш ги през втори LLM тест за извличане на обекти (класическият NER не работи добре), нормализираш entities чрез vector embedding similarity, идентифицираш конкурентите чрез анализ на съвместното наличие и групиране на подбрандове в йерархии.
Цялата тази обработка изисква поредица от операции. За български пазар препоръчвам месечни замервания за всеки тракван бранд – седмичните са безсмислени, тримесечните пропускат инфо.
Екшън план: какво да правиш още този месец
Теорията е безполезна без изпълнение. Ето петте действия с най-висока ROI за повишаване на AI видимостта:


Фиг. 3. 5 действия по ROI хоризонта
- Затегни техническото SEO до перфектно ниво. Без солидно класиране в Google за информационни заявки, никаква GEO стратегия няма да помогне. Бюджет за индексиране, скорост на зареждане на страниците, схематично маркиране, вътрешни връзки – всичко стандартно, но изпълнено безкомпромисно.
- Инвестирай в external mentions на качествени домейни. Не става въпрос за класически беклникове – важни са редакторските споменавания на бранда в текста на статии, които ранкват за информационни заявки в нишата. Един коректно поставен бранд mention в статия на доверен медиен домейн носи повече AI visibility от 50 линка.
- Присъствай в listicles. „Топ 10 X в България 2026“ – този формат е златна жила за LLM цитиранията. Идентифицирай съществуващите листикали в нишата ти и работи за включване. Където такива не съществуват – създай ги на трети неутрални домейни, не на собствения си сайт. Google филтрира агресивно статии със списъци с рекламен характер.
- Пиши тематично съдържание, а не само рекламно. Това е най-често пропусканата препоръка. Ако продаваш сглобяеми къщи, не пиши само „поръчай сглобяема къща“ – пиши „ние сме български производител на сглобяеми къщи с производствена база във Варна, специализирани в панелна технология“. LLM-ът трябва да научи какво си, не само какво продаваш.
- Дългата игра: разпръснати споменавания на бранда за бъдещи цикли на обучение. Големите езикови модели (LLM) се преобучават периодично. Споменаванията на марката, които циркулират в отворения уеб днес, ще бъдат включени в обучителните данни на следващото поколение модели. Това е инвестиция с хоризонт от 18 до 36 месеца, но създава присъствие.
Какво да НЕ правиш
Един съвет, който противоречи на класическата SEO логика: не разчитай на чисто AI-генерирано съдържание без човешка редакция. Тестове показват, че чисто AI съдържание губи всички позиции в рамките на 90 дни – както в Google, така и като citation source в самите LLM-и. Принципът на Information gain работи още по-силно за AI visibility: ако съдържанието ти не носи уникална стойност, която не може да се намери другаде, нямаш причина да бъдеш цитиран.
За българските брандове това означава едно – използвайте локални институционални източници (НСИ, БНБ, Евростат и т.н.), които конкурентите ви не цитират и които моделите не могат да достъпят директно от global sources.
Често задавани въпроси
Колко време отнема да се появят резултати от AI visibility оптимизация?
Първите промени в Mention rate и Share of voice се виждат след 60-90 дни от изпълнението на action plan-а. Citation Rate реагира по-бързо – за 30-45 дни. Промените във weights на самите модели изискват нов training cycle, което е 12-24 месеца .
Кои AI модели да следим за български пазар?
ChatGPT, Claude, Perplexity, Google AI Overview (чрез Gemini Flash) и DeepSeek. Grok набира скорост, но все още не е приоритет.
Колко струва системно AI visibility tracking?
API цената за тракване на 5 модела с 10 сценария по 15 промпта месечно са под 50 евро. Основният разход е човешкото време за интерпретация и реакция на данните. За средно голям бранд бюджетирай 4-8 часа месечно за анализ.
Schema markup помага ли за AI видимостта ?
Да, но индиректно. Schema подобрява класическото SEO класиране, което увеличава шанса страницата да попадне в RAG retrieval pool-а. Освен това FAQPage и HowTo schemas правят съдържанието по-лесно за парсинг от извличащите модели.
Може ли локален бизнес да оптимизира за AI visibility?
Да, и често с по-добро ROI отколкото националните брандове. Локалните заявки имат по-малко конкуренция в RAG pool-а, а LocalBusiness schema + Google Business Profile са силни сигнали за grounding в локални AI отговори.
Заключение
AI visibility не е заместител на класическото SEO – надстройка е. Брандовете, които се справят добре в LLM ерата, са тези, които изпълняват техническото SEO безкомпромисно,инвестират систематично във външни редакционни споменавания и измерват резултатите си с правилните метрики, а не със стари KPI-та от 2020.
Ако искаш да обсъдим как да приложиш тази рамка в твоя бизнес, свържи се с нас.





