Дискусія про LinkedIn про видимість LLM та інструменти для відстеження його досліджували, як SEO наближається до оптимізації для пошуку на основі LLM. Відповіді передбачають, що інструменти для SEO, орієнтованого на LLM, набирають зрілість, хоча є деякі розбіжності щодо того, що саме слід відстежувати.
Джо Холл (профіль LinkedIn) підняв низку запитань про LinkedIn про корисність інструментів, які відстежують видимість LLM. Він прямо не говорив, що інструментам не вистачає корисності, але, здавалося, його запитання мали на меті відкрити розмову
Він писав:
“Я не розумію, як ці системи, які стверджують, відстежують роботу з видимістю LLM. Відповіді LLM є дуже суб'єктивними для контексту. Вони не є статичними, як традиційні SERPS.
Джошуа Левенсон (профіль LinkedIn) відповів, сказавши, що сьогоднішні інструменти SEO застаріли, зауваження:
“Люди використовують стару парадигму для вимірювання нової техніки”.
Джо Холл відповів “Бінго!”
LLM SEO: “Не так просто, як додати це ключове слово”
Лілі Рей (профіль LinkedIn) відповіла, щоб сказати, що суб'єкти, на які LLMS повертається, є ключовим елементом, на якому слід зосередитись.
Вона пояснила:
“Якщо ви задаєте LLM на одне і те ж питання тисячі разів на день, ви зможете в середньому об'єкти, які він згадує у своїх відповідях. А потім повторити це щодня. Це не ідеально, але це щось”.
Холл запитав її, як це корисно для клієнтів, і Лілі відповіла:
“Ну, існує безліч діючих рекомендацій, які можна отримати з даних. Але це, очевидно, важка частина. Це не так просто, як” Додайте це ключове слово до свого тегу заголовок “.
Інструменти для LLM SEO
Діксон Джонс (профіль LinkedIn) відповів коротким коментарем, щоб представити Вайкайщо означає те, що AI знає про вас. Він сказав, що його інструмент використовує вилучення суб'єктів та теми, а також базує його рекомендації та дії щодо аналізу GAP.
Райан Джонс (профіль LinkedIn) відповів, щоб обговорити, як його продукт Серпрекон Твори:
“Існує 2 способи зробити це. Один – те, як я це роблю на Serprecon, – це використовувати API для моніторингу відповідей на запити, а потім, як сказала Лілі, витягувати суб'єкти, теми тощо.
Інший спосіб – відстежувати дані провайдера та побачити, скільки реальних запитів користувачів ви насправді показали. Це супер дорого.
Будь -який інший метод не має великого сенсу ».
А в іншій публікації подала додаткова інформація:
“AI не говорить вам, як він вискакував або які ще запити це робили. Люди продовжують знаходити розумні шляхи на вкладці Мережі Chrome, щоб побачити його, але вони продовжують змінювати його так само швидко.
Інструмент огляду AI у моєму інструменті намагається повернути їх інженер, використовуючи ту саму логіку/математику, що і їхні патенти, але це ніколи не може бути на 100%».
Потім він пояснив, як це допомагає клієнтам:
“Це допомагає нам у контексті, якщо я введу 25 запитів, я хочу побачити, хто там з’являється, і про які теми вони згадують, щоб я міг спробувати переконатися, що я демонструю там, якщо я не.
Десять синіх посилань ніколи не були статичними
Хоча Холл заявив, що “традиційні” результати пошуку були статичними, на відміну від результатів пошуку на основі LLM, слід зазначити, що старі результати пошуку знаходяться в постійному стані змін, особливо після оновлення колібрі, що дозволило Google додавати нові результати пошуку, коли запитав його або коли нові або оновлені веб-сторінки були введені в Інтернет. Крім того, традиційні результати пошуку, як правило, мали більше одного наміру, часто три, що призводить до коливань у рейтингу.
LLMS також демонструє різноманітність у своїх результатах пошуку, але, у випадку з оглядами AI, Google показує кілька результатів, які для запиту, а потім роблять “фанати”, щоб передбачити подальші питання, які, природно, дотримуються як частини виявлення теми.
Біллі Пері (профіль LinkedIn) запропонував цікаве розуміння результатів пошуку LLM, що дозволяє припустити, що вихід демонструє ступінь стабільності і не настільки нестабільний, як зазвичай вважається.
Він запропонував це справді цікаве розуміння:
«Я думаю, я не згоден з думкою, що Серпс колись є статичними.
За допомогою LLM ми можемо краще зрозуміти, з яких джерел вони тягнуть, щоб відповісти на запитання. Отже, навіть якщо конкретні слова змінюються, ймовірність витягнути з джерел моделі та згадувати бренди значно є більш статичною.
Я думаю, що люди, які говорять, що LLM занадто мінливі для оптимізації, занадто зосереджені на точному формулюванні, на відміну від джерел та згадок про бренд ».
Peery робить чудову точку, зазначивши, що деякі SEO можуть повісити на точне узгодження ключових слів (“точне формулювання”) і що, можливо, більш важливою, на яку слід зосередитись, – це те, чи посилається LLM та згадує конкретні веб -сайти та бренди.
Винос
Зростає усвідомлення інструментів LLM для відстеження видимості. Маркетологи досягають певної угоди про те, що слід відстежувати та як це приносить користь клієнтам. Хоча деякі ставлять під сумнів стратегічну цінність цих інструментів, інші використовують їх, щоб визначити, про які бренди та теми згадуються, додаючи ці дані до їхньої суміші SEO.
Зображення від Shutterstock/Tierneymj