Существуют различные точки зрения про необходимость использования ключевых слов, расширяющих семантическое облако документа для улучшения ранжирования в ПС. Моя практика показывает, что использование дополнительных ключевых слов не только дает дополнительный трафик по неочевидным ключевым словосочетаниям, но и положительно сказывается на ранжировании документа.

На странице https://siteclinic.ru/blog/internal-optimization/lsi-poisk-primeneniye/ можно найти обобщающую информацию на русском языке про поиск LSI ключевых слов. Видимо источниками статьи были англоязычные материалы https://blog.alexa.com/how-to-find-lsi-keywords/ и https://www.semrush.com/blog/lsi-keywords/.

Кроме этого, среди SEO специалистов существует еще один термин Long-Tail Keyword(LTK), описанный на странице https://www.semrush.com/blog/how-to-choose-long-tail-keywords/

На мой взгляд оба термина отражают идентичную сущность, или сущности с несущественными различиями.

Про LSA анализ интересно почитать патент с 1989 года учеными, исследующими проблемы определения интента документа и описывающими в своем патенте как они с помощью матриц смогли определить дополнительные ключевые словосочетания для одинаковых понятий и что можно представить отдельный интент как некий объект. В наше время появился термин семантический кокон, который видимо тоже определяет набор ключевых слов и словосочетаний как некий объект, относящийся к одной теме. https://patft.uspto.gov/netacgi/nph-Parser?Sect1=PTO1&Sect2=HITOFF&d=PALL&p=1&u=%2Fnetahtml%2FPTO%2Fsrchnum.htm&r=1&f=G&l=50&s1=4839853.PN.&OS=PN/4839853&RS=PN/4839853

Например, когда я набираю в поиске поисковый запрос “купить кондиционер”, то я подразумеваю интент “охладитель воздуха” или “сплит систему”, но не “кондиционер для волос”, что вероятно можно отнести к другому объекту или можно сказать , к другому интенту.

Для меня было очень полезно изучить материал про текстовый анализ: https://www.knime.com/sites/default/files/2020-09-slides-course-l4-tp.pdf

Вообще платформа Knime предоставляет замечательные инструменты для текстового анализа, о которым мы возможно поговорим в будущих статьях и видео, если на это будет запрос от подписчиков.

Теперь о деле.

Как я ищу LSI ключевые слова?

  1. Необходимо спарсить с поисковой выдачи список URL по моему ключевому слову. Бесплатные инструменты для парсинга были в предыдущих статьях и видео. Как спарсить выдачу ПС Google
  2. По списку сайтов надо собрать весь имеющийся в наличии текст. Можно использовать А-парсер, зенно постер, хуман эмулятор, BAS, программы на Python или других языках. Лично я написал и использую программу написанную на Java, потому что хотел реализовать многопоточность. Саму программу, если есть необходимость раздам только в телеграм канале SEO под другим углом адекватным людям, участвующим в обсуждениях. Остальные могут использовать многочисленные решения из просторов интернета.
  3. Текстовый файл, полученный в результате парсинга списка сайтов обрабатываю с помощью алгоритмов TF-IDF и Yet Another Keyword Extractor (Yake). Очень рекомендую использовать именно Yake, у него даже есть поддержка русского языка. Качество превосходное, спасибо создателям данной программки. Можно найти в свободном доступе по адресу: https://github.com/LIAAD/yake

 

Данный материал в видео формате:

Как найти и использовать LSI ключи

Next
Парсинг description по списку сайтов