LSI-копирайтинг. Новое в работе с текстами

+64

lsi-novoe-v-rabote-s-tekstami

Начало LSI-копирайтинг берет еще в 1988 году, когда группа исследователей из США получила патент за разработку метода построения баз знаний и индексирования текстов автоматически. Применялся метод для исследования качества обучающих методик для школьников.


Определение LSI-копирайтинга

LSI-копирайтинг –
это способ написания текстов с учетом синонимов и сопутствующих ключевых фраз. Основан на как можно более полном раскрытии смысла ключей.


То есть подбираются не просто ключевые фразы, но и условные синонимы (например, корабль – теплоход), а также сопутствующие слова (например, теплоход-море-путешествие). И все эти фразы используются в тексте.

Таким образом текст становится более читабельным, интересным, полезным. С точки зрения продвижения – релевантным большему числу запросов. Вероятность выхода в топ такого текста выше, чем стандартного SEO-текста.

Почему LSI стал возможным?

Из-за заспамленности текстов стандартное продвижение по методу запрос-выдача стало пробуксовывать.

Специалистами поисковиков стали разрабатываться новые алгоритмы, построенные на распознавании синонимов на основе латентного семантического анализа – LSA. LSA – распознавание естественной речи и установление семантических связей с помощью специальных программ.

Развитие LSA в поисковых системах

Латентный семантический анализ в Google

Начало положила компания Google своим алгоритмом Панда, который умел выявить контент низкокачественный контент: неуникальный, с орфографическими ошибками, большим количеством ключевых фраз.

panda-google


Следующее усовершенствование – Колибри. Этот алгоритм уже «понимал» «смысл» - бракуя тексты, где не было связи между основным ключом и семантическим ядром.

Латентный семантический анализ в Яндексе

Яндекс не отставал, запустив свою «жар-птицу» Палех.
Теперь за ключом можно было отследить длинный хвост, вылавливая из него соответствия и выдавая ответ по запросу.

palex-yandex

Машинное обучение позволяет Палеху связывать до 40% текстового материала.

Естественным продолжением Палеха был Баден-Баден, фильтр, под который попадали тексты за переспам.

А в конце 2017 года появился Королёв – алгоритм, работающий на нейросетях (обучающийся в процессе анализа текстов).

И выдачу в Яндексе стало штормить. Сайты, продвинутые по хорошо отработанной системе с выверенными SEO-текстами вылетают из топа. Причиной указывается переоптимизация, а единственный способ выйти из-под фильтра – переработать текст на посадочной странице, фактически, убрать тексты, заточенные под SEO-продвижение.

Об отличиях LSI и SEO, о достоинствах и недостатках новых текстов в следующий раз.


Понравилась статья? Поделись с друзьями:
Читайте также
Отличие LSI от SEO-копирайтинга
Отличие LSI от SEO-копирайтинга
Поисковые роботы научились понимать смысл текста (хотя, конечно, понимание это пока условно). А вслед за пониманием появились и новые факторы оценки текста: теперь на первое место выходит польза для читателя, а не для поисковика.
Трафиковое продвижение: кому это надо
Трафиковое продвижение: кому это надо
Для трафикового продвижения подбираются низкочастотные запросы, количество которых может достигать нескольких тысяч. Трафик привлекают из внешних источников.
Заголовки и подзаголовки: как много внимания им надо уделять
Заголовки и подзаголовки: как много внимания им надо уделять
Классика продвижения – прописывание заголовков и подзаголовков. Вроде бы, об этом известно все. Но вопросы, особенно у начинающих специалистов, по-прежнему возникают.

Комментарии ()

  1. Patriot 26 февраля 2018, 17:09 # 0
    Информативно полезно
    1. Татьяна 02 марта 2018, 08:36 # 0
      Спасибо
    Категории
    События студии все
    Популярное
    Последнее