Потихонечку, продвигаемся дальше по мануалу - создание и заработок на инфо сайтах. Сегодня поговорим - как правильно писать контент для инфо сайтов в нынешних реалиях, и что нас ждет в будущем?
Начнем с фактов от поисковых систем. На одной из конференции яндекс заявил, что из всех запросов, 50% это заданные впервые. Большая часть это информационные запросы. Если посмотреть на метрику существующего сайта, то действительно, очень много редких запросов, которые были заданы единожды, и из таких запросов может строиться большая часть трафика на сайте.
Поисковые системы, только учатся работать с такими запросами. Раньше просто не было технологий, а сейчас появились нейронные сети. У Яндекса это Палех. У Google - Rank Brain. И даже Mail стал использовать эту технологию.
Поэтому для наилучшего ранжирования, необходимо использовать LSI - употребление тематических слов для написания текстов:
- Если ваши статьи пишет не эксперт, то LSI поможет ему полностью раскрыть тему статьи
- LSI поможет лучше ранжироваться по главным ключам
- LSI поможет лучше ранжироваться по редким НЧ запросам увеличивая их хвост
Есть два способа написания статей по технологии LSI:
- Брать информацию из топа сайтов
- Брать информацию из всех документов
Первым способом работает большинство, потому что он самый простой. ТОП 10 выдачу сайтов, можно даже проанализировать бесплатно на наличие частоупотребляемых слов и фраз.
Вручную или программой X Parser Light по нужному нам ключевому слову из ТОП выдачи, берем текста наших конкурентов. И все разом закидываем в сервис оптимизатор текста. И анализируем текст. Первый раз ищем самые часто встречающиеся слова. Второй раз ищем самые часто встречающиеся слова из 2ух слов. Таким способом получаем частотный словарь слов и фраз, которые надо употребить в нашем тексте.
И тут надо понимать, что используя этот способ, вы напишите, точно такие же статьи, как и в ТОПе. Они ничем не будут отличаться от конкурентов.
Второй способ, сложнее в реализации, данные берутся уже из всех документов поисковой системы. Согласитесь, ведь не факт, что если статья на 150 позиции, то значит она хуже топа. Возможно сайт не оптимизирован, или в этой статье раскрывается лишь часть проблемы. Эти данные так же очень важны. И они помогут вам написать, отличающийся контент от конкурентов из ТОП 10, ведь поисковые системы анализируют все данные, а не только ТОП.
На сегодняшний день существует единственный способ проанализировать все документы, это акварель генератор. И то пока он стал работать не правильно, починят его или нет, пока открытый вопрос. Но увы, других аналогов, пока нет.
Воду ннадо?
Раньше налив воду в текст, он отлично ранжировался. Сейчас все идет к тому, что водянистые тексты наоборот, начинают плохо себя чувствовать в выдаче. Отсюда и вытекает правило, что не всегда надо ориентироваться на размер текста конкурентов. А главный критерий - четко решить проблему пользователя, без воды. Наличие воды, хорош показывает инструмент акварель.
Размер текста можно сравнивать с конкурентами для общего кругозора, но это не главный критерий на который стоило бы обращать внимание.
Как я пишу текста?
У нас есть собранное и разгруппированное семантическое ядро. Из запросов составляем название статьи, так чтобы все запросы входили в заголовок и при этом, это было нормальное читаемое предложение, а не набор ключевых слов. Если запросов много, то берем самые частотные.
ТЗ для копирайтера зависит от того, кто пишет вам статью:
1. Если статью пишет эксперт, который профессионал в этой нише, то дается только тема статьи и краткое ТЗ, в остальном он сам полностью раскроет тему и напишет отличную статью.
По моему мнению, эксперты не должны работать по ТЗ, потому что если мы ограничим его в написании статьи, то он напишет точно такую же статью, как в ТОПе. А он должен внести, что то новое, на то он и эксперт. LSI ему тоже не нужно, так как он знаком с темой и прекрасно сам ее раскроет и употребит все околотематические слова.
Краткое ТЗ:
Минимум вводных слов. Писать без воды, но при этом раскрыть проблему в тексте полностью и подробно. Разбивать текст на абзацы и подзаголовки. Писать используя короткие, простые предложения, стараться не использовать большие речевые обороты. Не использовать слова паразиты и не известные жаргонные слова, если только это не специфическая тематика, где эти слова уместны и пользователь с ними знаком. Использовать различную удобную стилистику для пользователей - списки, цитаты, свои выводы. Не стараться использовать много раз ключевые слова, хватит 1-2 раза. При этом они должны быть вписаны естественно. Но бывают такие тематики статей, что приходится много раз употреблять ключевые слова, потому что без этого не обойтись, у слова нет синонимов и не вставить другое слово, тогда употребляем ключевые слова много раз и не ограничиваем себя. Главная задача: Написать статью, чтобы она полностью и профессионально решала проблему пользователя, подробно отвечала на его вопрос и была ему полезна. Необходимо брать на себя ответственность и писать, что "Я рекомендую", не стоит писать "Специалисты рекомендуют" - это не профессионально. (если у нас авторский контент) Если есть необходимость сослаться на какой то сервис или закон, документы и т.д. на проверенном и уважаемом сайте, то делаем это. Писать интересно и полезно.
2. Если статью пишет обычный копирайтер, то уже к ТЗ выдается частотный список слов, который надо употребить в тексте. Так же можно сделать акцент, что не стоит брать информацию из одной статьи, а использовать множество и предоставить весь список статей из которых была взята информация, таким способом мы обезопасим себя от тех копирайтеров, которые рерайтят одну статью.
3. Если статья долго не получает трафик и плохо ранжируется, то проводится её анализ и дооптимизация по анализатору текста (о нем ниже) и акварели.
Насчет ключевых слов бытует мнение из 90ых, что их надо вписывать в первый абзац, равняться на конкурентов и употреблять такое же количество, смотреть какую-то непонятную тошнотность и прописывать это в ТЗ. Но я заметил, что если этого не делать, а просто вставлять естественно по 1-2 ключевых запроса в текст, то 60-70% статей прекрасно ранжируются на первых местах при условии того, что вы написали полную статью. А остальной процент статей, который не вышел в ТОП уже можно сравнивать с конкурентами и дописывать ключи исходя из ТОПа. Таким способом мы не тратим времени и деньги на анализ вхождения ключевых слов у конкурентов, не загоняем в рамки копирайтера, плюс строим своё естественное, индивидуальное распределение слов, не равняясь на конкурентов, ведь алгоритм все время самообучается и не факт, что сайты которые сейчас находятся в ТОПе - лучшие.
Дооптимизации статей. Статьи, которые со временем не заходят в ТОП следует дооптимизировать. Если же вы будете просто оперировать только точными вхождениями при оптимизации, то очень большая вероятность получить санкции, потому что следует учитывать и все словоформы, и n граммы, перестановки, пропуски слов, в каких местах документа они содержатся. При этом из анализа исключать коммерческие сайты и сервисы у которых бонусы в ранжировании, типа википедии, youtube. С этим всем хорошо справляется вот этот анализатор текста.
Нюансы работы с ним, не буду описывать, можно это посмотреть в этом видео, только часть инфы надо фильтровать, так как в видео рассказано про коммерческие сайты, но общий принцип анализатора очень хорошо раскрыт:
Да) Если ищешь как починить трубу в ванной и идет вода про то что купите ключи в ашане - сразу закрываю и иду дальше))
чувак, я тебя везде вижу в комментариях. Прям как родной стал) Чего сам то забросил блог? последняя запись аж в 15 году
За ТЗ благодарю, утащил к себе.
Занятно. Спасибо. Я иначе делаю, но во многом подход совпадает.
Сейчас поисковики так сказать начинают понимать "качество" статьи.
Получается довольно плохо, но уже намного лучше, чем лет 5 назад.
Так что интересные по теме статьи дают (спустя вдруг много времени) положительный результат - начинают посещаться.
Посмотрим что будет дальше с искусственными интеллектами и нейронными сетями.
Остаётся открытый вопрос, действительно, помогает LSI или нет. А то иной раз на ТОП только со слезами на глазах можно смотреть. Это я ещё молчу про дорвеи разные, которые в я научился не переходя на сам сайт сразу в выдаче определять. Но материалы с разных сайтов по типу fb.ru очень унылый вид имеют и при этом стоят в ТОПе.
А мне сервисы понравились, не слышал о них раньше. А так все гораздо проще. И поисковики вполне успешно определяют качество текста. 50% успеха в титлах и подзаголовках. А остальное просто должно давать юзеру ответы и все. А сколько там вхождений, много ли воды и насколько уникален текст вообще не имеет никакого значения. Остальные 50% успеха в удовлетворении читателя. И поисковикам даже не обязательно строить какие-то нейронные сети для анализа текстов. Достаточно просто проследить что делает юзер после посещения вашего сайта. Если вернулся в поиск по этим же запросам - то хоть усритесь от количества ключей и уникальности статей - трафа… Подробнее »
Если человек вернулся в поиск, то это сомнительный показатель. В поведенческим все намного сложнее. Потому что очень много людей, открывают сразу много сайтов и читают их все. Или открывают по очереди, думая, что можно найти еще больше информации. Поэтому это не совсем верный показатель, что на первом сайте они не нашли инфу.
а я возвращаюсь в топ в попытке дополнить полученное на первом сайте. Ия понятия не имею дополню ли. Как ПС такое поведение оценит?
Ну тут двоякое мнение, то есть кто то возвращается в топ дополнить найденное, а кто то по привычке открывает и читает все сайты разом, чтобы как можно больше узнать об этой теме, но это не факт что в самой первой статье вся тема не раскрыта. У поисковых систем не все просто с поведенческими факторами устроено, они накапливаются постоянно данные, и как то их анализируют на массе людей. Если человек сразу открыл и закрыл сайт, то это да сигнал, что на вашем сайте что то не так, а вот в остальном это спорный вопрос, как должен себя вести человек в топе,… Подробнее »
ну это согласен, сам всегда так делаю. 5-10 сайтов в новых вкладках. но в следующую минуту часть из них будет закрыта. Я просто к тому, что алгоритмы больше анализируют именно это - проведение, а не тексты. А в текстах может быть вода водная, но заголовки приводят юзера, дают зацепиться хоть какому то трафу, а дальше вступает анализ поведенческих. На странице может быть вообще жуткий нечитабельный синонимайз, но среди него есть картинка, видео, или даже ссылка, которая решает вопрос юзера - и все уже пф в плюс. Да по наблюдениям даже реклама может улучшать пф и поднимать траф. Это не шутка… Подробнее »
Хм, спасибо за наблюдения, это интересно.
Я при составлении ТЗ использую ТехЗадатор, на мой взгляд более простая штука, чем сеоткст.ком.
Также проверяю текста на ГлавВреде, чтобы было не менее 7 баллов
Контроль воды и заспамленности веду с помощью текст.ру
Если статья не выходит в ТОП или есть какие-то трудности, дополнительно использую пиксельплюс
Спасибо, тоже интересный подход. Но в техзадаторе мало данных о часто встречающихся словах.
а Вы в акварель генераторе добавляете главный ключ группы или всю группу запросов?
цена там кусается, от 30 за фразу(
Все зависит от группы запросов, бывает так что ключи в одной группе немного разные по смыслу и определению - это очень редко такое бывает, поэтому их добавляю вместе, но в большинстве случаев главного ключа - достаточно
Александр, все намного проще. И можно даже дешевле сделать.
Я сначала делаю парсинг, после этого - кластеризацию в софте. Он же мне определяет и лидеров ниши по той тематике, по которой я делаю кластеризацию. Далее иду на эти сайты и смотрю, что у них по этой теме написано.
Если что, вот как я собираю семантику https://vernigora.com/get-semantic.html
Не понял, причем тут семантическое ядро и написание контента. Раш собирает общих конкурентов, но не конкурентов по определенному запросу по которому пишется статья. Для инфо сайтов автоматическая кластеризация очень бредово работает. Я писал про это в статьи по сбору семантики http://majornet.ru/polnyj-cikl-sbora-semantici
Александр, акварель по 1 запросу выдает больше 1000 LSI фраз, как вы их потом передаете копирайтеру? не весь же список добавляете в тз
А я не говорил, что я Только Рашем пользуюсь
Кластеризация по топам афигеть как хорошо работает. Экономит до 80% времени.
Вот тут https://kwork.ru/keywords/102703/semanticheskoe-yadro-sya-na-400-klasterizovannykh-klyuchey-i-bonusy
Есть файл: Пример группировки запросов - мебель из лозы.zip
Я там руками ничего не правил, то есть это еще не готовое ТЗ, но по времени без учета работы софта все заняло минут 5-10.
Не весь, чем выше фразы или слова, тем значимее слова, уже сами решаете сколько штук брать, я обычно беру 20-40 слов и фраз.
Я бы добавил еще наличие блоков внимания, корректный дескрипшен, вывод к статье (в зависимости от темы и вопроса статьи, если это уместно) и логическую структуру статьи, а не просто написать "все по теме".