Как подготовить сайт к SEO-продвижению. Часть II - Контент

Продолжаем серию статей, подготовленных совместно со специалистами компании «2 МЕДВЕДЯ».

В первой части этой статьи мы рассмотрели проблемы, которые под силу исправить техническому специалисту. Над вопросами, о которых я расскажу сегодня, придётся работать маркетологу или контент-менеджеру.

Сегодня мы прикоснёмся к теме контента на сайте. Итак, разберём по пунктам самые основные моменты.

Уникальный контент

Это пора уже запомнить, как «Отче наш», - на сайте должны быть только уникальные тексты. Написав статью, обязательно проверьте её в одном из онлайн-сервисов. Если вы увидели процент уникальности менее 70%, вам придётся переписать весь материал или его часть.

В то же время, 100%-ная уникальность будет выглядеть подозрительно: обычно так называемые SEO-тексты изобилуют плохо согласованными сочетаниями слов и не очень дружат с литературным русским языком. А нам важно донести информацию, прежде всего, до пользователя, а уже потом до ботов.

Не пытайтесь написать тексты для сайта сами. Это касается и описания услуг, и уж тем более, ведения корпоративного блога. Если вы раньше не замечали у себя литературных задатков, предоставьте работу такого рода профессиональному копирайтеру, пусть хоть в какой-то нише гуманитарии будут монополистами.

Вам есть что сказать, а копирайтер – не профессионал в вашей отрасли? Этот вопрос легко решается: пусть автор статей вооружится диктофоном. Надиктуйте ему в несложных выражениях то, что вы хотите видеть в материале. Копирайтер обработает ваши слова и сделает из этого «конфетку» для публикации.

Дубликаты страниц

Ещё одна оплошность, которую часто допускают владельцы сайтов (как они умудряются, честно говоря, не понимаю) – дублирование контента в рамках одного ресурса. То есть, например, на сайте может быть две страницы с одинаковым или практически одинаковым содержимым. Этого быть не должно.

Контакты

Казалось бы, как этот раздел может повлиять на SEO? А при некоторых условиях ещё как может!

Бывают случаи, когда у одной компании есть несколько проектов. При этом, штат в этой компании может быть совсем не большим. В этом случае один маркетолог или отдел продаж будет работать сразу над несколькими направлениями. Это и вызывает проблему – на всех сайтах указывают одинаковые контактные данные – e-mail и телефоны.

Вот плохой пример дублирования корпоративных телефонов: satio.by, bestbrand.by и festopen.com.

Такого делать ни в коем случае нельзя. Поисковые системы не понимают таких выходок. Они считают, что раз контакты одинаковые, значит, сайты копируют друг друга, а зачем в выдаче два одинаковых сайта? Из-за этого один или несколько сайтов могут практически полностью выпасть из индексации.

Кстати, раз уж вы взялись редактировать раздел «Контакты», обратите внимание на карту проезда. Во-первых, она должна быть; во-вторых, она должна быть масштабируемой, а не просто картинкой.

Можно использовать, например, конструктор карт от «Яндекса».

Исходящие ссылки на сайте

Проверьте сайт на наличие исходящих ссылок. Сделать это можно здесь.

Исходящие ссылки понижают «вес» страницы в глазах поисковиков. Но не спешите их удалять – ведь если вы добавили их в контент, значит, они для чего-то нужны, правда?

Скрыть ссылку от поисковиков можно с помощью html-кода:

<noindex><a href=«ссылка» rel=«nofollow»</a></noindex>

Нужную нам функцию выполняют теги <noindex> и атрибут «nofollow». Кто-то со мной поспорит: ведь можно использовать что-то одно. Но у меня есть для вас аргумент – у «Яндекса» и Google разное отношение к индексации подобного контента. Одновременное использование noindex и nofollow позволит защитить ссылки от индексации обеими системами.

В правиле исходящих ссылок есть и свои исключения. Если ссылка ведёт на сайт схожей с вашим контентом тематики, который к тому же просеошен лучше, чем ваш ресурс, такая ссылка пойдёт только на пользу. Можно не закрывать её кодом.

Битые ссылки

Вот это настоящее зло, сильно мешает продвижению. Это такие ссылки, которые ведут на несуществующие страницы. Не обольщайтесь, если думаете, что у вас таких точно нет, что вы всегда аккуратно прописываете ссылки, без ошибок. Может оно так и есть, вот только чаще всего битые ссылки появляются со временем.

Например, три года назад в интересной статье вы ссылались на довольно авторитетный блог. Только, вот незадача, автор блога неделю назад перенервничал и в порыве эмоций удалил свой ресурс подчистую. Вот у вас и появилась новая битая ссылочка.

Битые ссылки могут быть не только внешними, но и внутренними – ведь на вашем сайте в течение времени тоже происходят изменения – какие-то разделы удаляются, какие-то переносятся.

Ещё один источник битых ссылок – изображения. Вы могли по невнимательности просто удалить папку со старыми изображениями. Или вы ссылаетесь на картинку, расположенную на другом ресурсе, где она тоже была удалена. А может вы просто ошиблись, прописывая название изображения.

Найти битые ссылки вам поможет вебмастер Google (диагностика – ошибка сканирования). В выдаче вы увидите список битых ссылок и столбец с данными о количестве страниц, на которых ссылка была обнаружена (кликните на эти данные и увидите адреса страниц).

Что делать с битыми ссылками? Удалять, конечно! Или, если у вас много свободного времени, можете каждую отредактировать.

Картинки

Оптимальным вариантом было бы размещать на сайте только уникальные картинки. Но не в каждой компании есть штатный дизайнер и фотограф.

Решить проблему помогут бесплатные фотостоки или просто поиск Google (по опыту, картинки он ищет лучше «Яндекса»). В последнем варианте стоит быть аккуратным – конечно, маловероятно, но может объявиться владелец авторских прав на это изображение. Поэтому, лучше прибегнуть к фотостокам: вот к этому, к этому, или к этому, например.

Название картинки должно быть непременно прописано латиницей. Название должно коротко говорить о том, что на ней изображено. Например:

dva-medveda.jpg

Кроме того, ваш сайт может неплохо подняться в ранжировании, если у всех картинок будет корректно прописан атрибут alt. Это можно сделать в коде. Например:

alt=”оптимизация картинок для сайта”

Для тех, кто не любит копаться в коде, всегда есть возможность сделать это в WYSIWYG-редакторе. Если этой возможности нет, то это недоработка. Настойчиво поговорите с разработчиком или исправьте её сами.

О том, что графические изображения должны быстро загружаться, а, следовательно, их нужно уменьшать, я говорила в своём предыдущем материале.

Description, Title, Keywords

Некоторые говорят, что эти штуки уже не работают. Некоторые говорят совершенно обратное. Я считаю, что лучше не рисковать и использовать всё, что может повлиять на продвижение сайта.

Итак, для тех, кто не знает, keywords - это ключевые слова, которые описывают содержание страницы. Их нужно перечислять через запятую. Все эти слова обязательно должны присутствовать в тексте страницы. И этот перечень ни в коем случае не должен дублироваться на разных страницах.

Title – это заголовок страницы, буквально пару слов, чтобы пользователи поняли, о чём речь, а поисковик нашёл вас.

Description – то же, что title, но только более развёрнутое. Только не копируйте туда первый абзац вашей статьи – просто своими словами расскажите краткое содержание статьи.

Заголовки h1-h6

Это теги, которые нужны для форматирования текста на странице.

Запомните, заголовок h1 на странице может быть только один – самый большой. На главной странице он может отражать в себе суть всего сайта. По этому тегу поисковики оценивают релевантность страницы введённому запросу. В идеале, h1 должен включать запрос, по которому вы планируете продвигаться.

В текстах следует соблюдать шаг – сначала h1, потом h2, h3, h4 и т. п. Ни в коем случае заголовки h не должны использоваться для оформления элементов дизайна.

Эпилог

У вас ещё остались вопросы? Тогда пишите их в комментарии, будем отвечать!

Инна Рыкунина

Версия для печатиВерсия для печати

Рубрики: 

  • 1
  • 2
  • 3
  • 4
  • 5
Всего голосов: 1
Заметили ошибку? Выделите ее мышкой и нажмите Ctrl+Enter!

Комментарии

Страницы

Аватар пользователя Al

Конкретно, понятно, грамотно. Спасибо! Мне было полезно!

Аватар пользователя Dmitry

Не пытайтесь написать тексты для сайта сами

)), к сож., год-2-3 до раскрутки сайта вам придется все делать самому, если не хотите остаться "без штанов".

дублирование контента в рамках одного ресурса. То есть, например, на сайте может быть две страницы с одинаковым или практически одинаковым содержимым

этим грешат CMS, т.е. страница одна, а адресов несколько = для поисковиков это дубли.

Скрыть ссылку от поисковиков можно с помощью html-кода

В Вордпрессе есть настраиваемый плагин WP-NoRef (и не он один), скрывающий исх.ссылки.

картинки он ищет лучше «Яндекса»

Гугл все ищет лучше Яндекса), в т.ч. по причине максимально быстрой индексации ресурсов, хотя в Рунете удобнее искать Яндексом.

Поэтому, лучше прибегнуть к фотостокам

имхо, достаточно изменить размерность, имя, удалить метаданные (свойства) фото = оригинал, т.б. большинство сайтов "клеймят" фото - пож., пользуйтесь!..

з.ы. жаль, 3ей части так понимаю не будет.

Как старый продвиженец (опыт с 2005 года, сейчас таких и нет:-)), позволю себе несколько замечаний. Статьи, на самом деле, очень полезные, в них четко описано основное, на что необходимо обратить внимание. Но есть и еще кое-что.

Любые внешние ссылки, в т.ч. - вставка изображений с других ресурсов, хостингов фотографий - являются исходящими ссылками, понижающими ранжирование. С другой стороны - не будете ставить ссылки на источники, рано или поздно проблемы начнутся, особенно если сайт станет заметен. Ищите "золотую середину".

Дубликаты страниц обязательно будут, если сайт использует сокращенные ссылки или ЧПУ - "человеко-понятные УРЛы". Значит, где-то есть и длинные УРЛы, которые робот-"паук" поисковика тоже найдет. В CMS, где включена система сокращения ссылок, дубликатов страниц будет примерно половина, что есть хреново. Сайт могут, вообще, забанить.

Выход - использование современных CMS, где лучше продумана система организации ссылок, модулей, которые автоматически добавляют ненужные ссылки в Noin/Nofol или в общий для обоих поисковиков вариант rel ="nofollow" (почитайте в интернете про него).

Еще один вариант - файл robots.txt в корне сайта - там можно указать страницы, которые роботы не должны индексировать Disallow:/index.php*. Так будет определенная гарантия от бана. Хотя!!! Нельзя забывать о том, что поисковики НЕ ОТКРЫВАЮТ свои алгоритмы распознавания неуникального контента и им отлично известно, что вебмастера любят закрывать его от поиска. Даже на "Серче" (а я там с 2007 года), представители Яндекса неоднократно писали, что теги носят рекомендательный характер и робот сам решает, на что ему обращать внимание, а на что нет. 

Вообще, это все нужно осторожно делать. К примеру, название товара и ценник можно прикрыть от индексации, если это интернет-магазин. Ведь название и цена могут быть одинаковыми на многих торговых площадках, а это - неуникальный контент. Открыть лучше описание  товара, статьи о нем и отзывы.

Осторожно нужно работать и с переменами на сайте. К примеру, если вы меняете. обновляете CMS, у вас может измениться часть ссылок и УРЛов, изменится структура карты сайта, что немедленно приведет к утере набранных позиций в поиске. К такой утере, ведет, допустим, изменение описания сайта, ключевых слов и т.д. Поисковики этих вещей очень не любят и вам придется это учитывать.

Не стоит забывать и о банальной конкуренции. На большом сайте всегда найдется пара-тройка нарушений, на которые может пожаловаться в техслужбу поисковиков веб-мастер конкурирующего проекта. В таком случае сайты, бывает, вообще выбрасывают из поиска до устранения нарушений. А это - потери конкретные, в деньгах, в том числе, если проект уже работает. 

Пока индекс цитирования остается одним из основных принципов ранжирования сайтов, хорошей практикой остается размещение ссылок на сайт на других, похожих по тематике но более крупных, более посещаемых и авторитетных ресурсах, в контексте полезной информации, как сделал автор данной статьи:-)).

Естественно, на сайты слабые, очевидно недолговечные и на всякие забаненные "мусорные" каталоги ссылку на свой сайт ставить не нужно - это только ухудшит ранжирование. Хорошие результаты дает размещение ссылки в Яндекс-каталоге но это платно. Для сайтов, рассчитанных на западного пользователя, подойдет авторитетный и старейший каталог DMOZ, где списки сайтов формируются добровольцами. Если ваш сайт интересен имеет оригинальный полезный контент, можно с добровольцами договориться, хотя бы на "Серче" том же.

Поисковики, да и пользователи тоже, очень любят, чтобы сайт работал быстро, находил то, что им нужно и не лез с лишней рекламой и ненужной информацией. Поэтому, рекламой от Гугла и Яндекса не стоит страницы перегружать (будет её слишком много - выкинут из поиска). Их, вообще, перегружать не стоит, фото - не более 100 килобайт (на крупном ресурсе российском, где я долго работал было такое требование). Если нужен постер - выкладывайте отдельно, с предпросмотром. 

Лучше использовать быстрые, проработанные CMS, которые оптимизированы под быструю загрузку пользовательского контента. А то очень часто бывает, что на самый дешевый виртуальный хостинг веб-мастера загружают Друпал или Вордпресс, мало того, что эти системы с трудом справляются с большой нагрузкой без оптимизации, они ещё и сервер хостера перегружают. А хостер может ваш сайт и отключить из-за перегрузок.

Поэтому, если берете тяжелую CMS - оплачивайте, хотя бы VPS, а лучше VDS или арендуйте серверную стойку:-).

В общем, подводных камней в этом деле - ой как много!

Повторюсь - написано хорошо, но затронута только верхушка айсберга.

Аватар пользователя Dmitry

они ещё и сервер хостера перегружают. А хостер может ваш сайт и отключить из-за перегрузок

такие ограничения прописываются в тарифах на хостинг.

Dmitry, а что бы вы хотели увидеть в 3-й части?

Petro45, ну зачем же вы под моей статьёй ещё одну статью написали?Laughing
А вообще, спасибо за дельные советы.)

ну зачем же вы под моей статьёй ещё одну статью написали?

:-) Ну, хотел вам помочь:-) Вы же знаете, я к вам очень хорошо отношусь:-) Тем более, сейчас меня не особо публикуют, а иногда хочется написать что-то полезное. :-)

такие ограничения прописываются в тарифах на хостинг.

Мало кто читает про нагрузки, да и хостеры лукавят при составлении тарифных планов. А когда (если) количество открытых соединений скакнет до тысячи, вместо главной страницы появится пустое белое поле и пойдут претензии от хостера. А денег на виртуалку может и не быть. Поэтому, стоит все продумывать очень заранее.

Я бы рекомендовал использовать хорошую, устойчивую, оптимизированную CMS с возможностью вариативной регулировки количества соединений с БД  из админ-панели:-). Друпал и Вордпресс таковыми не являются, как, впрочем и все другие бесплатные CMS-ки. Более того, и разрекламированный "Битрикс" апрори требует серьёзного "железа" для работы под нагрузкой. Я это всё многократно уже проходил. 

Аватар пользователя Al

Да. для общей пользы и газеты и читателей было бы хорошо скомпилировать всё написанное и выдать новую статью. ))

Я думаю, Инна вполне может выдать третью часть. :-)

Аватар пользователя Dmitry

Dmitry, а что бы вы хотели увидеть в 3-й части?

то, что не вошло в первые две), на самом деле - тема долгая и читаемая, позже попробую разложить по степени важности основные составляющие внутренней и внешней оптимизации сайтов, имхо.

А когда (если) количество открытых соединений скакнет до тысячи, вместо главной страницы появится пустое белое поле

готов поменять 500 уников/сутки на "пустое белое поле"), и деньги у любого на VPS сразу найдутся, вот только стОит это труда, терпения и времени / ТИЦ обновляется раз/мес. и обычно по-минимуму (10), а Гугл вообще хочет отказаться от PR, так что кто сколько "урвал" (я - 2 PR + 20 ТИЦ) /.  

Страницы