поисковая оптимизация


Защита контента от воровства и копирования!

Добрый день, дорогой читатель и случайный посетитель! В сегодняшней статье речь пойдет про защиту контента для ваших сайтов и блогов от копирования и воровства. В статье я попытаюсь раскрыть такие темы — «как защитить контент», «защита контента от копирования». Расскажу про разные методы борьбы с копированием ваших уникальных материалов.

Ориентироваться будем на две поисковые системы, на двух гигантов — «Google» и «Yandex». Также хочу напомнить, что для хорошего продвижения, контент должен быть уникальным, не менее 1500 символов, лучше конечно не менее 3000 символов. Про уникальный контент, читаем в этой статье.

Далее хотел бы заострить Ваше внимание на некоторых очень важных моментах:

  1. После написания поста обязательно делайте его ретвит в Twitter, Google+, Vkontakte, Facebook.
  2. Добавьте урл статьи в «АддУрилки» Яндекс и Google. Addurl для Yandex, Addurl для Google.
  3. Анонсируйте статьи в социальных сетях Subscribe и MarkDay.
  4. Применяйте методы защиты контента из данной статьи в поисковых системах Yandex и Google.

Защита контента в поисковой системе Yandex

Для защиты контента в поисковой системе Yandex мы будем использовать новый прикольчик от...


Как не попасть под фильтры поисковой системы Google?

Немного отвлекусь от темы и поделюсь новостями случившимися на днях в моей семье. Так вот, недавно с девушкой думали, гадали, как порадовать нашу любимицу, эт я про кошку нашу. И наткнулись на очень интересный вариант подарка. Домик для кошки trixie, я бы даже назвал это маленьким игровым городком для кошки. Подарок получился очень даже оригинальный. Ну а теперь думаю самое время перейти к статье о фильтрах Google.

Что такое фильтр

Фильтр — это ограничение или бан, накладываемые поисковой системой на сайты, не соответствующие её требованиям. Ресурс при этом либо полностью выпадает из поисковой выдачи, либо плетётся где-то в «хвосте» в результатах поиска, что означает уменьшение трафика со всеми вытекающими последствиями. В русскоязычном Интернете фильтры Google действуют намного более свирепо, чем в англоязычном, поэтому следует остерегаться необдуманных поступков. Итак, за что же фильтры могут покарать вебмастера и его ресурс.

Фильтры поисковой системы Google

01. «Песочница»

Словно молодой специалист, тщетно пытающийся найти хоть какой-то заработок, ещё совсем «зелёный» сайт остаётся без...


Что такое мета-теги, и как их правильно использовать?

Для начала определим, что-же такое мета-теги. Мета-теги, представляют собой, часть кода html-страницы, созданные для указания информации о ней поисковым машинам. Так-же они несут примерно следующую информацию:

  • заголовок интернет документа — title,
  • его описание — description,
  • отличительные ему ключевики — keywords.

Более весомыми в сайтостроении считаются конкретно данные теги. Помнится было хорошее время, когда грамотное применение мета-тегов гарантировало веб-сайту положение в ТОПе поисковых систем, таких как Google или Yandex, хотя с годами действие их теряло свои свойства, поскольку поисковый спам и прочие приемы для обмана поисковиков стали носить групповой нрав.

Так вот, напрашивается вопрос, что же такое мета-теги сегодня, главный инструмент в SEO оптимизации и продвижении или же вчерашний день. Исходя из написанного ранее, в данном посте, нужно было дать ответ на такой вот вопрос — «важны ли мета-теги сегодня?».

Невзирая на неоднозначность взаимоотношений к мета-тегам поисковыми системами, которых мы коснемся ниже, толковые эксперты по продвижению и раскрутке web-сайтов не торопятся списывать...


Мой Robots.txt. Правильный файл Robots.txt для WordPress!

Всем привет, сегодня столкнулся с проблемой в настройке файла Robots.txt! При поисковой оптимизации блога, очень важно по закрывать от поисковых систем, так сказать — «всякий хлам». Поэтому, в сегодняшнем посте пойдет речь о файле «robots.txt» для WordPress, о правильном файле robots.txt.

Для начала Что такое Robots.txt? — Это файл настройки индексации блога WordPress, с помощью которого мы можем сказать поисковым системам какие ссылки, каталоги и страницы не нужно индексировать, тоесть попросту говоря закрыть необходимые нам каталоги, ссылки и страницы от индексации в поисковых системах.

Вы спросите «Для чего это нужно?» А нужно это для того, чтобы в базе поисковых систем не собирался мусор. Приведу пример:

каждый новый пост в блоге имеет свою рубрику, подрубрику, теги и метки. Таким образом, получается, что одна статья имеет множество одинаковых страниц, так как к ней прикреплены разные рубрики, метки.

И вот от этого хлама и избавит нас «правильный файл robots.txt»

Приведу Вам пример «своего файла robots.txt», с кратким описанием.

Что такое «Disallow». Disallow – это запрет индексации.

User-agent: * - основные правила
Allow:...