Порой случается такое, что сайт стремительно падает в позициях из-за обновления. Либо из-за экспериментальных настроек интернет-поисковика на подобии, наделавшей шума «охоты на стариков». К сожалению, ничто не вечно, включая тактики продвижения. В таком случае все, что можно сделать, — это внимательно отслеживать поисковую выдачу и контролировать ситуацию на форумах и в блогах.
В этой статье поговорим о стратегиях SEO, которые были действенными буквально до недавнишнего времени, а сегодня в их эффективности есть сомнения.
Некоторые обладатели сайтов формируют обособленный источник для определенного продукта под одной торговой маркой. Смыслом такого хода является то, что большее число сайтов генерирует больше поискового трафика, а значит, товара будет реализовываться тоже больше.
Ранее данная методика работала вполне эффективно, однако ее «затемнили» фильтрами. Произошло это по той простой причине, что стали частыми истории, когда топ-10 становился монополизированным, а это ухудшало свойства выдачи. Поисковики относят такие страницы к повторам и аффилиатам. Из всего количества сайтов, которые совпадают по таким признакам, как сходство тем, статей, ассортимента продукции, их стоимость, проект сайта, хостинг, личность, на которую производилась регистрация доменов, похожие ссылочные массы, в результатах поиска будет отображаться лишь один. К тому же, после обновления, они с высокой вероятностью сменяют друг друга. В результате получается, что обладатель всех этих ресурсов получает такое количество трафика, какое поступало бы при наличии всего лишь одного хорошо проработанного сайта.
И еще один довод – более просто и менее затратно продвигать один ресурс. Можно просто создать сайт-страницу для конкретного товара и разместить все данные на ней.
Если же все-таки Вы уже не можете отказаться от «штампованных» сайтов по личным причинам, тогда советуем из всех ресурсов выбрать один основной, а из оставшихся сформировать редирект. Отсюда следует, что поисковой трафик не будет утерян, а станет собираться в «пункте назначения», то есть в одном месте.
Примером может послужить компания «Apple», которая создает такие промо-страницы. Попробуйте забить в поиске www.iphone.com и вас перебросят на главный сайт Apple.com в раздел Iphone.
Сущность методики – прогонка текстов по рекламным афишам. Все площадки таких типов «вылеплены» шаблонно. Обладатель веб-сайта лишь один раз осуществляет заполнение, скажем так, электронного бланка, а сервис в автоматическом режиме включает его ресурс в базу данных по похожим сайтам. Тогда, когда никто особо не заморачивался над качественными текстами и грамотными анкорами, благодаря даже одному прогону, тематический индекс цитирования сайта можно было увеличить от 0 до 500. Сегодня такой номер не пройдет, потому как поисковики банят за подобные действия.
Выходом из положения может стать договоренность с администраторами достойных тематических сайтов, целевая аудитория которых совпадает с Вашей. Можете предложить им убойный и уникальный контент бесплатно, обменяв его на ссылку на Ваш ресурс.
Несомненно, демонстрация текущей статистики – вещь очень важная. Так Вы сможете проводить анализ поведения пользователей, посещающих ресурс, и, исходя из результатов, выбирать дальнейшую методику для продвижения и связи с клиентами.
Но имеется вероятность того, что Вы перегрузите сайт такими скриптами, и это скажется на скорости его загрузки: она уменьшится. Одним из важнейших факторов, по которым сайты не выходят в топ, является маленькая скорость загрузки. Поисковые системы отдают предпочтение сайтам, быстрота которых высокая, потому как низкая скорость загрузки наносит вред не только юзерам, но и поисковым ботам.
Отдайте предпочтение лишь самым важным счетчикам, которые будут «просматривать» определенное число параметров, не вгоняя при этом в стресс пользователей и роботов-индексаторов.
Основой основ в этой стратегии является – не навредить. Большинство программистов и специалистов по SEO в погоне за большим количеством нахождений в тексте, в заглавиях и мета-тегах ради оптимизации, перестают думать о важнейшей современной концепции СЕО – всего должно быть в меру. Сегодня поисковые алгоритмы с легкостью различают статью, предназначенную для пользователей, от СЕО-текста.
Более того, сайты, на которых переборщили с оптимизацией, плохо воспринимаются для чтения, а шансов на то, чтобы стать любимыми у пользователя, у них и вовсе нет. Естественно, такой расклад не сможет увеличить позиции в результатах поиска, потому как Yandex и Гугл постоянно улучшают алгоритмы, делая акцент на пользователей.
Для того, чтобы адекватно провести оценку поведения посетителей Вашего сайта, попробуйте подружиться со счетчиками. Их информации будет вполне достаточно. Если же хочется оценить структурную организацию сайта с точки зрения ее удобства для клиента, тогда закажите у соответствующих специалистов юзабилити-тестирование.
Демонстрация внешних нетематических ссылок смотрится весьма сомнительно. Обладатель сайта, который имеет несколько ресурсов, зачастую размещает ссылки на иные свои страницы или страницы партнеров. Если тематика всех этих сайтов похожая, тогда все отлично. Но чем большее количество внешних ссылок с несоответствующей тематикой находится у Вас на сайте, тем с большим подозрением будут относиться к Вашему ресурсу пользователи.
Если же данные ссылки являются острой необходимостью, установите фильтр «no follow», этим вы покажете клиентам, что не передаете трафик по данной ссылке.
Когда сайт только-только попадает в руки к специалисту по СЕО, он с энтузиазмом пускается в работу. Известны случаи, когда за неделю скупалось около 1000 ссылок. Такой резкий скачок ссылочного трафика смотрится «наигранно» для поисковых систем.
Необходимо, чтобы ссылочная масса распределялась во времени равномерно. Также следует не допускать провалов во входящих потоках ссылок, иначе это послужит сигналом для поисковика об «искусственности» действий. Все должно проходить плавно.