Каталог статей
Поиск по базе статей  
Статья на тему Интернет » Интересное в сети » Google-фильтры

 

Google-фильтры

 

 

Фильтры Google

Интернет — огромная копилка знаний и сведений, где можно найти ответ практически на любой вопрос. Проводниками в этом море информации являются поисковые системы. Google — мощнейший поисковик, помогающий пользователю мгновенно отыскать необходимые документы в Сети. Для владельца сайта Google — источник трафика, то есть целевых посетителей, возможных покупателей и клиентов.

Фильтры применяются к веб-сайтам, нарушающим определенные правила

Веб-мастер, отслеживающий продвижение своего сайта по позициям поисковой выдачи Google, может быть неприятно удивлен, обнаружив, что по полностью, казалось бы, соответствующему содержанию сайта запросу его ресурс в результатах поиска находится на далеко не ведущих позициях.

загрузка...

 

 

Заботясь о качестве результата и борясь с махинациями недобросовестных оптимизаторов, поисковая машина накладывает на выдачу так называемые фильтры, то есть понижает позиции ресурсов, нарушающих правила или несоответствующих некоторым специфическим требованиям.

Первый фильтр, который может затронуть свежесозданный сайт, — так называемая песочница (Google sandbox*). Этот фильтр — не наказание за какие-либо нарушения, он налагается на новые ресурсы, являясь гарантией того, что пользователю не будет продемонстрирован еще незаконченный, сырой сайт. В основном фильтр затрагивает выдачу по популярным, высококонкурентным запросам. Он будет удален, когда сайт просуществует в Сети более года.

Высокий уровень доверия сайту поможет снять многие фильтры

Благодаря повышению так называемого trust rank, то есть уровня доверия сайту, фильтр песочницы, равно как и другой возрастной фильтр — по возрасту домена, может быть удален и до того, как сайту исполнится год. Уровень доверия определяется абсолютно для всех сайтов, проиндексированных Google. В сложном алгоритме расчета этой величины учитываются такие факторы, как количество и качество входящих ссылок (то есть авторитетность ссылающихся ресурсов), уникальность представленных на сайте материалов, организация внутренней перелинковки, то есть структуры сайта, количество и тематичность исходящих ссылок и многое другое. Обладая высоким уровнем доверия trust rank, сайт минует стадию пребывания в песочнице, и его страницы будут находиться в поиске на высоких позициях.

Следующий капкан, подстерегающий начинающего сайтовладельца, — фильтр, накладываемый на неоригинальный, то есть заимствованный с других ресурсов контент (duplicate content*). Как известно, Интернет содержит информацию из всех областей человеческого знания, и соблазн наполнить новый, еще пустующий сайт уже публиковавшимися в других источниках ранее статьями и материалами очень велик. Но невзирая на то что количество страниц с текстом на сайте будет стремительно увеличиваться, ценность таких страниц для поисковой машины будет невелика. Страницы с неуникальными текстами будут понижены в поисковой выдаче, они могут также быть помещены в дополнительные или опущенные результаты (supplemental results*, omitted results*). Единственный способ избежать такого фильтра — это создание материалов специально для вашего сайта. Зачастую одна уникальная статья, написанная вами или для вас, приведет на сайт больше посетителей с Google, чем несколько десятков позаимствованных с других ресурсов статей.

Supplemental results
Дополнительные результаты поиска

Уже упомянутый выше фильтр дополнительных результатов (supplemental result) накладывается на страницы, которые Google не считает достойными основной выдачи. Страницы, помеченные как «Дополнительный результат», могут быть показаны пользователю в том случае, если среди основных результатов выдачи не хватает документов, релевантных поисковому запросу. Страница может быть перемещена в основную выдачу, если на нее имеется несколько входящих ссылок с других сайтов. То есть добившись, чтобы на материал вашего сайта сослались с авторитетного в вашей тематике ресурса, вы можете придать вес своей странице и Google сочтет возможным показать ее пользователю наравне с другими тематическими материалами.

Omitted results
Опущенные результаты поиска

Опущенные результаты (omitted result) демонстрируются пользователю так же редко, как дополнительные. Лишь когда будут пролистаны все страницы основной выдачи, вам будет предложено просмотреть также и все опущенные результаты. Страницы оказываются отфильтроваными таким образом из-за того, что содержат неуникальные материалы, обладают одинаковыми метазаголовками (теги title, description, keywords), а также из-за того, что в сети отсутствуют ссылки на них.

Веб-мастеру следует проследить за уникальностью мета-тегов и обзавестись внешними ссылками на внутренние страницы своего сайта, чтобы вывести ресурс в основные результаты поисковой выдачи Google из дополнительных и опущенных результатов.

Также повредить продвижению к первым позициям результатов поиска по нужным запросам могут такие факторы, как слишком долгое время загрузки страницы и наличие на сайте «битых» (неработающих) ссылок на внутренние страницы. И то и другое задерживает появление поискового робота, содержимое разделов сайта не индексируется и не попадает в результаты выдачи.

Появление за короткий промежуток времени слишком большого количества новых страниц на сайте не приветствуется поисковыми машинами. Некоторые авторитетные авторы советуют ограничивать прирост документов пятью тысячами в месяц.

«Слишком оптимизированные» сайты, то есть сайты, страницы которых обладают слишком большой плотностью ключевых слов, имеют скрытый, невидимый для посетителей, но доступный поисковым роботам текст, также штрафуются поисковой машиной и могут не только быть понижены в выдаче, но и вообще быть удалены из результатов поиска — забанены. Вернуть свой сайт в индекс Google после бана будет довольно проблематично.

Факторы, влияющие на позиции сайта, делятся на внутренние и внешние

Факторы, не связанные с содержанием, структурой, доступностью страниц и прочими перечисленными выше моментами, также могут оказать влияние на место сайта в выдаче поисковика. Например, хотя в целом наличие ссылок на сайт с других ресурсов той же тематики положительно сказывается на уровне доверия, но излишества могут повредить. Если количество ссылок начнет расти слишком стремительно, или если на сайт будут ссылаться некачественные ресурсы, или же ссылки будут соседствовать со ссылками на некачественные ресурсы (и тем более если таких ссылок будет множество на одной странице), то сайт может быть понижен в выдаче Google. Также поисковой системой не приветствуется обмен ссылками. Взаимные ссылки теряют свой вес и практически не влияют на выдачу сайта и его рейтинг. То же самое относится и к ссылкам на ваш сайт, обладающим одинаковым якорным текстом. Этот фильтр направлен против так называемого бомбинга (bombing), и он призван наложить пенальти на сайты, использующие в продвижении автоматические регистрации в каталогах, гостевых книгах и на досках объявлений. Именно такая технология зачастую провоцирует появление большого количества одинаковых внешних текстовых ссылок.

Еще один фильтр накладывается на сайты, на которых поисковой робот нашел страницы с названием links.htm или им подобные. Такие страницы зачастую создаются для размещения обратных ссылок при регистрации сайта в общетематических каталогах. Но даже называя подобные страницы и разделы сайта по-другому, вы рискуете понизить рейтинг доверия своего ресурса. Участие в ссылочных фермах (linkfarms*) — страницах, содержащих огромное количество ссылок различных тематик — также может повредить.

Большинство фильтров призваны бороться с недобросовестным продвижением сайтов

На сайты, уличенные в продвижении сомнительными средствами, использующие дорвейные технологии и перенаправления на свои страницы посредством редиректа javascript, накладывается так называемый фильтр -30. Место такого сайта в результатах поиска искусственно понижается на тридцать позиций. Как правило, фильтр снимается, как только сайт перестает нарушать правила.

Считается, что влияние внешних факторов (таких как количество, качество и тематика ссылающихся на ваш сайт ресурсов) не может учитываться наравне с внутренними факторами (уникальность материалов, мета-теги, перелинковка страниц). Данная уверенность базируется на том, что в алгоритме наложения фильтров должна учитываться возможность недобросовестной конкуренции между веб-ресурсами, когда конкурент использует так называемые черные средства оптимизации по отношению к вашему сайту, дабы понизить его в результатах поиска. Но все же, желая достичь высоких результатов в поиске, не следует увлекаться такими некорректными способами продвижения. Теоретически на первом месте по любому запросу должен находиться сайт с оригинальным содержанием, грамотно организованной структурой, обладающий большим количеством появившихся естественным путем ссылок с авторитетных ресурсов своей тематики. На практике же стоит просто придерживаться золотой середины между оптимизацией внутренних и внешних факторов и соблюдать умеренность в таких способах продвижения, как обмен тематическими ссылками и создание искусственных внешних ссылок на ваш сайт.



Статья получена: hostinfo.ru

загрузка...

 

 

Наверх


Постоянная ссылка на статью "Google-фильтры":


Рассказать другу

Оценка: 4.0 (голосов: 16)

Ваша оценка:

Ваш комментарий

Имя:
Сообщение:
Защитный код: включите графику
 
 



Поиск по базе статей:





Темы статей






Новые статьи

Противовирусные препараты: за и против Добро пожаловать в Армению. Знакомство с Арменией Крыша из сэндвич панелей для индивидуального строительства Возможно ли отменить договор купли-продажи квартиры, если он был уже подписан Как выбрать блеск для губ Чего боятся мужчины Как побороть страх перед неизвестностью Газон на участке своими руками Как правильно стирать шторы Как просто бросить курить

Все статьи | Разделы | Поиск | Добавить статью | Контакты

© Art.Thelib.Ru, 2006-2024, при копировании материалов, прямая индексируемая ссылка на сайт обязательна.

Энциклопедия Art.Thelib.Ru