Что самое трудное в работе оптимизатора? Вопрос риторический. Для профессионала, будь то свободный специалист или целая компания, вывод сайта по перспективным запросам на первую страницу или в первую пятерку - не проблема. Это - нормальные трудовые будни. Никто и не обещал, что будет легко.
А вот когда клиент, вложивший в продвижение своего ресурса немалые средства, замечает, что «за один день и бедственную ночь» его сайт вывалился за пределы первой двадцатки, начинаются настоящие проблемы. Как объяснить человеку, что все его вложения аннулированы одним-единственным фактором: незначительной сменой поискового алгоритма, каким-то крошечным новшеством в учете внешних факторов?
Что было…
Раньше всё было проще. Тогда, на заре интернет-бизнеса, поисковые машины были не более разумны, чем, например, функция поиска в «Ворде». Впрочем, и Всемирная Сеть была не такой уж и глобальной, и пользователь мог решить задачу поиска нужной информации простым перебором дословных совпадений. Тогда и в самом деле можно было за адекватное время пересмотреть все сайты соответствующей тематики. Давно это было…
Потом пришли первые оптимизаторы. Назывались они как-то по-другому, но разве сейчас это важно? Пришли оптимизаторы, и работа ископаемых поисковиков была парализована. Обмануть кондовые алгоритмы оказалось не просто, а очень просто, чем новоявленные бизнесмены и пользовались. Пользователи поисковых систем, однако, новшество в должной мере не оценили. Так и началась беспрецедентная гонка поисковиков и оптимизаторов - гонка, выгодная для обеих сторон. Кроме, разумеется, владельцев сайтов.
Найти контент, максимально соответствующий поисковому запросу (то есть, содержащий информацию, необходимую пользователю поисковика) - задача, к решению которой можно подойти с самых разных сторон. Можно идти вслед за оптимизаторами (напомним, речь идет о наших предках - об оптимизаторах, основная задача которых заключается в обмане поисковых машин) и «учить» поисковые алгоритмы отличать самые популярные методы «накруток». Это делалось и делается до сих пор: многие белые методы оптимизации на наших глазах приобретают серый оттенок, а потом и вовсе чернеют. Можно вводить какие-то дополнительные факторы, например, правила оптимизации, исключающие возможность обмана, и внешние показатели вроде индекса цитируемости, позволяющие (в идеале) оценить «авторитетность» ресурса. Это тоже делалось и делается. Проблема в другом: и разработчики поисковых систем, и оптимизаторы, все понимали, что это - лишь костыли, позволяющие урегулировать какие-то частные проблемы, и вместе с тем открывающие путь для проблем новых.
Что есть…
Казалось бы, явление совершенно очевидное и предсказуемое. Но лежащую на поверхности истину, гласящую, что магистральный путь развития поиска в интернете - совершенствование алгоритмов анализа самого текста, - мало кто воспринял всерьез.
Многие специалисты, по долгу службы или по велению сердца отслеживающие все тенденции в этой области, всерьез насторожились не так давно, около года назад - когда стало очевидно, что Google коренным образом сменил алгоритмы ранжирования. Сайты, обладающие хорошим контентом, стремительно полезли вверх, вытесняя хорошо оптимизированные, богатые внешними ссылками ресурсы куда-то в подвал. Это заметили все, кого хоть сколько-нибудь интересует данный вопрос. Заметили - и пожали плечами. Да, Google, при всей своей популярности, «продажного» трафика почти не дает. Или дает, но в количествах, несопоставимых затратам на оптимизацию под прогрессивный алгоритм.
Всё бы это было, наверное, правильно, если бы не один нюанс: хорошо известно, что именно Google идет в авангарде поискового прогресса. И алгоритмы, применяемые этим поисковиком, рано или поздно вынуждены копировать разработчики других, более коммерциализированных поисковых машин. В том числе и всенародно любимого Яндекса. И для тех оптимизаторов, которых этот нюанс не обошел стороной, внезапное «падение» в Яндексе сайтов с высоким показателем цитируемости неожиданностью не стало. Поисковые алгоритмы совершенствуются и всё меньше нуждаются в «костылях» наподобие учета внешних факторов.
И что будет
Дальше будут неожиданности. Или, напротив, вполне предсказуемые изменения - в зависимости от уровня информированности наблюдателя. Задача, стоящая перед поисковиком - найти контент, максимально релевантный запросу, - будет решаться всё лучше. И роль технических факторов в самом ближайшем времени будет сведена к минимуму. Поисковые машины, включая Яндекс, всё более уверенней отличают хороший контент от плохого. Хороший - разумеется, в контексте запроса.
Характерно, что для этого поисковая машина вовсе не должна обладать искусственным интеллектом. Всё гораздо проще: задача может быть успешно решена (и уже решается тем же Гуглом, в меньше степени - Яндексом) при помощи обыкновенного контекстного анализа. Скажем, релевантность текста запросу «Наполеон» может быть вычислена просто на основе анализа слов и словосочетаний, наиболее часто употребляемых в этом контексте. Например, «торт», «полководец», «коньяк», «император». Так, текст, рассказывающий о Наполеоне Буонапарте, будет несравнимо более релевантен, чем повествование о новом ресторане «Наполеон». А разве не этого хочет пользователь, набравший «наполеона» в строке поисковика?
Преимущество метода контекстного анализа текста заключается в том, что углублять его можно до бесконечности - позволяли бы машинные ресурсы, да была бы обширная база данных. Контекстные базы пополняются день за днем, да и с ресурсами у крупных поисковых систем проблем особых не возникает. А это означает, что уже в самом ближайшем времени роль внешних факторов и даже метатэгов может быть низведена практически до нуля. Поисковик получает возможность работать с контентом напрямую, всё более уверенно отличая качественный информативный текст от «мусора». Так что у нас есть все основания полагать, что недалек тот день, когда понятия «оптимизация» и «разработка контентного наполнения» станут синонимами.
Надолго ли - бог его знает. Скорее всего, надолго. Может быть, навсегда - если в распоряжении оптимизаторов не попадут полные и достоверные контекстные базы, что практически исключено. А следовательно, единственная методика поискового продвижения сайтов, которая выживет в новых условиях, единственная методика, на которую стоит делать ставку - это SEO-копирайтинг.
По крайней мере, мы в этом твердо уверены.