ПРИЧИНЫ НЕУСПЕХА ДДЛ
"НЕПРАВИЛЬНЫЙ" HTML-КОД

Рок-энциклопедия

Причины неуспеха в ДДЛ. Неправильный HTML-код. Подготовка СЕО-мастеров

Одна из самых старых статей Бабулера, которая случайно отыскалась на просторах Интернета. Прочитав ее, мы решили, что она не потеряла актуальности и по нынешние времена. Однако тут следует кое-что прояснить: вероятно, маэстро, упоминая новичков, имел в виду не ДДЛ (Доры Для Людей), а ДДГ (Доры Для Гугла), потому как новичок нормальный ДДЛ с первого раза не сделает никогда. Для начала ему надо натренироваться делать ДДГ, не учитывая интересы людей, а учитывая только интересы Гугла. Поэтому чуть-чуть перефразируем блиставшего некогда Великого Пролетарского Поэта Владимира Маяковского: "Говорим ДДЛ - подразумеваем ДДГ!". И ещё: некоторые домены, упоминаемые в статье, или давно просели, или не существуют - это неудивительно, ведь с момента написания статьи прошло очень много времени, лет 5.

Маэстро Бабулер

Данная инструкция навеяна тем фактом, что у некоторых курсантов дорвеи для людей (ДДЛ) не дают трафика даже спустя месяц после того, как эти дорвеи были запущены в производство. Причина тут очень простая – что-то было упущено и не так сделано. Рассмотрим одну из основных причин того, почему именно правильно на первый взгляд сделанный дорвей «не работает».

В HTML-код страницы внедрены «плохие» элементы. Что такое «плохие» элементы? Как вы заметили, разглядывая мои страницы, например http://uralius.com/seo/ (домен старый, 2005 или 2006 года), который даёт трафик, HTML-код этих страниц до ужаса простой. Можно сказать – простейший и даже примитивный, это тот вариант HTML-кода, который доминировал 10 и ранее лет назад, и изначально он был написан с помощью старого WORD-a образца 90-х годов на Windows 98. Вернее он не был «написан» как нечто уникальное и самостоятельное, просто я «сваял» веб-страницу в Ворде, а потом постепенно поубирал всё лишнее, повычищал из кода кучу мусора, оставил только самые необходимые элементы. Страницы с таким кодом не планировались для дорвеев, тогда я не ещё не имел представления ни о дорвеях, ни о поисковых системах, то есть о том, что можно делать под них что-то специально. Этот HTML-код использовался для создания простейших галерок и сайтиков, которые позже ставили целые порталы сайтов по разным темам, в основном или некоммерческим (для хобби), или адальтным (первые мои шаги в Интернет-бизнесе). Этот простейший код давал возможность делать вполне функциональные веб-ресурсы, и я пользовался только им. Когда же дело дошло до СЕО-продвижения, я просто взял этот код и приспособил его под дорвеи, вернее просто изменил темплейт и распланировал страницу так как мне было удобно, а не так как того требовали веб-каталоги. Так что можно заметить, что основа моих дорвеев целиком и полностью базируется на старых, сейчас уже во многом позабытых HTML-технологиях. Я считаю, что именно это и понравилось Гуглу и другим поисковым системам, даже Яндексу.

Итак, простейший код, и из «чужеродных» элементов в нем только код счётчика, в основном это самая натуральная статика, которая не меняет внешний вид веб-страницы ни при каких условиях. Такие страницы пользуются большим спросом среди владельцев каталогов, которые принимают галеры или сайты с бесплатным контентом, так как сам код максимально чистый, правда зачастую счётчики в добавляемые сайты ставить строго запрещено. Причина тут очень простая – в код счётчика можно внедрить любую гадость, например редирект. Стили не поощряются, фреймы приравниваются к грубому нарушению правил, а если в код вставлено что-то посложнее, то домен банится без предупреждения, и не только домен, а всё, что связано с его владельцем – IP провайдера, e-mail и все другие домены, которые каким-то образом связаны с забаненным доменом. В общем понятно, что чем проще код HTML в странице, тем больше доверия эта страница вызывает у всех вокруг, включая поисковых роботов.

Однако прогресс не стоит на месте, всё движется и развивается, и естественно, уже давно большинство сайтов делаются по совершенно другим рецептам с использованием всех достижений современной технической мысли. Наибольшую популярность среди сайтовладельцев имеют всякие движки, на которых они создают свои сайты, весь Интернет буквально забит динамикой. Оно и понятно – такие самообновляющиеся и самоизменяющиеся сайты гораздо удобнее и для хозяев, и для посетителей. Всяких «примочек», которыми пользуются вебмастера, несть числа. Однако вместе с этим появилось и немерянное количество возможностей, с помощью которых хозяева сайтов могут заниматься обманом кого и чего угодно – от посетителей и до поисковых роботов. Ну, с посетителями тут всё ясно, этих посетителей часто перенаправляют, загоняют, сливают, продают, перепродают, впаривают им что угодно – от тулбаров до троянов, в общем посетитель он и в Африке посетитель, и с него просто необходимо выжать все соки, которые можно выжать. Производятся все эти манипуляции как раз с помощью всяких «примочек», которые вставляются в HTML-код, а с развитием всяких динамических технологий эти примочки можно замаскировать так, что далеко не каждый специалист их обнаружит. Другое дело – поисковые системы, которые по роду своей деятельности обязаны с такими сайтами бороться.

Как только в Интернете появилась первая поисковая система, и как только выяснилось, что основной трафик идёт именно через неё, началась борьба сайтовладельцев за лучшие позиции в выдаче. Кто-то действовал честно, потому что имел все возможности для этого (деньги и наёмные специалисты СЕО-оптимизаторы), но основная масса вебмастеров принялась за всякие манипуляции. Очень быстро появились дорвеи, которыми легко можно было дурить поисковые системы. Классический дорвей не представляет из себя совершенно ничего полезного для человека, но нашпиговывается всем, что нужно ботам. Для того чтобы заинтересовать человека, пришедшего на такую страницу, первоначально использовался редирект, быстро уводящий с такой страницы посетителя в другое место. Потом появились многие другие способы, например кнопка «Сайт переехал, нажмите на кнопку», или «Если вам исполнилось 18, нажмите на кнопку», сама страница в нижней своей части была заполнена только лишь «пищей для ботов», в основном это сгенерированный текст с внедренными в него группами ключевых слов, по которым страница продвигалась в выдачу поисковой системы. В общем началась самая настоящая охота за выдачей поисковых систем. Количество всяких дорвеев и «говносайтов» катастрофически увеличилось, и по некоторым слухам это количество достигало чуть ли не 90% от общего количества всех веб-страниц в Интернете. Этому можно верить, учитывая тот факт, что некоторые наиболее активные дорвейщики умудрялись генерировать миллионы таких страниц в день.

В общем, доверие поисковых систем к веб-сайтам упало практически до нуля. Теперь каждый сайт, перед тем как быть занесённым в базу того же Гугла, должен был пройти жесткую «проверку на вшивость». А так как такую проверку производить вручную немыслимо, то были разработаны специальные алгоритмы, с помощью которых ещё на дальних подступах отсеивались страницы, сайты и целые домены, которые не соответствовали представлениям Гугла о «хорошем сайте». Наиболее придирчиво стали проверяться сайты, имеющие более новые и тем самым более сложные типы кодов HTML. Алгоритмы поверки стали ещё более жесткими, они включали в себя не только проверку нового сайта, но и мониторинг действий тех, которые находились в выдаче. Попытки оптимизации под эти алгоритмы достигли невиданных масштабов. Гугл применял ответные действия, и в результате борьбы начали исключаться из выдачи не только дорвеи, но и многие «белые» и «честные» сайты, вина которых заключалась лишь в том, что они использовали слишком сложные HTML коды и множество всяких «примочек», облегчающих посетителю просмотр сайта и делающие этот сайт полностью функциональным. Не пострадали только те сайты, которые не стремились к таким сложностям, использовали простейшую структуру и примитивные технологии. Другими словами, практически все «честные» статические страницы, у которых в коде единственным скриптом был код счётчика, не получили никаких «пендалей», потому что не за что было их получать. Вся их структура была как на ладони, и ботам не составляло никакого труда определить это с первого «взгляда».

Естественно, алгоритмы Гугла, под действие которых подпадает любой сайт, учитывают простоту HTML-кода не в первую очередь, однако далеко и не в последнюю. Часто при определении полезности той или иной страницы сайта для посетителей, «чистота» кода оказывается решающей. Если вы решили сделать большой, многостраничный сайт, сгенерированный с помощью дорогенератора особо тщательным образом, то не следует усложнять код до невозможности. Не надо использовать динамику, фреймы и всякие стили. Сделайте код самым простым, и вы наберёте в глазах индексирующих роботов дополнительные очки. Тем более что в простом коде гораздо легче расставлять макросы для дорогенератора, и чем проще код, тем меньше ошибок будет совершено. Поверьте – сложные коды совершенно не улучшат отношение Гугла к вашим сайтам (дорам). Задача дорвея – собрать как можно больше трафика и направить его по баннерам или другого типа линкам туда, куда вам нужно. Если будете использовать для переправки посетителя всякие штуки, требующие внедрения в код разного рода скриптов, то только повысите ненужное внимание ботов к своей странице, причём внимание это будет весьма критического свойства. Даже если вы не собираетесь обманывать посетителя, то ботам вы этого никак не докажете.

В общем простота – залог успеха. Усложнять будете потом, когда заработаете на примитивных ДДЛ первый миллион (неважно в какой валюте).


ВЕРНУТЬСЯ В НАЧАЛО

СПАМ ХРУМЕРОМ. ЧАСТЬ 1

СПАМ ХРУМЕРОМ. ЧАСТЬ 2

Заработай деньги в интернете

АЗЫ Белого Дорвеестроительства

ГЛАВНАЯ СТРАНИЦА САЙТА