Ссылочные биржи

2 Окт
2011

Очень популярный (поэтому и очень строгий) способ заработка в Сети это ссылочные биржы. Путь к успеху:

  1. У вас есть сайт
  2. Вы размещаете на нём ссылки
  3. За размещение ссылок вы получаете деньги.
  4. ?????
  5. PROFIT

Посещаемость не важна. Важно кол-во страниц в индексе Яндекса. Однако, если кол-во доменов, на которые ссылается ваш сайт будет превышать кол-во доменов, которые ссылаются на вас — вы получите бан от Яши. Поэтому говносайты (которые созданы только для получения денег на ссылках) в ссылочных биржах живут недолго. Если вы делаете СДЛ, то лучше не суйте сайт сразу на биржу, а накопите тИЦ[1]. Вам совершенно плевать кликают ли люди по ссылке. Вы получаете деньги за размещение. Доход со свежего сайта будет 300-600 рублей в месяц. А потом бан. Да, это суровая правда говносайтеров. Так как из-за ссылочных бирж количество внешних страниц с вашего сайта увиличится, вы попадёте под фильтр АГС 31 (АвтоГовноСайт) на раз-два.

Итак, что вам нужно для клепания говносайтов (СДЛ под ссылочные биржы это всё же редкость): прямые руки и опыт в программировании. Наверное, вы уже зарегистрировали домен. Если нет, то можете начать. Обычно сеорасты разных мастей разводят круги на воде и говорят анализируйте, проверяйте, чекайте, эксперементируйте. Здесь же будет сказано всё чётко: ваш сайт должен по своей структуре напоминать собой нормальный человеческий сайт. Первые четыре ГСа автора содержали в себе только урлы вида /blog/2010/01/ и /id1, /id2, /id3. И если первый сайт помер от внешних ссылок, то следующие три из-за структуры, Яндекс забанил их в тот же день, когда и добавил в индекс (да, такое бывает). Яндекс запоминает структуру виденных им сайтов, и делает выводы. Следующая партия была более человекоудобная, но там 90% страниц лежали в одной подпапке и назывались папки на разных сайтах одинаково. Результат похожий: куча сайтов почти сразу ушли в бан, когда на них ещё не было ссылок. Потом автор стал умнее. Третья партия была с рандомным названием папок и файлов. Другими словами, на отдельно взятом сайте были такие страницы:

  • /file.php
  • /cats/dogs.htm
  • /cats/cinema/
  • /cats/cinema/demo.php
  • /territory/num.htm

Как вы видите, брались слова из английского языка (такие словари можно легко найти, погуглив), хоп-хоп-хоп, и структура готова. Ни один из этих сайтов не ушёл в бан сразу после создания.

Теперь вторая (а на самом деле первая) важная часть сайта — контент. Да, контент должен быть уникальный. Копипаст это сразу «привет бан», почти без исключений. Откуда добыть кучу уника под сайт? Нагенерить! Да, Яша хвалится тем, что может распозновать текст. Но на деле эта глупая Сырна не может ничего. Сайты с чистым генеренным контентом висели и висят уже более года. Слышите меня, Яндекс-программисты? Ваши системы обнаружения цепей Маркова смешны и наивны. Как сделать такую систему генерации?

  1. Во-первых, нам нужен словарь русских слов (существительные должны быть с падежами и числами, прилагательные с падежами, числами и родами, а глаголы и того больше). Качаем базу Викшинари и ставим к себе на компьютер, после чего парсим-парсим-парсим.
  2. Во-вторых, нам надо проанализировать какой-нибудь эталонный кусок текста. Желательно, чтобы в нём не было жаргонных словечек типа «комп». Предложения вы деконструируете в шаблоны предложений. То есть у вас будут наборы вида «прил.им.п.ед.ч.жен.р. сущ.им., гл.пов.накл». Решение полностью ложиться на ваши плечи.
  3. Во-вторых, тот же самый текст парсится ещё и для статистики. Так мы получим среднее количество слов на предложение, среднее количество букв на одно слово и так далее. Среднее кол-во букв нам тоже понадобится, уже при генерации
  4. Мы выбираем один из шаблонов, после чего выбираем заполняем его.
  5. Если у вас есть, например, архив библиотека Машкова либо Либрусек, вы можете набрать огромное количество пар слов. Так вы сможете сделать текст ещё более естественным. Потому что Яндекс палит неестественные пары слов.

Всё, идеальный текст готов. Теперь у нас есть сайт с более-менее нормальным устройством папок и уникальным контентом. Наполняем главную страницу и страницы, на которые есть ссылки с главной человеческим контентом, можно даже просто скопировать его с других сайтов. Добавляем его в адурилки поисковиков. Гугл съедает сайт в среднем за 5 дней. Яндекс же первые полторы недели не покажет ни единой страницы с вашего сайта. Потом будет 1-2, а через 2 недели после добавления в индексе Яндекса будет большая часть ваших страниц. Теперь уже добавляем сайт на биржу статей. Подробно расписывать это не будем, там всё более-менее просто. Через некоторое время с вашего сайта начнут покупать ссылки.

ТИЦ, он же Тематический индекс цитирования.

По материалам Хабрахабр.



загрузка...

Комментарии:

Наверх