Это исключит Индексацию ненужных страниц из вне!

30th Август 2014 ;)

Привет Сикбой.
Как раз задался вопросом по защите сайта и решил набрать в поисковике обратную фразу, чтобы найти уязвимости.
К удивлению я обнаружил, что все мои 4 сайта защищены от основных приведённых тут напастий 🙂

Ребята, всем настоятельно рекомендую свой robots.txt оформить с таким пунктом как:

Allow: /нужные страницы
Disallow: /

Это исключит Индексацию ненужных страниц из вне!

Когда мне отдали один сайт под раскрутку, я столкнулся с тем, что этот сайт стоит в ЧС Яшки. Оказалось, что на него ведут порядка 12к ссылок с Twitter’a и ЖЖ(ну и парочки ещё).

Значит, что я сделал:
1.В Роботс.тхт сделал то, что советовал выше.
2.На сайт направил трафик, который задерживался по 30-60 минут на разных страницах*(писал скрипт под WIN и привлекал 2к человек в день под опыт).

В результате сайт вышел из чс уже через 2 месяца, ссылки перестали индексироваться с твиттеров. К тому же я на твиттере жаловался админам на страницы, которые имели фальшивые ссылки вроде «a href=»site.ru» Купить гавна»a».

Всем удачи, спасибо автору за то, что написал такую статью!

Берегите свои проекты, тем более, если они вам дороги.


Сегодня: 2016.12.10
jAntivirus