«Идеального» способа избавиться от паразитного трафика пока нет: все существующие методы либо отфильтровывают только часть ботов, либо влияют на удобство сайта для пользователей. Из-за этого, иногда, веб-мастера решают вообще не бороться со спамом, пока происходит нагул ботов, и просто продолжают продвижение.
Пока доля паразитного трафика остается небольшой, это решение может быть оправданным, но когда его количество увеличивается настолько, что превышает трафик из поисковых систем, последствия могут быть очень тяжелыми. Сайт может попасть под фильтр.
Второй вариант - это когда на сайте “скручивают” ПФ, что резко ухудшает позиции страниц в поисковой выдаче. Страницы улетают далеко за ТОП-20 и вернуться, возможно, удастся только после смены URL при условии, что контент на странице качественный. Чтобы не допустить такого сценария, лучше заранее выбрать подходящие способы защиты. Их несколько.