Атанас Янев
New member
Един от сайтовете ми преживя една простотия и ситуацията е следната:
От около 400 желани страници в гугъл са около 1000, като част от тях са първите url + ?s=SPAMWORD
Захапаните страници са от началота на Май месец, или на около 3 месеца.
Преди месец локирах проблема и с meta пуснах noindex, noarchive за googlebot, но не съм ги забранявал от robots.txt
Тъй като страниците са много се чудя за лесен начин да накарам г бота да обходи ТОЧНО въпросните страници с цел да захапе noarchive и да ги разкара от индекса (в страниците има нахакани хиляди линкове).
Мислих си за отделен sitemap с точно тези линкове,
с removal request не ми се занимава, тъй като трябва да се обходят и 5% от тези въпросни 400 желани страници,
ако някой има по-добри идеи - ще се радвам да ги чуя
От около 400 желани страници в гугъл са около 1000, като част от тях са първите url + ?s=SPAMWORD
Захапаните страници са от началота на Май месец, или на около 3 месеца.
Преди месец локирах проблема и с meta пуснах noindex, noarchive за googlebot, но не съм ги забранявал от robots.txt
Тъй като страниците са много се чудя за лесен начин да накарам г бота да обходи ТОЧНО въпросните страници с цел да захапе noarchive и да ги разкара от индекса (в страниците има нахакани хиляди линкове).
Мислих си за отделен sitemap с точно тези линкове,
с removal request не ми се занимава, тъй като трябва да се обходят и 5% от тези въпросни 400 желани страници,
ако някой има по-добри идеи - ще се радвам да ги чуя