Lilacor
SEO addict
Re: Индексиране на забранени папки
Първите 2 точки - ясно. Само, че как да гледам кои са деиндексирани? Една по една да гледам страниците в Гугъл, които излизат в отговор на командата: site:website.com? Това също е ясно, но се чудех дали няма и по-прегледен вариант от този, който и аз ползвам към момента
И за още нещо съм се замислил. Ето един условен пример:
Имаме сайт, в който 2-3 години всичко е копи-пействано (причината няма значение - приемаме, че фактът е налице). Сайтът има, примерно, 10000 страници, от които 500 са с уникално съдържание, а 9500 са дупликейт. В индекса на търсачката са влезли 500 страници, но от тях само 50 са с уникално съдържание, а останалото е боклук, който някак си Гугъл не е отсял през годините.
Приемаме, че искам да оставя в индекса на Гугъл само 500 страници - всичките с уникално съдържание (за момента са 50 уникални и 450 дупликейт). Започвам процедури по блокиране на всичко дублирано с robots.txt + noindex tag, като през това време регвам по директории, социалки, купувам силни тематични линкове и пр. само към страниците с уникално съдържание. С другите нищо не правя.
В задачата се пита "Как да следя прогреса?". Да в GWT ще мога да следя донякъде нещата, но само със забранените с robots.txt страници. ОК, не е кой знае колко невъзможно да преглеждам 500-те индексирани към момента страници, но има ли начин да следя процеса на излизане на всичките 9000+ страници от съплементъла, защото явно са там. За 2-3 години все са били индексирани всяка по 1 път и тъй като е била 100% дублирано съдържание е отивала в кофата.
И накрая, ще се радвам да предложите (и аз в това число, когато се сетя за нещо полезно като техника) начин за справяне с такъв тип казуси.
Казано накратко:
1. Имаме 500 индексирани страници, но не тези, които трябва;
2. Имаме предполагаем огромен брой дублирани страници в съплементъла;
3. Как следим процеса по оптимизация (не само как оптимизираме такива сайтове, а как следим напредъка им!)?
Извинявам се, ако постингът ми е бил отегчителен
Поздрави на всички търпеливци!
- даваш на бота да индексира или си избираш кои страници да деиндексира
- затваряш с ноиндекс
- гледаш колко са деиндексирани
Първите 2 точки - ясно. Само, че как да гледам кои са деиндексирани? Една по една да гледам страниците в Гугъл, които излизат в отговор на командата: site:website.com? Това също е ясно, но се чудех дали няма и по-прегледен вариант от този, който и аз ползвам към момента
И за още нещо съм се замислил. Ето един условен пример:
Имаме сайт, в който 2-3 години всичко е копи-пействано (причината няма значение - приемаме, че фактът е налице). Сайтът има, примерно, 10000 страници, от които 500 са с уникално съдържание, а 9500 са дупликейт. В индекса на търсачката са влезли 500 страници, но от тях само 50 са с уникално съдържание, а останалото е боклук, който някак си Гугъл не е отсял през годините.
Приемаме, че искам да оставя в индекса на Гугъл само 500 страници - всичките с уникално съдържание (за момента са 50 уникални и 450 дупликейт). Започвам процедури по блокиране на всичко дублирано с robots.txt + noindex tag, като през това време регвам по директории, социалки, купувам силни тематични линкове и пр. само към страниците с уникално съдържание. С другите нищо не правя.
В задачата се пита "Как да следя прогреса?". Да в GWT ще мога да следя донякъде нещата, но само със забранените с robots.txt страници. ОК, не е кой знае колко невъзможно да преглеждам 500-те индексирани към момента страници, но има ли начин да следя процеса на излизане на всичките 9000+ страници от съплементъла, защото явно са там. За 2-3 години все са били индексирани всяка по 1 път и тъй като е била 100% дублирано съдържание е отивала в кофата.
И накрая, ще се радвам да предложите (и аз в това число, когато се сетя за нещо полезно като техника) начин за справяне с такъв тип казуси.
Казано накратко:
1. Имаме 500 индексирани страници, но не тези, които трябва;
2. Имаме предполагаем огромен брой дублирани страници в съплементъла;
3. Как следим процеса по оптимизация (не само как оптимизираме такива сайтове, а как следим напредъка им!)?
Извинявам се, ако постингът ми е бил отегчителен
Поздрави на всички търпеливци!
Последно редактирано: