SearchEngines.bg

Това е примерно съобщение за гост. Регистрирайте безплатен акаунт днес, за да станете потребител на SearchEngines.bg! След като влезете, ще можете да участвате в този сайт, като добавите свои собствени теми и публикации, както и да се свържете с други членове чрез вашата лична входяща кутия! Благодарим ви!

Двойно индексиране на съдържание заради friendly url

web.nikolova

New member
Здравейте,

Надявам се да ми помогнете, защото не съм напълно сигурна как да се справя с този проблем. От уебмастър тула на Гугъл видях, че търсачката ми индексира доста голяма част от съдържанието по 2 пъти и проблемът според мен е, че използвах SEF функцията на Джумлата. Ето пример от уебмастър тула:

/index.php?option=com_contact&view=contact&id=1&Itemid=10
/kontakti

тези страници са листнати, като такива с еднакво заглавие, meta description и ключови думи. Това е напълно нормално защото и двете сочат към контактите на сайта ми и едната е "неприятелска" за търсачката. Първия линк го няма листнат в sitemap-а на сайта. До колкото четох може би трябва да използвам някак 301 пренасочвания (в .htaccess файла), за да се справя с този проблем, но не ми е напълно ясно дали е възможно да се оправи проблема така и как точно да стане.
 
Re: Двойно индексиране на съдържание заради friendly url

Ето някой възможни решения:

1. Най-правилно чрез 301 пренасочване на "грозните" URL адреси към хубавите.
2. По-лесен вариант е чрез canonical към хубавите адреси, а и ще върши и друга работа.
3. В краен случай, ако 1 и 2 са сложни за имплементация, забрана с robots.txt на файла index.php . Това и при условие, че няма връзки към старите адреси.
 
За: Двойно индексиране на съдържание заради friendly url

За: Двойно индексиране на съдържание заради friendly url

Има ли възможност с 301 пренасочвания да стане за всички страници с един регулярен израз или трябва да ги изброявам, защото материалите които първо ми излизат в Гугъл са с изборяване на адресите. В момента имам това в .htaccess файла:

RewriteCond %{QUERY_STRING} mosConfig_[a-zA-Z_]{1,21}(=|\%3D) [OR]
RewriteCond %{QUERY_STRING} base64_encode[^(]*\([^)]*\) [OR]
RewriteCond %{QUERY_STRING} (<|%3C)([^s]*s)+cript.*(>|%3E) [NC,OR]
RewriteCond %{QUERY_STRING} GLOBALS(=|\[|\%[0-9A-Z]{0,2}) [OR]
RewriteCond %{QUERY_STRING} _REQUEST(=|\[|\%[0-9A-Z]{0,2})
RewriteRule .* index.php [F]

RewriteBase /

RewriteRule .* - [E=HTTP_AUTHORIZATION:%{HTTP:Authorization}]
RewriteCond %{REQUEST_URI} (/[^.]*|\.(php|html?|feed|pdf|raw))$ [NC]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule .* index.php [L]

#301 redirect

RewriteCond %{HTTP_HOST} !^www\. [NC]
RewriteRule ^ http://www.%{HTTP_HOST}%{REQUEST_URI} [L,R=301]
 
За: Двойно индексиране на съдържание заради friendly url

За: Двойно индексиране на съдържание заради friendly url

Мисля, че ще е достатъчно да се забрани в роботс текста стринга /index.php?. Това не забранява самия индекс файл, но блокира всички динамични адреси за четене от роботите. Като допълнение е добре да се сложи каноникъл, но е излишно да се прави пренасочване, защото само ще товари сървъра. Трябвало е още с пренаписването на адресите да се забранят динамичните и сега нямаше да има проблем. Същото нещо се получаваше в моя сайт с вицове, но никога Гугъл не ми е сканирал динамичен адрес, защото му ги забраних моментално с пускането на сайта. В другия ми сайт, който е базиран на преработено рнрвв, нещата се развиха по същия начин и Гугльо ще не ще сканира само статичните адреси.

И разбира се, картата трябва да подава само "хубавите".
 
Re: Двойно индексиране на съдържание заради friendly url

В продължение на горния пост, добави долния код

Disallow: /*?

в robots.txt файла си. Блокира достъп до всички URL адреси, които съдържат "?".
 
За: Re: Двойно индексиране на съдържание заради friendly url

За: Re: Двойно индексиране на съдържание заради friendly url

В продължение на горния пост, добави долния код

Disallow: /*?

в robots.txt файла си. Блокира достъп до всички URL адреси, които съдържат "?".
Напълно съм съгласен, ако има и други типове динамични адреси, това ще реши въпроса с всичките. :D
 
Re: Двойно индексиране на съдържание заради friendly url

1. Най-правилно чрез 301 пренасочване на "грозните" URL адреси към хубавите.
В случая няма как да стане това, тъй като вече френдли УРЛ се пренасочват с вътрешен редирект към динамичните, и пренасочването им с външен редирект би създало безкраен цикъл.
 
За: Re: Двойно индексиране на съдържание заради friendly url

За: Re: Двойно индексиране на съдържание заради friendly url

Благодаря много, ще добавя:

Disallow: /index.php?
Disallow: /*?

А дали ще изчезнат линковете от SERP-а(без да има наказание за сайта)?
 
Последно редактирано:
Re: Двойно индексиране на съдържание заради friendly url

Ако питаш дали на мястото на динамичните в СЕРП-а ще се появят статичните, по-скоро - не.
 
За: Двойно индексиране на съдържание заради friendly url

За: Двойно индексиране на съдържание заради friendly url

По-скоро питам дали ще изчезнат от индекса на Гугъл динамичните адреси с времето и дали ще изчезнат проблемите проблемите с дублирането, които намира Webmasters Tool-a?
 
За: Двойно индексиране на съдържание заради friendly url

За: Двойно индексиране на съдържание заради friendly url

Ако са забранени за достъп от роботите, с течение на времето ще изчезнат, а може да поискаш премахване и през GWT, за да стане бързо.
 
За: Двойно индексиране на съдържание заради friendly url

За: Двойно индексиране на съдържание заради friendly url

Благодаря много на всички. Добавям ги в robots.txt и ще видим с течение на времето как ще се развият нещата :)
 

Горе