HacKedByX*Team 0 Zgłoś post Napisano Lipiec 1, 2010 Jak w temacie, jest jakaś metoda tak aby google i inne wyszukiwarki nie mogły zaindeksować mojej strony ? z góry dzięki za odpowiedź Udostępnij ten post Link to postu Udostępnij na innych stronach
Gość Kopaczka Zgłoś post Napisano Lipiec 1, 2010 Wstaw ten kod w <head></head> <meta name="robots" content="noindex, nofollow"> http://www.seoconsul...ta-tags/robots/ Pozdrawiam Udostępnij ten post Link to postu Udostępnij na innych stronach
HacKedByX*Team 0 Zgłoś post Napisano Lipiec 1, 2010 Dzięki , temat można zamknąć Udostępnij ten post Link to postu Udostępnij na innych stronach
Marek607 655 Zgłoś post Napisano Lipiec 1, 2010 wrzucasz plik robots.txt z treścią: User-agent: * Disallow: / Udostępnij ten post Link to postu Udostępnij na innych stronach
Gość Łukasz Tkacz Zgłoś post Napisano Lipiec 1, 2010 Roboty mogą zignorować zapisy w meta i robots, można je wywalać przez htaccessa: RewriteEngine on RewriteCond %{HTTP_USER_AGENT} ^Googlebot [OR] RewriteCond %{HTTP_USER_AGENT} ^ia_archiver [OR] RewriteCond %{HTTP_USER_AGENT} ^Yahoo RewriteCond %{HTTP_USER_AGENT} ^Msnbot RewriteRule ^(.*)$ http://www.google.com/ albo też: BrowserMatchNoCase Googlebot search_bot BrowserMatchNoCase Msnbot search_bot Order Deny,Allow Deny from env=search_bot Udostępnij ten post Link to postu Udostępnij na innych stronach
p 3 Zgłoś post Napisano Lipiec 1, 2010 Roboty mogą zignorować zapisy w meta i robots, można je wywalać przez htaccessa: RewriteEngine on RewriteCond %{HTTP_USER_AGENT} ^Googlebot [OR] RewriteCond %{HTTP_USER_AGENT} ^ia_archiver [OR] RewriteCond %{HTTP_USER_AGENT} ^Yahoo RewriteCond %{HTTP_USER_AGENT} ^Msnbot RewriteRule ^(.*)$ http://www.google.com/ albo też: BrowserMatchNoCase Googlebot search_bot BrowserMatchNoCase Msnbot search_bot Order Deny,Allow Deny from env=search_bot Bez jaj, co to mają być za rady? 1) Znacznie więcej botów respektuje robots.txt niż załapałoby się na te śmieszne regułki, 2) Wszystkie boty, które wymieniłes respektują robots.txt, więc taka "alternatywa" jest zupełnie bez sensu, 3) Przekierowanie robotów na inną stronę (czyli de facto wysłanie HTTP 301/302) jest chyba najgłupszym rozwiązaniem jakie widziałem. Po to są kody HTTP (4xx, 503) aby z nich korzystać. Udostępnij ten post Link to postu Udostępnij na innych stronach