SobiePan Opublikowano 28 Grudnia 2012 Udostępnij Opublikowano 28 Grudnia 2012 Witam, uprzejmie proszę specjalistów w tym zakresie o odpowiedź, czy poniższe pliku są poprawne i skutecznie zablokują mi dostęp do stron. Mam ich kilkadziesiąt i wolę zapytać najpierw, niż zmieniać to później Dzięki za pomoc! robots.txt User-agent: Googlebot Disallow: User-agent: msnbot Disallow: User-agent: Slurp Disallow: User-agent: Teoma Disallow: User-agent: rogerbot Disallow: / User-agent: exabot Disallow: / User-agent: MJ12bot Disallow: / User-agent: dotbot Disallow: / User-agent: gigabot Disallow: / User-agent: AhrefsBot Disallow: / User-agent: * Disallow: / htaccess SetEnvIfNoCase User-Agent .*rogerbot.* bad_bot SetEnvIfNoCase User-Agent .*exabot.* bad_bot SetEnvIfNoCase User-Agent .*mj12bot.* bad_bot SetEnvIfNoCase User-Agent .*dotbot.* bad_bot SetEnvIfNoCase User-Agent .*gigabot.* bad_bot SetEnvIfNoCase User-Agent .*ahrefsbot.* bad_bot SetEnvIfNoCase User-Agent .*sitebot.* bad_bot <Limit GET POST HEAD> Order Allow,Deny Allow from all Deny from env=bad_bot </Limit> Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Opublikowano 28 Grudnia 2012 Udostępnij Opublikowano 28 Grudnia 2012 Czemu zablokowałeś wszystkie boty? User-agent: *Disallow: / Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
SobiePan Opublikowano 28 Grudnia 2012 Autor Udostępnij Opublikowano 28 Grudnia 2012 Żeby odsiać całe pozostałe badziewie, których nazw nie pamiętam Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
blake Opublikowano 28 Grudnia 2012 Udostępnij Opublikowano 28 Grudnia 2012 Pewnie nie chce żeby mu jakiś googlebot wałęsał się po serwerze "Ja nie bywam w kuluarach, nie wiem gdzie to jest. Bywam w innych miejscach w innym towarzystwie..." SEO Norris - cytat roku 2014 "Dlatego dużo firm i freelancerów zajęło się pp, nie poradzili sobie z klientami i aktualizacjami algo." Cytat wszech czasów! Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
SobiePan Opublikowano 28 Grudnia 2012 Autor Udostępnij Opublikowano 28 Grudnia 2012 Pewnie nie chce żeby mu jakiś googlebot wałęsał się po serwerze Aaaa... już rozumiem . Jak zmienić, żeby nic nie wchodziło poza google i bingiem? dzięki pozdr p Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Gość Opublikowano 28 Grudnia 2012 Udostępnij Opublikowano 28 Grudnia 2012 Strzelam, że: User-Agent: *Disallow: / User-Agent: Googlebot Allow: / User-Agent: Googlebot-Mobile Allow: / User-Agent: Googlebot-Image Allow: / User-Agent: Mediapartners-Google Allow: / User-Agent: bingbot Allow: / Oczywiście spamboty nie czytają robots.txt - mają go w głębokim poważaniu. Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
blackpress.pl Opublikowano 3 Stycznia 2013 Udostępnij Opublikowano 3 Stycznia 2013 Kolejność warunków w robots.txt nie jest ważna: https://developers.g...docs/robots_txt "Order of precedence for user-agents" Wracając do tematu, to wiele botów się nie przedstawia i nie czyta robots.txt, ale możesz je wycinać po IP w htaccess PS. nie ma złych robotów - są tylko mniej lub bardziej natrętne BlackPress.pl - Automatyczna dodawarka do precli [Najtańsza na rynku - wystawiamy FV] BlackPress.pl na forum PiO Darmowa mieszarka synonimów Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Rekomendowane odpowiedzi
Zarchiwizowany
Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.