Jump to content
Sign in to follow this  
marcisz

Czy potrzebny jest plik robots.txt

Recommended Posts

Witam,

Jestem tu nowy, nowy takze w temacie optymalizacji. Dlatego mam pytanie.

Przepuscilem swoja stronke przez filtr optymalizacji na jednej ze stron, wyskoczylo kilka rzeczy do poprawki miedzy innymi : ' brak pliku robots.txt ".

Zaczalem sledzic fora i opinie, generalnie zdania sa bardzo podzielone jedni pisza ze trzeba, ze powinien byc, inni ze to juz przeszlosc, ze zadne robaczki sobie z tego nic nie robia.

Dajcie znac jak to widzicie i czy macie takie pliki u siebie.

Jesli tak to prosze przeklejcie takze zawartosc takiego txt-ka.

Pozdro600


http://www.szperaj.com - Darmowe ogloszenia dla Polakow mieszkajacych za granica

Share this post


Link to post
Share on other sites

Wydaje mi się że nie ma jakiś "twardych dowodów" na to że taki plik ma bezpośredni wpływ na pozycje...

Ja tam czasami stosuje robots txt, a czasami nie, ale to ze względu na to czy chcę aby konkretne roboty indeksowały/bądź nie daną stronę.

Z drugiej strony jeśli masz np. duplicate content w ramach jednej domeny, no to takim plikiem robots.txt możesz

sobie zablokować konkretną podstronę - więc w teorii uchronić się od jakiś kar itp...


"... Z wyborem firmy SEO jest troszkę jak z wyborem marki samochodu..."

Polecam skuteczne pozycjonowanie warszawa !

Share this post


Link to post
Share on other sites

ok dzieki, wlasnie przeanalizowalem kilka wiekszych portali pod kontem posiadania pliku robots.txt - faktycznie prawie nikt go nie stosuje, widac nie maja nic do ukrycia:)


http://www.szperaj.com - Darmowe ogloszenia dla Polakow mieszkajacych za granica

Share this post


Link to post
Share on other sites

Zawsze stosuj plik robots.txt! Może być nawet pusty lub standardowe

User-agent: *
Allow: /

Będziesz miał problem jak serwer zwróci Ci http500 np. poza tym co szkodzi wgrywać ten mały pliczek?


Skuteczne kampanie AdWords - Redseo.pl

Share this post


Link to post
Share on other sites

robots.txt sluzy raczej temu aby np. nie indexować stron których sobie nie życzymy. Kiedys mi google zaindeksowało strone w takiej postaci www.strona.pl/_test/index.php i reszta podstron, nigdzie nie bylo linkowane bo strona byla w trakcie tworzenia, a jak przenioslem do glownego katalogu to w serpach wyswietlalo sie rownolegle obie wersje strony wiec w tym przypadku z pomocą przyszedł właśnie robots.txt i po kilku dniach znikło z serpów.


SFM Filtry - wysokiej jakości filtry powietrza do systemów wentylacji i klimatyzacji.

W naszym sklepie internetowym filtry powietrza do wentylacji kupisz szybko, tanio i bezpiecznie.

centrale telefoniczne Siemens, Panasonic, Slican

Share this post


Link to post
Share on other sites

User-agent: *
Allow: /

Ok, rozumiem, ze taka jest zawartosc pliku i znaczy to mniejwiecej -> Indeksuj wszystko

-tak, jak gdyby plik robots.txt byłby pusty lub gdyby nie było go wcale


http://www.szperaj.com - Darmowe ogloszenia dla Polakow mieszkajacych za granica

Share this post


Link to post
Share on other sites

@marcisz - tak, taki zapis oznacza "indeksuj wszystko".

Brak robots.txt traktuj jako negatywny czynnik rankigowy. Robots.txt to podstawa i dobry nawyk.


Skuteczne kampanie AdWords - Redseo.pl

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Sign in to follow this  

  • Recently Browsing   0 members

    No registered users viewing this page.

  • Similar Content

    • By pjck
      Po pobraniu przez google, zgłoszeniu do indeksacji dostaję taki komunikat: "Indexed, though blocked by robots.txt"

      Zastanawiam się co jest przyczyną.

      W "Examples" poniżej ów komunikat wyświetla jeszcze linki. I te linki najczęściej zawierają polskie litery - oraz w każdym przypadku jeden link z końcówką "/search"
       
      Czy to w ogóle ma jakieś znaczenie praktyczne?  
    • By rissah
      Witam
       
      Mam tanie pytanie - mam stronę na Wordpressie, od kilku dni w panelu GA mam informacje o znacznym ruchu robotów z domen .xyz. Znalazłem trochę informacji - niemal wszystkie to jakieś rosyjskie serwisy albo serwisy rzekomo sprawdzające zgodność strony z wytycznymi US itp.
       
      Da się to jakoś zablokować? Jest tego coraz więcej, początkowo jakieś strony buketeg.xyz itp., ale teraz już kilkadziesiąt przynajmniej domen z tym rozszerzeniem xyz.
    • By M.Bilski
      Witam
      Zaznaczam, ze jestem zieloniutki, więc szybkie pytanie do speców:
      Mam sklep na Presta - jeden z modułów generuje mi mapkę strony i obrazków.
      No i klasycznie jest jeden plik indeksu mapek i jeden plik z Polską mapką.
      Webmasters to łyknęło i nie ma problemu.
      Problem jest natomiast z tym, że w podkatalogu tej domeny mam zainstalowane forum, którego moduł Presta oczywiście nie widzi.
      Forum jest na silniku IPboard. Generuje trzy swoje mapki i mapkę indeksu do katalogu /Forum/
      sitemap_core_forums.xml.gz
      sitemap_core_topics.xml.gz
      sitemap_core_core.xml.gz
      Czy mogę sobie skopiować ten indeks i dodać do mojego indeksu Presta bez jakiś zgrzytów? Będzie się to jakoś sensownie indeksowało?
      No i bonusowe pytanie. Taka sama sytuacja jest z plikiem robots.txt
      Czy jak dodam sobie zapisy z pliku robots który siedzi w katalogu forum do pliku w root to będzie to ładnie blokowało? Chodzi głównie o wpisy /disallow.
      W tym momencie ten plik nie jest w żaden sposób brany pod uwagę przez Google.
      Jak podam tam strony z katalogiem /forum/ to powinno banglać prawda?
      Pozdrawiam,
      Maciej
    • By Salek_Art
      Witam,
      W ramach przygotowania do większego projektu wypuszczamy kilka darmowych narzędzi do SEO.
      1. Narzędzie do Generowania Sitemap w formatach: XML, HTML, TXT.
      Link: http://fastsitemap.com
      Narzędzie pozwoli wam wygenerować mapę do 1000 linków za darmo (500 więcej niż popularny xml-sitemaps) - dodatkowo jest szybsze.
      2. Narzędzie do generowania Robots.txt.
      Link: http://robots-generator.com
      Narzędzie pozwoli wam wygenerować plik robots.txt - jest predefiniowana baza robotów.
      Wypuścimy jeszcze 1-2 takie narzędzia, więc wątek będą aktualizował. Gdybyście mieli jakieś pytania to zapraszam.
    • By jimmi
      30 czerwca 1994 roku wymyślony przez Martijn Koster robots.txt został przyjęty jako standard przez wszystkie liczące się w tym czasie wyszukiwarki takie jak Lycos, AltaVista czy WebCrawler.
      Martin na swoimi blogu opisał 20 lat błędów w robots.txt
      link do jego artykułu http://www.beussery.com/blog/index.php/2014/06/robots-txt-disallow-20/
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue. Terms of Use Privacy Policy