Jump to content
  • ×   Pasted as rich text.   Paste as plain text instead

      Only 75 emoji are allowed.

    ×   Your link has been automatically embedded.   Display as a link instead

    ×   Your previous content has been restored.   Clear editor

    ×   You cannot paste images directly. Upload or insert images from URL.

  • Recently Browsing   0 members

    No registered users viewing this page.

  • Similar Content

    • By pjck
      Po pobraniu przez google, zgłoszeniu do indeksacji dostaję taki komunikat: "Indexed, though blocked by robots.txt"

      Zastanawiam się co jest przyczyną.

      W "Examples" poniżej ów komunikat wyświetla jeszcze linki. I te linki najczęściej zawierają polskie litery - oraz w każdym przypadku jeden link z końcówką "/search"
       
      Czy to w ogóle ma jakieś znaczenie praktyczne?  
    • By rissah
      Witam
       
      Mam tanie pytanie - mam stronę na Wordpressie, od kilku dni w panelu GA mam informacje o znacznym ruchu robotów z domen .xyz. Znalazłem trochę informacji - niemal wszystkie to jakieś rosyjskie serwisy albo serwisy rzekomo sprawdzające zgodność strony z wytycznymi US itp.
       
      Da się to jakoś zablokować? Jest tego coraz więcej, początkowo jakieś strony buketeg.xyz itp., ale teraz już kilkadziesiąt przynajmniej domen z tym rozszerzeniem xyz.
    • By M.Bilski
      Witam
      Zaznaczam, ze jestem zieloniutki, więc szybkie pytanie do speców:
      Mam sklep na Presta - jeden z modułów generuje mi mapkę strony i obrazków.
      No i klasycznie jest jeden plik indeksu mapek i jeden plik z Polską mapką.
      Webmasters to łyknęło i nie ma problemu.
      Problem jest natomiast z tym, że w podkatalogu tej domeny mam zainstalowane forum, którego moduł Presta oczywiście nie widzi.
      Forum jest na silniku IPboard. Generuje trzy swoje mapki i mapkę indeksu do katalogu /Forum/
      sitemap_core_forums.xml.gz
      sitemap_core_topics.xml.gz
      sitemap_core_core.xml.gz
      Czy mogę sobie skopiować ten indeks i dodać do mojego indeksu Presta bez jakiś zgrzytów? Będzie się to jakoś sensownie indeksowało?
      No i bonusowe pytanie. Taka sama sytuacja jest z plikiem robots.txt
      Czy jak dodam sobie zapisy z pliku robots który siedzi w katalogu forum do pliku w root to będzie to ładnie blokowało? Chodzi głównie o wpisy /disallow.
      W tym momencie ten plik nie jest w żaden sposób brany pod uwagę przez Google.
      Jak podam tam strony z katalogiem /forum/ to powinno banglać prawda?
      Pozdrawiam,
      Maciej
    • By Salek_Art
      Witam,
      W ramach przygotowania do większego projektu wypuszczamy kilka darmowych narzędzi do SEO.
      1. Narzędzie do Generowania Sitemap w formatach: XML, HTML, TXT.
      Link: http://fastsitemap.com
      Narzędzie pozwoli wam wygenerować mapę do 1000 linków za darmo (500 więcej niż popularny xml-sitemaps) - dodatkowo jest szybsze.
      2. Narzędzie do generowania Robots.txt.
      Link: http://robots-generator.com
      Narzędzie pozwoli wam wygenerować plik robots.txt - jest predefiniowana baza robotów.
      Wypuścimy jeszcze 1-2 takie narzędzia, więc wątek będą aktualizował. Gdybyście mieli jakieś pytania to zapraszam.
    • By jimmi
      30 czerwca 1994 roku wymyślony przez Martijn Koster robots.txt został przyjęty jako standard przez wszystkie liczące się w tym czasie wyszukiwarki takie jak Lycos, AltaVista czy WebCrawler.
      Martin na swoimi blogu opisał 20 lat błędów w robots.txt
      link do jego artykułu http://www.beussery.com/blog/index.php/2014/06/robots-txt-disallow-20/
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue. Terms of Use Privacy Policy