Skocz do zawartości

zablokowanie podstron przy użyciu robots.txt


przemo83

Rekomendowane odpowiedzi

Chcę zablokować niechciane podstrony za pomocą robots.txt, które wyświetlają się obecnie w wynikach wyszukiwania.

Czy wg was dobrze to zrobiłem? Czy coś dodać jeszcze?

User-Agent: *

Disallow: /www.nazwastrony.pl/?start=5&el_mcal_month=2&el_mcal_year=2027

Disallow: /www.www.nazwastrony.pl/start=5&el_mcal_month=5&el_mcal_year=1998

Disallow: /www.nazwastrony.pl/?start=5&el_mcal_month=6&el_mcal_year=1998

Disallow: /www.nazwastrony.pl/start=5&el_mcal_month=12&el_mcal_year=1998

 

Odnośnik do komentarza
Udostępnij na innych stronach

Zgłoszeniem w GWT wyindeksujesz je w ciągu kilku godzin. Tylko musisz pamiętać, że blokada w robots.txt nie powoduje wyindeksowania tylko blokadę dostępu dla robotów. Te strony nadal mogą być wyświetlane w Google, ale bez jakichkolwiek danych pobranych z ich treści, a więc bez tytułu i opisu. W GWT możesz je wyindeksować tymczasowo, ale dopóki strony zwracają nagłówek 200, będą mogły zostać zaindeksowane ponownie jeśli Google trafi na nie przez linki.

  • Kurs SEO wideo — poziom: dla początkujących; premiera: 8 września 2025 r.
Odnośnik do komentarza
Udostępnij na innych stronach

Mam domene z PR po przechwyceniu. Postawiłem na niej stronę wraz z nowym contentem. Oprócz nowych podstron, są zaindeksowane podstrony po poprzednim serwisie. Chciałbym je wyindeksować w GWT. Gdzie i jak to konkretnie zrobić w GWT?

Czy wogołe da radę też takie podstrony usunąć z indeksu?

 

Odnośnik do komentarza
Udostępnij na innych stronach

  • 6 miesięcy temu...

Witam.

Chciałem odświeżyć wątek. Bo mam taki problem.

Google indeksuje mi podstrony sklepu których teoretycznie nie ma. Są to stare podstrony które pochodzą z tz startowej treści, jak się kupuje skórkę, to jest ona zapełniona jaką treścią.

Ta treść była usunięte. Gdy sklep był zgłoszony z www, nie było problemy. Miesiąc temu zgłosiłem zmianę na bez www, i pojawiły się właśnie wstrzykiwania tych starych treści. Błąd mam 404.

Tego jest ok 450 linków. Na razie zrobiłe w[is w robot.txt, ale tak:

Disallow:

I w dół adresy. Czy to wystarczy?

Czy jest możliwość zgłoszenia większej ilości jednorazowo do wyindeksowania w narzędziu Usuń adresy URL

Pozdrawiam.

Odnośnik do komentarza
Udostępnij na innych stronach

Przede wszystkim wpisem w robotsach nie zablokujesz podstron przed indeksacją, tylko przed pobieraniem i wyświetlaniem w SERPach ich zawartości.

Nie ma możliwości masowego zgłoszenia wielu podstron przez GWT, chyba że znajdują się w jednym katalogu, który zgłosisz.

  • Kurs SEO wideo — poziom: dla początkujących; premiera: 8 września 2025 r.
Odnośnik do komentarza
Udostępnij na innych stronach

@Lexy a jest jakis sposob aby wprowadzic te adresy do windeksowania w wiekszej ilosci ? ? ?

Jeżeli jest to jeden katalog np url.tld/katalog1/wszystko do windeksowania.php .. ?

Podaruj 1% Oli Borwik

Wspieraj charytatywnie na SEO forum PIO

 

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności