Skocz do zawartości

Plik robots.txt a przekierowania 301


lukasamd

Rekomendowane odpowiedzi

Witam,

jakiś czas temu zmieniłem adresy surowe na zawierające słowa kluczowe.

Oczywiście strony nadal dzialały na starych, więc zrobiłem odpowiednie przekierowania 301 z poziomu skryptu na pliki (teraz mam tak, że nie ma duplikatów nawet przy słowach kluczowych).

Niedawno dodałem również plik robots.txt zakazujący robotom na indeksowanie starych plików.

Czy to ma sens? Nieco się zastanawiałem, i dochodzę do wniosku, że wszystkie stare linki wiszące w necie tracą w chwili obecnej swoją wartość: i tak są blokowane.

Co zrobić? Zostawić jak jest, czy wywalić blokadę i pozostawić jedynie R 301.

Odnośnik do komentarza
Udostępnij na innych stronach

Może tak być (a przynajmniej jest to logiczne, bo w praktyce to nigdy nie wiadomo :)), więc może lepiej pozbądź się tego robots. W sumie ja u siebie w jednym serwisie też blokowałem, bo trafiały do indeksu mimo, że nie prowadziły do nich żadne linki, ale jak są w indeksie to są w suplemencie i nie szkodzą.

ZGORA - portal z poradnikami między innymi o webmasterstwie - szukasz porady - zajrzyj

Kobietyn - portal dla kobiet.

Webbest.eu

Odnośnik do komentarza
Udostępnij na innych stronach

Zarchiwizowany

Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.

  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności