Zaloguj się, aby obserwować  
miojamo

Indeksowanie dokumentacji

Polecane posty

Witam,

Z głównej  strony mam link do dokumentacji (confluence) są tam setki stron z linkami wewnetrznymi oraz zewnetrznymi oraz sporo treści. Nie jest to jednak strona zoptymalizowana, nie ma meta description etc. Czy robot powinien indeksować tę stronę czy jednak zrobić nofollow? i zablokować indeksacje wiki?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Robot sobie poradzi jak treść jest unikalna i ma jakiekolwiek nagłówki czyli tytuły np H1. Nie wiem jak wygląda kod html takiej strony. Warunek indeksacji to tekst z nagłówkami w html-u. 

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Niestety tak. Zazwyczaj błędy na subdomenie w mniejszym lub większym stopniu przyczynią się do pogorszenia jakości domeny głównej. 

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
3 godziny temu, miojamo napisał:

przez błędy na niej,

Co rozumiesz przez błędy. Nie działa? Rozjechała się i jest nieczytelna? Została zaatakowana? Dla rankingu liczy się jedynie to co masz w indeksie i jaki jest profil linków tej subomeny oraz jak umiejętnie linkujesz pomiędzy sudomena a domeną.

Edytowano przez Grey Ronin

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Confluence produkuje mnóstwo duplikatów np:
login.action?os_destination=%2Fusers%2Fviewuserprofile.action%3Fusername%3Dmbrockerhoff&permissionViolation=true

Takich linków są setki

Załatwiłem to plikiem robots.txt

Udostępnij ten post


Link to postu
Udostępnij na innych stronach
1 godzinę temu, miojamo napisał:

Załatwiłem to plikiem robots.txt

 

Jak dzięki temu masz czysty indeks bez zbędnych stron to nie ma "błędów". Rozwiązanie z robots.txt nie zawsze się sprawdza. Najlepiej mimo wszytko wpuszczać robota i ustawiać np rel=canonical. Zawsze zresztą  pozostaje wybór co się da szybciej wprowadzić. 

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Ale nie zablokowałem wszystkiego, nie wiem czemu Atlasian nie daje robots.txt w ogóle - to jakaś porażka ale na github jest przygotowany robots.txt który blokuje co trzeba. Jeszcze mam pytanie jak to jest z linkami które jeszcze widnieją? Jak długo będzie trwało zanim znikną i czy w ogóle znikną? Da się to jakoś przyśpieszyc?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Bądź aktywny! Zaloguj się lub utwórz konto

Tylko zarejestrowani użytkownicy mogą komentować zawartość tej strony

Utwórz konto

Zarejestruj nowe konto, to proste!

Zarejestruj nowe konto

Zaloguj się

Posiadasz własne konto? Użyj go!

Zaloguj się
Zaloguj się, aby obserwować  

  • Kto przegląda   0 użytkowników

    Brak zalogowanych użytkowników przeglądających tę stronę.