-
Zawartość
98 -
Rejestracja
-
Ostatnio
-
Powiedziałbym, że keyword w URL robi robotę, jeśli: jest spójny z innymi kluczowymi elementami optymalizacji pod słowo kluczowe (title, H1, anchory linków wewnętrznych, copy) linkujesz do danej strony z URL w anchorze, bo w "naturalny" sposób przemycasz do tekstu zakotwiczenia sygnał związany z frazą Gdy u siebie na Takaoto zmieniłem URL-e stron kategorii (niedługo w ogóle strony kategorii przerobię, aby były właściwymi stronami docelowymi dla ruchu z organika, ale to inna kwestia), to zaczęły one rankować na interesujące mnie frazy. Efekt lepszy niż przy samej optymalizacji title.
-
Nie ma co szukać uniwersalnego poziomu. Ja bym nie przebijał tego, co jest średnią dla danej frazy w top10. W każdej branży ten poziom może być inny. Tu dokładnie opisałem case (https://www.szymonslowik.pl/linki-kary-anchor-text/) branży, gdzie exacty to nieraz 90% profilu linków, a domeny siedzą stabilnie w topach. Oczywiście sytuacja dość wyjątkowa, ale wystarczająca, aby wykazać, że żadnego uniwersalnego poziomu nie ma.
- 16 odpowiedzi
-
- 1
-
-
- zróżnicowanie
- linki
-
(i 1 więcej)
Tagi:
-
Symeon zaczął obserwować Grzegorz Cz.
-
Zapowiada się nieźle. Chyba wpadnę.
-
Ale to się logicznie nie trzyma kupy. Po co pytać o link building osoby, które nie robią link buildingu?
-
Wpływ mediów społecznościowych na pozycję strony
Symeon odpisał Ryś na temat w Pozycjonowanie i Optymalizacja
Przy tym trzeba by było sprawdzić, czy przypadkiem równolegle do ruchu z SM (organic czy PPC - nieistotne) nie rośnie ruch brandowy, direct, nie rosną CTR w organiku (bo ludzie zaczynają kojarzyć markę, domenę). Tu raczej bym upatrywał wpływu, bo to jest środowisko, które Google może efektywnie analizować i na którym może bazować. -
Same z siebie nie wpływają negatywnie. W większości przypadków to raczej kwestia niewykorzystania potencjału jak pisał @MaxPan. Oczywiście mówimy o sytuacji, w której ciągi znaków w adresie URL są logicznie dopasowane do zawartości. Unikałbym sytuacji (spotkałem się przy niektórych wdrożeniach), w której np. w URL są polskie słowa (polskie nazwy produktów / kategorii), a strona jest w wersji anglojęzycznym (przełączanym np. po parametrze w URL zamiast po całym osobnym statycznym URL). Są to jednak przypadki niepoprawnych wdrożeń. Generalnie przede wszystkim chodzi o to, aby informacja przekazywana w URL (keyword) była spójna z informacją przekazywaną w treści, H1, title... I jeszcze jedno. Przepraszam, że w kolejnym komentarzu. Jak też zauważył MaxPan trzeba pamiętać o kwestii duplikacji. Jeśli masz np. w URL /nazwa-kategorii/ i dany produkt przypisany do wielu kategorii, to będziesz miał wewnętrzną duplikację (tak jest w Shoplo, chociaż tam canonicale to załatwiają po części problem). Powstaną wtedy adresy domena.pl/kategoria1/produkt1 oraz domena.pl/kategoria2/produkt1 a będą miały dokładnie tę samą zawartość. Warto się nad tym zastanowić przed zdefiniowaniem formy adresów URL.
-
Pewnie tak, bo moja strona i strona eactive mają trochę inne funkcje i mamy inne modele biznesowe (póki co). Jednak zawsze należy pamiętać, że analizować należy zależność URL - słowo kluczowe. Jeśli dodajesz dużo treści na stronie głównej to w celu optymalizacji tegoż URL pod określone frazy. Ma to w wielu przypadkach sens, ponieważ strona główna zazwyczaj skupia najwyższy page rank (za sprawą linkowania wewnętrznego i zewnętrznego). Pisałeś pewnie o stronie mojego bloga osobistego - www.szymonslowik.pl. Teraz robię też test bardzo spójny z opisaną przez Ciebie kwestią - przerzuciłem na stronę główną https://takaoto.pro dużą część treści ze strony, która wyskakiwała stosunkowo wysoko na frazy związane z pozycjonowaniem ( https://takaoto.pro/pozycjonowanie-porady-case-study/ ). Jednocześnie ustawiłem z tej podstrony canonical na główną. Analiza danych ze stanu indeksu w GSC pokazuje, że Google zażarło canonicala: Nie przełożyło się to (mimo zmiany title strony głównej) na efektywne przetasowanie w SERP-ach, ale dam temu jeszcze trochę czasu Zachęcam do monitorowania. Już widać, że coś tam zaczyna żreć chociaż ciężko mówić o jakiejś stabilnej sytuacji i jednoznacznych wnioskach
-
Opcje na subdomenę pewnie pozakładane ;P Niemniej wątpię żeby WP ją puściło
-
Słowo kluczowe w tekście zakotwiczenia wzmacnia pozycjonowanie na tę frazę. Jednak trzeba patrzeć na dwie strony medalu - moc linka oraz jego wiarygodność (oceniana także zawsze w kontekście całego profilu linków). Może być tak, że w pewnym momencie przedobrzysz i zbyt dużo linków ze zoptymalizowanym anchorem będzie prowadziło do Twojej strony docelowej, co może zainteresować pingwina. Jednak nie ma nigdzie jakiejś na stałe ustawionej granicy, ile linków z anchorami jest ok (czy innych czynników - dofollow vs nofollow etc.). To jest zmienne w zależności od słowa kluczowego i otoczenia konkurencyjnego. Są takie nisze, gdzie masz 90% linków dofollow z exact-matchami i jakoś dają radę (możesz przeczytać tutaj case), a są takie, gdzie bardzo łatwo przedobrzyć. Jak napisał @Beerbant - dobrą robotę mogą robić linki z anchorami w postaci URL. Jeśli masz przyjazne adresy, to i tak de facto zawierają główny keyword (przynajmniej powinny), a nie wyglądają tak spamersko jak exacty w większości przypadków.
-
Z tymi canonicalami to zawsze jest cienka granica - Google może uznać, może nie uznać (co potem widać w Google Search Console w raporcie o stanie indeksu). Im podobniejsza strona, tym lepiej (dobrze by było jakby było dopasowanie np. na poziomie głównego keyworda w tytule no i samej treści).
-
Robię od jakichś 2-3 miesięcy testy, na ile, na niezbyt dobrze zoptymalizowanej pod względem wydajności stronie o średnim profilu linków (69 domen linkujących df), da się mocną optymalizacją contentu (duży nacisk na frazy zależne i benchmarki z top10 / top50, a także zapytania konwersacyjne) budować widoczność i pozycje. Pierwszy eksperyment dotyczył frazy "pozycjonowanie śląsk" i pokrewnych. Zakończony bdb rezultatem, tj, wbiciem się na praktycznie wszystkie lokalne frazy na top1 (screen): W komentarzach pojawiły się uwagi, że to mimo wszystko siła linków zadziałała. Trudno tu wyizolować czynnik linków lub czynnik optymalizacji contentu. W związku z tym postanowiłem pójść po grubsze frazy, czyli "pozycjonowanie stron", "pozycjonowanie", "pozycjonowanie stron www" itp. No i udało mi się do pułapu top20 wbić korzystając z podobnej strategii optymalizacji (z wykorzystaniem Senuto / SurferSEO / Answerthepublic / Ahrefs keywords explorer). Zresztą dokładnie to opisałem we wpisie https://www.szymonslowik.pl/pozycjonowanie-stron/ (pod linkiem także odniesienie do wcześniejszego testu na "pozycjonowanie Śląsk"). Zacząłem dokładać trochę linków (11 domen linkujących df na chwilę obecną) i obserwuję wzrosty. Nie łudzę się, że na takie frazy, na które biją się wszystkie większe i mniejsze agencje (W topach Bauer, Whitepress, Tense, czy Eactive) uda się bez linków Nie tym razem. Problem jest jednak inny. Zaczęły mi przeskakiwać strony (widać to na poniższym screenie i też jest opisane w samym artykule). Okazało się, że na 16. pozycji na pozycjonowanie siedzi wpis uprzednio optymalizowany pod wyniki lokalne, zamiast tego, który sobie zaplanowałem. No i teraz, co można zrobić... 1) Artykuły są podlinkowane wewnętrznie z właściwymi anchorami 2) Zdezoptymalizowałem trochę wpis "śląski" zmieniając trochę tytuł 3) Bardzo mocno zastanawiam się nad radykalnym krokiem w postaci: - dołożenia całego contentu z /pozycjonowanie-slask do wpisu /pozycjonowanie-stron - ustawienia canonical (mogę poświęcić frazy lokalne - nie robię na tym biznesu) z /pozycjonowanie-slask na /pozycjonowanie-stron Skoro strony przeskakują w rankingu na najważniejsze frazy (i są stosunkowo wysoko, więc dopasowanie jest imho całkiem niezłe), to myślę, że Google powinien takiego canonicala uznać. Jak sądzicie? Mam za sobą dużo działań z canonicalami w e-commerce, lecz zupełnie inaczej to wygląda przy URL-ach generowanych w nawigacji fasetowej (czy po prostu stosowaniu linków kanonicznych przy różnych wariantach URL), a inaczej przy contencie. Zawsze zastanawia mnie, gdzie jest granica, kiedy Google uzna, że to są zbliżone dokumenty. Jakieś sugestie? Ciekaw jestem Waszych opinii. Canonicala i tak wstawię za parę dni i podzielę się rezultatami. Jakieś prognozy?
- 4 odpowiedzi
-
- 1
-
-
- canonical
- kanibalizacja
- (i 1 więcej)
-
Symeon zmienił swoje zdjęcie
-
Jak wyżej. Trzeba wziąć pod uwagę topical authority na poziomie danego URL, jak i całej domeny. Można to zrobić dobrze, a można źle (spowodować kanibalizację, keyword stuffing i parę innych niepożądanych sytuacji). Nie zawsze więcej znaczy też lepiej. Możesz napisać 30k zzs wodolejstwa, które nic nie da. Możesz napisać 30k zzs napchane frazami tak, że Google potraktuje to jako upychanie fraz na siłę. Możesz dokonać analizy tematu, dobrać powiązane frazy (wykorzystać to przy okazji do linkowania wewnętrznego wgłąb serwisu), dobrać częste pytania dotyczące tematu strony głównej i dodać do niej FAQ (wykorzystać Senuto - generator pytań / Ahrefs - Questions / i lub Answerthepublic - sekcję pytania). Warto zajrzeć do raportu zależnych słów kluczowych w Senuto konstruując taki plan. Można też kierować się popular/common words i popular/common phrases (raportu w SurferSEO), dzięki którym zobaczysz jakie hasła są popularne na stronach będących w top10. Diabeł tkwi w szczegółach, jednak w większości przypadków dodanie treści pomaga. Możesz jednak trafić na niszę, gdzie nie przyniesie efektu, bo np. siła konkurentów wynikająca z profilu linków sprawi, że twoje pozycje nawet nie drgną. Mi np. obszerny tekst poparty dobrą analizą contentową pozwolił wbić się na top1 na pozycjonowanie śląsk, pozycjonowanie stron śląsk itp (tutaj). Profil linków (mierzony pobieżnie wskaźnikami Ahrefs) mam słabszy od większości konkurentów. Strona też nie jest jakaś super zoptymalizowana (blog WP / Divi). Robię też test na "pozycjonowanie stron" (tutaj) ale to będzie oczywiście dużo większe wyzwanie (póki co ta pierwsza strona robiona pod lokalne wyniki rankuje na "pozycjonowanie" w okolicach 30. pozycji. Świeża sprawa, więc narazie nie ma co w ogóle wniosków wyciągać. W tych tekstach, zwłaszcza drugim, masz dokładnie opisane, jakie rzeczy wziąłem pod uwagę budując plan contentu. Popatrz na takie Eactive, które siedzi w topach. Mają kolosalną ilość treści na głównej. Jednak główny widok above the fold mają tak skonstruowany, aby leady łapać już na tym etapie. Podejrzewam, że mało kto scrolluje dalej.
-
Zajrzyj do źródła i sprawdź treść znacznika meta robots. Sprawdź też robots.txt. Czasem gdy nie jest zachowania spójność między sygnałami dla robota (linki zewnętrzne, wewnętrzne, kanoniczne, sitemap.xml, dyrektywy dla robotów), może on zindeksować jakiś URL, ale np. nie pobierać części danych.
-
Symeon zaczął obserwować Black Friday i Cyber Monday 2018 konkretne oferty
-
Zobaczcie jednak, co się dzieje na grupach SEO. Zarówno na SEO/SEM Polska, chyba największej, jak i seowcy, czy TakaBranzaSEO. Oczywiście 90% to wtórne kwestie i spam-ogłoszenia (kupię/sprzedam), ale jednak jakieś dyskusje się pojawiają, ludzie pytają o różne niuanse. Myślę, że po prostu więcej osób siedzi tam, niż tutaj. Po drugie, dzisiaj przecież mamy coraz mniej uniwersalnych recept. Zmienność w Google to jedno. Coraz większe nasycenie oraz różnice między czynnikami i taktykami w poszczególnych branżach powodują, że dyskusja poza bardzo konkretnymi, indywidualnymi przypadkami jest po prostu ciężka (vide podaj domenę / nie mam szklanej kuli na grupach).
-
Analizuję stronę korzystającą z CallPage. Crawler trafił na szereg adresów URL z callpage.io: np. https://assets.livecall.io/assets/interest-query(...).mp3 (dający odpowiedź 206) czy też wiele linków do api.callpage.io odpowiadających statusem 403. Czy zwróciliście uwagę na to podczas audytów swoich stron (/stron swoich klientów)? Czy zauważyliście wpływ na pracę robota, crawlowanie, indeksowanie, wydajność, crawl budget?