Symeon

Forumowicze
  • Zawartość

    93
  • Rejestracja

  • Ostatnio

Wszystko napisane przez Symeon

  1. Symeon

    Struktura adresów URL

    Same z siebie nie wpływają negatywnie. W większości przypadków to raczej kwestia niewykorzystania potencjału jak pisał @MaxPan. Oczywiście mówimy o sytuacji, w której ciągi znaków w adresie URL są logicznie dopasowane do zawartości. Unikałbym sytuacji (spotkałem się przy niektórych wdrożeniach), w której np. w URL są polskie słowa (polskie nazwy produktów / kategorii), a strona jest w wersji anglojęzycznym (przełączanym np. po parametrze w URL zamiast po całym osobnym statycznym URL). Są to jednak przypadki niepoprawnych wdrożeń. Generalnie przede wszystkim chodzi o to, aby informacja przekazywana w URL (keyword) była spójna z informacją przekazywaną w treści, H1, title... I jeszcze jedno. Przepraszam, że w kolejnym komentarzu. Jak też zauważył MaxPan trzeba pamiętać o kwestii duplikacji. Jeśli masz np. w URL /nazwa-kategorii/ i dany produkt przypisany do wielu kategorii, to będziesz miał wewnętrzną duplikację (tak jest w Shoplo, chociaż tam canonicale to załatwiają po części problem). Powstaną wtedy adresy domena.pl/kategoria1/produkt1 oraz domena.pl/kategoria2/produkt1 a będą miały dokładnie tę samą zawartość. Warto się nad tym zastanowić przed zdefiniowaniem formy adresów URL.
  2. Pewnie tak, bo moja strona i strona eactive mają trochę inne funkcje i mamy inne modele biznesowe (póki co). Jednak zawsze należy pamiętać, że analizować należy zależność URL - słowo kluczowe. Jeśli dodajesz dużo treści na stronie głównej to w celu optymalizacji tegoż URL pod określone frazy. Ma to w wielu przypadkach sens, ponieważ strona główna zazwyczaj skupia najwyższy page rank (za sprawą linkowania wewnętrznego i zewnętrznego). Pisałeś pewnie o stronie mojego bloga osobistego - www.szymonslowik.pl. Teraz robię też test bardzo spójny z opisaną przez Ciebie kwestią - przerzuciłem na stronę główną https://takaoto.pro dużą część treści ze strony, która wyskakiwała stosunkowo wysoko na frazy związane z pozycjonowaniem ( https://takaoto.pro/pozycjonowanie-porady-case-study/ ). Jednocześnie ustawiłem z tej podstrony canonical na główną. Analiza danych ze stanu indeksu w GSC pokazuje, że Google zażarło canonicala: Nie przełożyło się to (mimo zmiany title strony głównej) na efektywne przetasowanie w SERP-ach, ale dam temu jeszcze trochę czasu Zachęcam do monitorowania. Już widać, że coś tam zaczyna żreć chociaż ciężko mówić o jakiejś stabilnej sytuacji i jednoznacznych wnioskach
  3. Symeon

    WP zamyka katalog.wp.pl

    Opcje na subdomenę pewnie pozakładane ;P Niemniej wątpię żeby WP ją puściło
  4. Robię od jakichś 2-3 miesięcy testy, na ile, na niezbyt dobrze zoptymalizowanej pod względem wydajności stronie o średnim profilu linków (69 domen linkujących df), da się mocną optymalizacją contentu (duży nacisk na frazy zależne i benchmarki z top10 / top50, a także zapytania konwersacyjne) budować widoczność i pozycje. Pierwszy eksperyment dotyczył frazy "pozycjonowanie śląsk" i pokrewnych. Zakończony bdb rezultatem, tj, wbiciem się na praktycznie wszystkie lokalne frazy na top1 (screen): W komentarzach pojawiły się uwagi, że to mimo wszystko siła linków zadziałała. Trudno tu wyizolować czynnik linków lub czynnik optymalizacji contentu. W związku z tym postanowiłem pójść po grubsze frazy, czyli "pozycjonowanie stron", "pozycjonowanie", "pozycjonowanie stron www" itp. No i udało mi się do pułapu top20 wbić korzystając z podobnej strategii optymalizacji (z wykorzystaniem Senuto / SurferSEO / Answerthepublic / Ahrefs keywords explorer). Zresztą dokładnie to opisałem we wpisie https://www.szymonslowik.pl/pozycjonowanie-stron/ (pod linkiem także odniesienie do wcześniejszego testu na "pozycjonowanie Śląsk"). Zacząłem dokładać trochę linków (11 domen linkujących df na chwilę obecną) i obserwuję wzrosty. Nie łudzę się, że na takie frazy, na które biją się wszystkie większe i mniejsze agencje (W topach Bauer, Whitepress, Tense, czy Eactive) uda się bez linków Nie tym razem. Problem jest jednak inny. Zaczęły mi przeskakiwać strony (widać to na poniższym screenie i też jest opisane w samym artykule). Okazało się, że na 16. pozycji na pozycjonowanie siedzi wpis uprzednio optymalizowany pod wyniki lokalne, zamiast tego, który sobie zaplanowałem. No i teraz, co można zrobić... 1) Artykuły są podlinkowane wewnętrznie z właściwymi anchorami 2) Zdezoptymalizowałem trochę wpis "śląski" zmieniając trochę tytuł 3) Bardzo mocno zastanawiam się nad radykalnym krokiem w postaci: - dołożenia całego contentu z /pozycjonowanie-slask do wpisu /pozycjonowanie-stron - ustawienia canonical (mogę poświęcić frazy lokalne - nie robię na tym biznesu) z /pozycjonowanie-slask na /pozycjonowanie-stron Skoro strony przeskakują w rankingu na najważniejsze frazy (i są stosunkowo wysoko, więc dopasowanie jest imho całkiem niezłe), to myślę, że Google powinien takiego canonicala uznać. Jak sądzicie? Mam za sobą dużo działań z canonicalami w e-commerce, lecz zupełnie inaczej to wygląda przy URL-ach generowanych w nawigacji fasetowej (czy po prostu stosowaniu linków kanonicznych przy różnych wariantach URL), a inaczej przy contencie. Zawsze zastanawia mnie, gdzie jest granica, kiedy Google uzna, że to są zbliżone dokumenty. Jakieś sugestie? Ciekaw jestem Waszych opinii. Canonicala i tak wstawię za parę dni i podzielę się rezultatami. Jakieś prognozy?
  5. Słowo kluczowe w tekście zakotwiczenia wzmacnia pozycjonowanie na tę frazę. Jednak trzeba patrzeć na dwie strony medalu - moc linka oraz jego wiarygodność (oceniana także zawsze w kontekście całego profilu linków). Może być tak, że w pewnym momencie przedobrzysz i zbyt dużo linków ze zoptymalizowanym anchorem będzie prowadziło do Twojej strony docelowej, co może zainteresować pingwina. Jednak nie ma nigdzie jakiejś na stałe ustawionej granicy, ile linków z anchorami jest ok (czy innych czynników - dofollow vs nofollow etc.). To jest zmienne w zależności od słowa kluczowego i otoczenia konkurencyjnego. Są takie nisze, gdzie masz 90% linków dofollow z exact-matchami i jakoś dają radę (możesz przeczytać tutaj case), a są takie, gdzie bardzo łatwo przedobrzyć. Jak napisał @Beerbant - dobrą robotę mogą robić linki z anchorami w postaci URL. Jeśli masz przyjazne adresy, to i tak de facto zawierają główny keyword (przynajmniej powinny), a nie wyglądają tak spamersko jak exacty w większości przypadków.
  6. Z tymi canonicalami to zawsze jest cienka granica - Google może uznać, może nie uznać (co potem widać w Google Search Console w raporcie o stanie indeksu). Im podobniejsza strona, tym lepiej (dobrze by było jakby było dopasowanie np. na poziomie głównego keyworda w tytule no i samej treści).
  7. Jak wyżej. Trzeba wziąć pod uwagę topical authority na poziomie danego URL, jak i całej domeny. Można to zrobić dobrze, a można źle (spowodować kanibalizację, keyword stuffing i parę innych niepożądanych sytuacji). Nie zawsze więcej znaczy też lepiej. Możesz napisać 30k zzs wodolejstwa, które nic nie da. Możesz napisać 30k zzs napchane frazami tak, że Google potraktuje to jako upychanie fraz na siłę. Możesz dokonać analizy tematu, dobrać powiązane frazy (wykorzystać to przy okazji do linkowania wewnętrznego wgłąb serwisu), dobrać częste pytania dotyczące tematu strony głównej i dodać do niej FAQ (wykorzystać Senuto - generator pytań / Ahrefs - Questions / i lub Answerthepublic - sekcję pytania). Warto zajrzeć do raportu zależnych słów kluczowych w Senuto konstruując taki plan. Można też kierować się popular/common words i popular/common phrases (raportu w SurferSEO), dzięki którym zobaczysz jakie hasła są popularne na stronach będących w top10. Diabeł tkwi w szczegółach, jednak w większości przypadków dodanie treści pomaga. Możesz jednak trafić na niszę, gdzie nie przyniesie efektu, bo np. siła konkurentów wynikająca z profilu linków sprawi, że twoje pozycje nawet nie drgną. Mi np. obszerny tekst poparty dobrą analizą contentową pozwolił wbić się na top1 na pozycjonowanie śląsk, pozycjonowanie stron śląsk itp (tutaj). Profil linków (mierzony pobieżnie wskaźnikami Ahrefs) mam słabszy od większości konkurentów. Strona też nie jest jakaś super zoptymalizowana (blog WP / Divi). Robię też test na "pozycjonowanie stron" (tutaj) ale to będzie oczywiście dużo większe wyzwanie (póki co ta pierwsza strona robiona pod lokalne wyniki rankuje na "pozycjonowanie" w okolicach 30. pozycji. Świeża sprawa, więc narazie nie ma co w ogóle wniosków wyciągać. W tych tekstach, zwłaszcza drugim, masz dokładnie opisane, jakie rzeczy wziąłem pod uwagę budując plan contentu. Popatrz na takie Eactive, które siedzi w topach. Mają kolosalną ilość treści na głównej. Jednak główny widok above the fold mają tak skonstruowany, aby leady łapać już na tym etapie. Podejrzewam, że mało kto scrolluje dalej.
  8. Symeon

    Brak title i description w Google

    Zajrzyj do źródła i sprawdź treść znacznika meta robots. Sprawdź też robots.txt. Czasem gdy nie jest zachowania spójność między sygnałami dla robota (linki zewnętrzne, wewnętrzne, kanoniczne, sitemap.xml, dyrektywy dla robotów), może on zindeksować jakiś URL, ale np. nie pobierać części danych.
  9. Symeon

    Masakra

    Zobaczcie jednak, co się dzieje na grupach SEO. Zarówno na SEO/SEM Polska, chyba największej, jak i seowcy, czy TakaBranzaSEO. Oczywiście 90% to wtórne kwestie i spam-ogłoszenia (kupię/sprzedam), ale jednak jakieś dyskusje się pojawiają, ludzie pytają o różne niuanse. Myślę, że po prostu więcej osób siedzi tam, niż tutaj. Po drugie, dzisiaj przecież mamy coraz mniej uniwersalnych recept. Zmienność w Google to jedno. Coraz większe nasycenie oraz różnice między czynnikami i taktykami w poszczególnych branżach powodują, że dyskusja poza bardzo konkretnymi, indywidualnymi przypadkami jest po prostu ciężka (vide podaj domenę / nie mam szklanej kuli na grupach).
  10. Symeon

    Callpage a crawlowanie

    Analizuję stronę korzystającą z CallPage. Crawler trafił na szereg adresów URL z callpage.io: np. https://assets.livecall.io/assets/interest-query(...).mp3 (dający odpowiedź 206) czy też wiele linków do api.callpage.io odpowiadających statusem 403. Czy zwróciliście uwagę na to podczas audytów swoich stron (/stron swoich klientów)? Czy zauważyliście wpływ na pracę robota, crawlowanie, indeksowanie, wydajność, crawl budget?
  11. Cześć. Chcę sprawdzić, czy na stronie następuje dynamiczna podmiana treści w zależności od ustawień (język przeglądarki / lokalizacja / urządzenie?) po stronie user agent. Najprostszy przykład, czy jeśli na jakiejś stronie X.com wyświetla się treść po polsku, czy mogę w łatwy sposób sprawdzić, czy ona została podmieniona dynamicznie? Ok, mogę zmienić ustawienia językowe przeglądarki. Dla mobile mogę zasymulować urządzenie lub po prostu sprawdzić z innego. Lokalizacji nie zasymuluję. Podejrzewam, że to kwestia wejścia w view-source + ctrl+f, ale nie mogę nigdzie znaleźć sugestii w Google, czego mam w kodzie szukać. W sumie nie potrzebuję już tej informacji jakoś bardzo żywotnie, ale wątek wydaje mi się na tyle ciekawy, że warto, aby na PiO się znalazł.
  12. Symeon

    Narzędzie do analizy Keyword Density

    Oni też mocno contentowo działają - Sławek Czajkowski pisze teksty gościnne w szeregu serwisów. 90% wzmianek robi Sławek albo Michał Suski lub Tomek Niezgoda - czyli team SurferSEO. U mnie na blogu też mają wpis gościnny. Zobacz na RD z ahrefsa (załącznik)
  13. Symeon

    Narzędzie do analizy Keyword Density

    Po prostu je polecam, bo zasługuje na popularyzację - korzystam z niego regularnie, więc polecam. Znam je od bardzo wczesnego etapu rozwoju i konsultowałem w nim niektóre rzeczy. Do niedawna było za free. Teraz albo niebawem będzie płatne. Ja tu wszystko pro publico bono, nie mam w nim udziału, nie biorę pieniędzy za jego reklamę
  14. Symeon

    Narzędzie do analizy Keyword Density

    W większości przypadków nie ma sensu sprawdzać keyword density i trzymać się jakichś reguł kolportowanych po konferencjach, że słów kluczowych ma być tyle, czy tyle. Jednak warto patrzeć na benchmarki i dla poszczególnych słów kluczowych sprawdzić, jakie są średnie / trendy np. w top10. Nie ma raczej uniwersalnej rekomendowanej wartości keyword density. Można jedynie patrzeć na benchmarki/standardy w poszczególnych niszach (czyt. dla topów każdego słowa kluczowego osobno) - a i to nie gwarantuje Ci, że obniżenie / podniesienie nasycenia do poziomu średniej z topów cokolwiek zmieni. Do takich analiz porównawczych możesz skorzystać z surferseo.com.
  15. Symeon

    Cześć!

    No dzień dobry
  16. Nie powinno Cię interesować, co pokazuje Majestic, tylko co widzi Google. Wgrałeś w disavow - jest ok, jak tylko Google to przetworzy. To, że linki, których się zrzekłeś pojawiają się w Majestic nie wpływa na SEO. Jak już wspomniano, jeśli zależy Ci po prostu na przejrzystości analityki, to możesz skorzystać z opcji w Ahrefs (ale wtedy będzie to uwzględnione tylko w raportach Ahrefs).
  17. Symeon

    Spadki w Google

    Ten przypadek był tylko pretekstem, aby pokazać (klientom, początkującym), że to czasem jest zabawa w kotka i myszkę i trzeba poszukać w wielu miejscach: linki zewnętrzne i wewnętrzne, technikalia, zmiany w architekturze informacji, title, działania konkurencji, masowe ruchy w Google, sezonowość itd. Do tego trzeba skorzystać z kilku narzędzi - GSC, coś do analizy linków, widoczności, źródeł wiedzy nt. update'ów i analizy innych witryn. To było celem tego tekstu Więc celowo się namachałem wiedząc, że większość tych tropów to ślepe uliczki @SzlafRock Chodziło o to, aby pokazać choćby poglądowo spektrum zagadnień, jak zauważył @jimmi. Zobaczcie sobie jeszcze edytowaną końcówkę artykułu (wyraźnie zaznaczona) - powstał jeszcze jeden wątek dotyczący problemów z serwerem i wydłużonym czasem pobierania strony.
  18. Oj Część z tych osób już praktycznie nie zajmuje się SEO na codzień. Część nie aktualizuje bloga. Jeszcze kto inny zajmuje się sprzedawaniem poradników online typu "Pokażę TOBIE super 5 linków, dzięki którym zdobędziesz TOP1 w Google". Ojoj, słabo.
  19. Symeon

    Liczba podstron - gdzie sprawdzić

    J.w. - większość tego typu stron ma ograniczenia ilościowe. Wiele zależy od tego jaka jest struktura strony, linkowanie wewnętrzne. Crawlery np. będą miały problem ze złapaniem tzw. orphan pages, jakichś landingów, które nie są podlinkowane z innych stron. Sprawdź sobie Meta Forensics (wymagane logowanie).
  20. Symeon

    Jak poprawić seo zdjęć

    Jak wyżej + staraj się trzymać tego, co na pierwszy rzut oka widzę jest przestrzegane, aby nie wrzucać zbyt dużych plików. Możesz też sobie otworzyć jakiś crawler (np. ściągnąć screaming frog, który ogarnia do 500 URL za free) i zobaczyć listę grafik z uwagami do poprawy. Wylistuje Ci np. grafiki, które są zbyt duże lub brakuje im altów etc.
  21. Symeon

    Wektor + h1 jako logo?

    Pytanie, czy chcesz zrobić tak żeby było OK (w sensie Google się nie doczepił), czy tak, aby poprawić optymalizację strony? Zarówno z perspektywy SEO, jak i doświadczeń użytkownika (który ląduje na danej stronie i często w ciągu 2-3 sekund podejmuje decyzję, czy zostaje, czy idzie dalej) wskazane jest, aby blisko wierzchołka strony pojawił się nagłówek tekstowy informujący, o czym jest dana podstrona. Do tego idealnie nadaje się H1 - na każdej podstronie inne, zawierające zwięzła informację o treści i funkcji strony (siłą rzeczy znajdą się tu słowa kluczowe, frazy istotne z perspektywy widoczności w wyszukiwarce). Ma to znaczenie zwłaszcza w przypadku większych serwisów, sklepów internetowych, stron z rozbudowaną ofertą, gdzie niemal każda podstrona może stanowić landing dla ruchu z Google. Sugerowałbym także, aby nie był kopią 1:1 tytułu strony (chyba, że masz konstrukcję {nazwa podstrony} - {nazwa serwisu}, to siłą rzeczy ta końcówka będzie stanowiła różnicę). W przypadku tekstowego H1 masz także możliwość większego testowania słów kluczowych w przypadku stron, które można pod różne synonimy optymalizować. Wiele zależy od branży i konkurencji w serpach.
  22. Pamiętajmy też, że teoretycznie UX powinno służyć CRO, ale to nie to samo i można sobie wyobrazić szereg przypadków, których podnosimy konwersje pogarszając UX. A jeśli ktoś ma problem z rozróżnianiem UX i usability to odsyłam do ostatniego numeru (od tygodnia w sklepach) magazynu Marketer+ w którym w ramach cyklu tematycznego pojawił się nasz 3 artykuł o audytach - tym razem właśnie o użyteczności i User Experience, badaniach, audytach, metodyce etc. Enjoy
  23. OK, to pozwolę sobie dorzucić 3 grosze, bo w firmie zajmujemy się tematyką usability profesjonalnie - tj. siedzimy trochę w tej metodyce, środowisku. Nie dorobiliśmy na siłę UX do oferty SEO (bo fajniej się sprzedaje) tylko połączyliśmy kompetencje z osobą, która jest specjalistą UX. Lista Tomka nie jest moim zdaniem zła. Tylko brakuje jasno określonych zasad postępowania i interpretacji. Pomijam kwestię samego sklepu - czy jest "zoptymalizowany" czy nie (teoretycznie w UX nie ma czegoś takiego jak "zoptymalizowany" sklep). Weźmy na tapetę chociażby kwestię wideo. Czy jest wartością dodaną dla użytkownika? W większości przypadków pewnie zdecydowanie tak. Czy brak wideo na stronie produktu jest błędem? Zdecydowanie nie. Audyt UX skupiać się powinien na obecności kluczowych elementów, które warunkują funkcjonalność serwisu - tj. czy da się w nim wykonać określone zadania, do których został powołany (np. zakup produktu) w sposób intuicyjny, zgodny z oczekiwaniami użytkownika. Powinien sprawdzać, czy nie ma w sklepie elementów, które mogą frustrować użytkownika, powodować jego zagubienie, poczucie, że nie wie, co ma dalej zrobić. No i tu dochodzimy poniekąd do clou sprawy. Usability badane w ujęciu statycznym na podstawie listy kontrolnej, to tylko wstęp pozwalający stwierdzić, czy nie popełniono kluczowych błędów (wyszukiwarka wewnętrzna pomijająca ważne wyniki, treści opisowe bez odwróconej piramidy, niekonsekwentne kryteria w nawigacji, kasowanie się formularzy, brak walidacji etc.). Audyt ekspercki (czyli przeprowadzany przez samego eksperta UX, a nie badania realizowane w oparciu o scenariusze z użytkownikami) musi dążyć do odtworzenia ujęcia dynamicznego. W tym celu się robi analizę metodą wędrówki poznawczej. Aby takie badanie miało sens potrzebny jest bardzo świadomy audytor, który potrafi absolutnie zminimalizować rolę "własnej opinii", bo audyt nie może być opinią. Docelowo należy dążyć do badań z użytkownikami (zdalnymi, masowymi -np. hotjar, czy też badaniami z 4-5 userami realizującymi scenariusze na miejscu pod okiem badacza UX). Poprawa użyteczności sklepu musi obejmować aspekt dynamiczny, ponieważ ważny jest nie tylko odpowiedni układ poszczególnych widoków (vide karta produktu) i obecność poszczególnych elementów, ale przede wszystkim sposób ich połączenia i prowadzenia użytkownika od punktu lądowania w serwisie (w dowolnym niemal miejscu) do punktu konwersji. Przy tym użyteczny serwis to taki, który uwzględnia TOTALNIE NIERACJONALNE z naszego punktu widzenia zachowania użytkowników. Analizy godzin nagrań sesji użytkowników dają do myślenia i uczą pokory w zakresie projektowania. Koniec końców ważne, aby to dla użytkowników serwis był użyteczny, a nie dla projektanta. Polecam taki krótki case: http://ux.marszalkowski.org/dlaczego-czas-jest-tak-istotny-dla-ux/ Na koniec podkreślę, że potępianie listy Xanna od A do Z nie ma sensu. Jest tam wiele istotnych przesłanek, które można wykorzystać np. dla stworzenia bardziej sensownego widoku produktu. Z drugiej strony należy do listy podejść z dystansem, ponieważ istnieje uzasadnione podejrzenie, że jest stosowana bez odpowiedniej metodyki UX (chociaż może się mylę, kto wie) i towarzyszących badań. UX to nie bounce rate w analyticsie albo ładny layout lub lista funkcji. To dość rozbudowana dziedzina z historią i wypracowanymi metodami badawczymi. Wspomniany Nielsen absolutnie nie odszedł do lamusa, chociaż wyciągnięcie z niego tylko podstaw opracowanych dość dawno temu, bez znajomości metodyki, może prowadzić do niezbyt skutecznych działań.
  24. Efektem audytu jest raport A co potem się z tym zrobi to już druga kwestia. Brać odpowiedzialność za efekty można tylko wtedy, gdy ma się pełne pole do działania w zakresie optymalizacji - nie tylko technicznej, ale i w obrębie treści i struktury. A to rzadko się zdarza