Symeon

Forumowicze
  • Content Count

    103
  • Joined

  • Last visited

Everything posted by Symeon

  1. Symeon

    Niezaindeksowane podstrony

    Przejdźcie sobie po kolei po poszczególnych statusach. W niektórych przypadkach (duplikaty / brak canonicali) strony po prostu pozostaną wykluczone. Tam gdzie jest 404 to chyba sytuacja jest jasna. W innych macie status Pobrano, ale jeszcze nie zindeksowano... No cóż, dzięki Google za cynk Niewiele się da z tym zrobić poza wzmocnieniem autorytetu strony "w oczach Google" czyli poprawą contentu i przede wszystkiem pozyskiwaniem jakościowych linków przekazujących link juice i ściągających googlebota. Innymi słowy - zacznijcie efektywnie pozycjonować serwis, to przyspieszy jego crawlowanie/indeksowanie. Można jeszcze sprawdzić czy przypadkiem nie występują jakieś problemy w linkowaniu wewnętrznym (np. źle wdrożony lazy load na stronach kategorii, który nie wpuszcza googlebota na część stron produktowych). Generalnie zadbajcie o higienę i konsekwencję w zakresie: linków kanonicznych unikalności treści (title, nazwa produktu / tekst na stronie kategorii) linkowania wewnętrznego (wszystkie linki w HTML w DOM) meta robots sitemap.xml (zgłosić z listą URL, które odpowiadają statusem 200, są kanoniczne) Plus zadbajcie o wydajność. Googlebot może po prostu was nieefektywnie crawlować. Można by było sprawdzić logi serwera i zobaczyć, czy bot w ogóle odwiedza te URL sam z siebie. A reszta to podnoszenie jakości serwisu. Google ma ostatnio duże lagi i wszyscy to odczuwamy, gdy trzeba coś przeindeksować. Najgorzej mają mniej istotne (z perspektywy ich użytkownika; czyli mniej zaufane, gorzej wypromowane w sieci) serwisy, które Google odwiedza rzadko i tylko na chwilę (crawl budget).
  2. Symeon

    Wiek domeny

    Pamiętam wypowiedź któregoś z googlersów (możliwe, ze John na YT Google Webmasters), że generalnie wstawianie zaślepek w stylu "Strona w budowie" itp. jest bardzo krytycznie odbierane przez Googlebota. Oczyszczając to z jakiejkolwiek filozofii - strona bez treści, to strona bez wartości. Zadajesz pytanie odnosząc się do abstrakcyjnego pojęcia "dojrzałość". Postaraj się patrzeć na to bardziej mechanicznie. Czy prowadzą tam jakieś odnośniki? Nie da się zerojedynkowo odpowiedzieć na Twoje pytanie, ale generalnie: starsza domena = lepsza domena domena, na której coś wisi (jakiś indeksowalny content) jest lepsza od domeny "under construction" itp. domena, do której prowadzą stare linki jest lepsza od domeny czystej (o ile to nie spam) Najlepszym scenariuszem jest stara domena, na której istnieje indeksowalny content, najlepiej jeszcze okresowo odświeżany (duży trust + duża aktualność / użyteczność), do której prowadzą stare linki z zaufanych witryn. Może zainteresować Cię ta prezka Roberta Niechciała z SEMKRK o roli czasu w linkowaniu - to też finalnie ma wpływ na potencjał domeny: I prezka:
  3. Symeon

    Błędy w Google Search

    Dokładnie. Sekwencja wyglądać może następująco: 1) Usunąłeś noindex 2) Wysłałeś robota do URL, które wcześniej miały noindex 3) Googlebot trafił na stronę i przeczytał jej nowy kod (bez noindex) 4) Przetwarza zebrane dane (czas leci) 5) Strona wraca do indeksu (możesz sprawdzić za pomocą site:URL w wyszukiwarce, czy jest w indeksie) 6) W GSC dalej istnieje informacja, że URL jest poza indeksem ze względu na tag meta robots noindex 7) Po paru tygodniach status URL w GSC zmienia się na "Prawidłowy" Jeśli strona jest w indeksie (pkt 5), to nie masz co się przejmować statusem w GSC. Stany przedstawiane w raporcie Search Console pozwalają diagnozować część błędów, wyłapywać nieprawidłowości, lecz często są dalekie od aktualnej sytuacji i często po prostu mają laga... Inną sprawą jest to, że indeks Google w ogóle dużo wolniej teraz mieli i trzeba czekać także na realne zmiany dłużej niż kiedyś.
  4. Symeon

    profesjonalny landingpage

    A może to strona robiona przez dzieciaka w ramach kółka informatycznego dla gabinetu rodziców ;P Pytanie, czy to rzeczywiście gdzieś wisi w sieci? Czy tylko jako obrazek lata?
  5. Symeon

    Produkt w kilku kategoriach czy w jednej?

    Produkt może być przypisany do wielu kategorii. To w wielu przypadkach całkiem logiczne rozwiązanie. Trzeba tylko wtedy brać pod uwagę wszystkie okoliczności. 1) W przypadku rozwiązania "sklep.pl/kategoria/produkt" pojawi się wiele stron o dokładnie tej samej treści - pojawia się wewnętrzna duplikacja, z którą Google będzie walczył. Przykładowo: sklep.pl/kategoria1/produkt1 sklep.pl/kategoria2/produkt1 sklep.pl/kategoria3/produkt1 itd.... Co do zasady Google dąży do tego, aby w przypadku występowania duplikatów, w indeksie finalnie znalazł się tylko 1 URL z daną treścią z twojej domeny. Najlepiej mu to ułatwić odpowiednio zarządzając linkami kanonicznymi. Jednocześnie warto uwzględnić, aby w sitemapie znajdowały się tylko URL kanoniczne (a ich odmiany/duplikaty już nie). Tu masz link do supportu Googla, gdzie jest to opisane: https://support.google.com/webmasters/answer/139066?hl=pl W takim scenariuszu także trochę trudniej zarządzać przepływem link juice. Niemniej, jak w podanym przez Ciebie przykładzie, można tworzyć więcej stron docelowych, do których będzie przypisanych przynajmniej po kilka-kilkanaście produktów, które będą stanowiły dodatkowe landing page dla ruchu z Google dzięki targetowaniu dodatkowych fraz. 2) W przypadku układu 1 produkt - 1 kategoria, tych problemów nie ma, ponieważ każdy URL ma swój unikalny content. --- Jeszcze a propos tego: To też możesz ograć za pomocą menu okruszkowego. Możesz też pomyśleć o widgecie, który na stronie produktu będzie linkował do powiązanych kategorii (możesz je wybierać ręcznie lub zaprojektować jakąś regułę). Chociaż zwykle tego typu linkowanie wewnętrzne zwykle prowadzi do powiązanych produktów, a link do strony kategorii umieszczony jest we wspomnianych okruszkach (breadcrumbs).
  6. Symeon

    Callpage a crawlowanie

    Analizuję stronę korzystającą z CallPage. Crawler trafił na szereg adresów URL z callpage.io: np. https://assets.livecall.io/assets/interest-query(...).mp3 (dający odpowiedź 206) czy też wiele linków do api.callpage.io odpowiadających statusem 403. Czy zwróciliście uwagę na to podczas audytów swoich stron (/stron swoich klientów)? Czy zauważyliście wpływ na pracę robota, crawlowanie, indeksowanie, wydajność, crawl budget?
  7. Symeon

    Struktura adresów URL

    Powiedziałbym, że keyword w URL robi robotę, jeśli: jest spójny z innymi kluczowymi elementami optymalizacji pod słowo kluczowe (title, H1, anchory linków wewnętrznych, copy) linkujesz do danej strony z URL w anchorze, bo w "naturalny" sposób przemycasz do tekstu zakotwiczenia sygnał związany z frazą Gdy u siebie na Takaoto zmieniłem URL-e stron kategorii (niedługo w ogóle strony kategorii przerobię, aby były właściwymi stronami docelowymi dla ruchu z organika, ale to inna kwestia), to zaczęły one rankować na interesujące mnie frazy. Efekt lepszy niż przy samej optymalizacji title.
  8. Nie ma co szukać uniwersalnego poziomu. Ja bym nie przebijał tego, co jest średnią dla danej frazy w top10. W każdej branży ten poziom może być inny. Tu dokładnie opisałem case (https://www.szymonslowik.pl/linki-kary-anchor-text/) branży, gdzie exacty to nieraz 90% profilu linków, a domeny siedzą stabilnie w topach. Oczywiście sytuacja dość wyjątkowa, ale wystarczająca, aby wykazać, że żadnego uniwersalnego poziomu nie ma.
  9. Symeon

    SEO Barcamp Katowice - 8.02.2019

    Zapowiada się nieźle. Chyba wpadnę.
  10. Symeon

    Badanie Link Building w Polsce 2018 - ankieta

    Ale to się logicznie nie trzyma kupy. Po co pytać o link building osoby, które nie robią link buildingu?
  11. Przy tym trzeba by było sprawdzić, czy przypadkiem równolegle do ruchu z SM (organic czy PPC - nieistotne) nie rośnie ruch brandowy, direct, nie rosną CTR w organiku (bo ludzie zaczynają kojarzyć markę, domenę). Tu raczej bym upatrywał wpływu, bo to jest środowisko, które Google może efektywnie analizować i na którym może bazować.
  12. Symeon

    Struktura adresów URL

    Same z siebie nie wpływają negatywnie. W większości przypadków to raczej kwestia niewykorzystania potencjału jak pisał @MaxPan. Oczywiście mówimy o sytuacji, w której ciągi znaków w adresie URL są logicznie dopasowane do zawartości. Unikałbym sytuacji (spotkałem się przy niektórych wdrożeniach), w której np. w URL są polskie słowa (polskie nazwy produktów / kategorii), a strona jest w wersji anglojęzycznym (przełączanym np. po parametrze w URL zamiast po całym osobnym statycznym URL). Są to jednak przypadki niepoprawnych wdrożeń. Generalnie przede wszystkim chodzi o to, aby informacja przekazywana w URL (keyword) była spójna z informacją przekazywaną w treści, H1, title... I jeszcze jedno. Przepraszam, że w kolejnym komentarzu. Jak też zauważył MaxPan trzeba pamiętać o kwestii duplikacji. Jeśli masz np. w URL /nazwa-kategorii/ i dany produkt przypisany do wielu kategorii, to będziesz miał wewnętrzną duplikację (tak jest w Shoplo, chociaż tam canonicale to załatwiają po części problem). Powstaną wtedy adresy domena.pl/kategoria1/produkt1 oraz domena.pl/kategoria2/produkt1 a będą miały dokładnie tę samą zawartość. Warto się nad tym zastanowić przed zdefiniowaniem formy adresów URL.
  13. Pewnie tak, bo moja strona i strona eactive mają trochę inne funkcje i mamy inne modele biznesowe (póki co). Jednak zawsze należy pamiętać, że analizować należy zależność URL - słowo kluczowe. Jeśli dodajesz dużo treści na stronie głównej to w celu optymalizacji tegoż URL pod określone frazy. Ma to w wielu przypadkach sens, ponieważ strona główna zazwyczaj skupia najwyższy page rank (za sprawą linkowania wewnętrznego i zewnętrznego). Pisałeś pewnie o stronie mojego bloga osobistego - www.szymonslowik.pl. Teraz robię też test bardzo spójny z opisaną przez Ciebie kwestią - przerzuciłem na stronę główną https://takaoto.pro dużą część treści ze strony, która wyskakiwała stosunkowo wysoko na frazy związane z pozycjonowaniem ( https://takaoto.pro/pozycjonowanie-porady-case-study/ ). Jednocześnie ustawiłem z tej podstrony canonical na główną. Analiza danych ze stanu indeksu w GSC pokazuje, że Google zażarło canonicala: Nie przełożyło się to (mimo zmiany title strony głównej) na efektywne przetasowanie w SERP-ach, ale dam temu jeszcze trochę czasu Zachęcam do monitorowania. Już widać, że coś tam zaczyna żreć chociaż ciężko mówić o jakiejś stabilnej sytuacji i jednoznacznych wnioskach
  14. Symeon

    WP zamyka katalog.wp.pl

    Opcje na subdomenę pewnie pozakładane ;P Niemniej wątpię żeby WP ją puściło
  15. Robię od jakichś 2-3 miesięcy testy, na ile, na niezbyt dobrze zoptymalizowanej pod względem wydajności stronie o średnim profilu linków (69 domen linkujących df), da się mocną optymalizacją contentu (duży nacisk na frazy zależne i benchmarki z top10 / top50, a także zapytania konwersacyjne) budować widoczność i pozycje. Pierwszy eksperyment dotyczył frazy "pozycjonowanie śląsk" i pokrewnych. Zakończony bdb rezultatem, tj, wbiciem się na praktycznie wszystkie lokalne frazy na top1 (screen): W komentarzach pojawiły się uwagi, że to mimo wszystko siła linków zadziałała. Trudno tu wyizolować czynnik linków lub czynnik optymalizacji contentu. W związku z tym postanowiłem pójść po grubsze frazy, czyli "pozycjonowanie stron", "pozycjonowanie", "pozycjonowanie stron www" itp. No i udało mi się do pułapu top20 wbić korzystając z podobnej strategii optymalizacji (z wykorzystaniem Senuto / SurferSEO / Answerthepublic / Ahrefs keywords explorer). Zresztą dokładnie to opisałem we wpisie https://www.szymonslowik.pl/pozycjonowanie-stron/ (pod linkiem także odniesienie do wcześniejszego testu na "pozycjonowanie Śląsk"). Zacząłem dokładać trochę linków (11 domen linkujących df na chwilę obecną) i obserwuję wzrosty. Nie łudzę się, że na takie frazy, na które biją się wszystkie większe i mniejsze agencje (W topach Bauer, Whitepress, Tense, czy Eactive) uda się bez linków Nie tym razem. Problem jest jednak inny. Zaczęły mi przeskakiwać strony (widać to na poniższym screenie i też jest opisane w samym artykule). Okazało się, że na 16. pozycji na pozycjonowanie siedzi wpis uprzednio optymalizowany pod wyniki lokalne, zamiast tego, który sobie zaplanowałem. No i teraz, co można zrobić... 1) Artykuły są podlinkowane wewnętrznie z właściwymi anchorami 2) Zdezoptymalizowałem trochę wpis "śląski" zmieniając trochę tytuł 3) Bardzo mocno zastanawiam się nad radykalnym krokiem w postaci: - dołożenia całego contentu z /pozycjonowanie-slask do wpisu /pozycjonowanie-stron - ustawienia canonical (mogę poświęcić frazy lokalne - nie robię na tym biznesu) z /pozycjonowanie-slask na /pozycjonowanie-stron Skoro strony przeskakują w rankingu na najważniejsze frazy (i są stosunkowo wysoko, więc dopasowanie jest imho całkiem niezłe), to myślę, że Google powinien takiego canonicala uznać. Jak sądzicie? Mam za sobą dużo działań z canonicalami w e-commerce, lecz zupełnie inaczej to wygląda przy URL-ach generowanych w nawigacji fasetowej (czy po prostu stosowaniu linków kanonicznych przy różnych wariantach URL), a inaczej przy contencie. Zawsze zastanawia mnie, gdzie jest granica, kiedy Google uzna, że to są zbliżone dokumenty. Jakieś sugestie? Ciekaw jestem Waszych opinii. Canonicala i tak wstawię za parę dni i podzielę się rezultatami. Jakieś prognozy?
  16. Słowo kluczowe w tekście zakotwiczenia wzmacnia pozycjonowanie na tę frazę. Jednak trzeba patrzeć na dwie strony medalu - moc linka oraz jego wiarygodność (oceniana także zawsze w kontekście całego profilu linków). Może być tak, że w pewnym momencie przedobrzysz i zbyt dużo linków ze zoptymalizowanym anchorem będzie prowadziło do Twojej strony docelowej, co może zainteresować pingwina. Jednak nie ma nigdzie jakiejś na stałe ustawionej granicy, ile linków z anchorami jest ok (czy innych czynników - dofollow vs nofollow etc.). To jest zmienne w zależności od słowa kluczowego i otoczenia konkurencyjnego. Są takie nisze, gdzie masz 90% linków dofollow z exact-matchami i jakoś dają radę (możesz przeczytać tutaj case), a są takie, gdzie bardzo łatwo przedobrzyć. Jak napisał @Beerbant - dobrą robotę mogą robić linki z anchorami w postaci URL. Jeśli masz przyjazne adresy, to i tak de facto zawierają główny keyword (przynajmniej powinny), a nie wyglądają tak spamersko jak exacty w większości przypadków.
  17. Symeon

    no index czy redirect 301

    Z tymi canonicalami to zawsze jest cienka granica - Google może uznać, może nie uznać (co potem widać w Google Search Console w raporcie o stanie indeksu). Im podobniejsza strona, tym lepiej (dobrze by było jakby było dopasowanie np. na poziomie głównego keyworda w tytule no i samej treści).
  18. Jak wyżej. Trzeba wziąć pod uwagę topical authority na poziomie danego URL, jak i całej domeny. Można to zrobić dobrze, a można źle (spowodować kanibalizację, keyword stuffing i parę innych niepożądanych sytuacji). Nie zawsze więcej znaczy też lepiej. Możesz napisać 30k zzs wodolejstwa, które nic nie da. Możesz napisać 30k zzs napchane frazami tak, że Google potraktuje to jako upychanie fraz na siłę. Możesz dokonać analizy tematu, dobrać powiązane frazy (wykorzystać to przy okazji do linkowania wewnętrznego wgłąb serwisu), dobrać częste pytania dotyczące tematu strony głównej i dodać do niej FAQ (wykorzystać Senuto - generator pytań / Ahrefs - Questions / i lub Answerthepublic - sekcję pytania). Warto zajrzeć do raportu zależnych słów kluczowych w Senuto konstruując taki plan. Można też kierować się popular/common words i popular/common phrases (raportu w SurferSEO), dzięki którym zobaczysz jakie hasła są popularne na stronach będących w top10. Diabeł tkwi w szczegółach, jednak w większości przypadków dodanie treści pomaga. Możesz jednak trafić na niszę, gdzie nie przyniesie efektu, bo np. siła konkurentów wynikająca z profilu linków sprawi, że twoje pozycje nawet nie drgną. Mi np. obszerny tekst poparty dobrą analizą contentową pozwolił wbić się na top1 na pozycjonowanie śląsk, pozycjonowanie stron śląsk itp (tutaj). Profil linków (mierzony pobieżnie wskaźnikami Ahrefs) mam słabszy od większości konkurentów. Strona też nie jest jakaś super zoptymalizowana (blog WP / Divi). Robię też test na "pozycjonowanie stron" (tutaj) ale to będzie oczywiście dużo większe wyzwanie (póki co ta pierwsza strona robiona pod lokalne wyniki rankuje na "pozycjonowanie" w okolicach 30. pozycji. Świeża sprawa, więc narazie nie ma co w ogóle wniosków wyciągać. W tych tekstach, zwłaszcza drugim, masz dokładnie opisane, jakie rzeczy wziąłem pod uwagę budując plan contentu. Popatrz na takie Eactive, które siedzi w topach. Mają kolosalną ilość treści na głównej. Jednak główny widok above the fold mają tak skonstruowany, aby leady łapać już na tym etapie. Podejrzewam, że mało kto scrolluje dalej.
  19. Symeon

    Brak title i description w Google

    Zajrzyj do źródła i sprawdź treść znacznika meta robots. Sprawdź też robots.txt. Czasem gdy nie jest zachowania spójność między sygnałami dla robota (linki zewnętrzne, wewnętrzne, kanoniczne, sitemap.xml, dyrektywy dla robotów), może on zindeksować jakiś URL, ale np. nie pobierać części danych.
  20. Symeon

    Masakra

    Zobaczcie jednak, co się dzieje na grupach SEO. Zarówno na SEO/SEM Polska, chyba największej, jak i seowcy, czy TakaBranzaSEO. Oczywiście 90% to wtórne kwestie i spam-ogłoszenia (kupię/sprzedam), ale jednak jakieś dyskusje się pojawiają, ludzie pytają o różne niuanse. Myślę, że po prostu więcej osób siedzi tam, niż tutaj. Po drugie, dzisiaj przecież mamy coraz mniej uniwersalnych recept. Zmienność w Google to jedno. Coraz większe nasycenie oraz różnice między czynnikami i taktykami w poszczególnych branżach powodują, że dyskusja poza bardzo konkretnymi, indywidualnymi przypadkami jest po prostu ciężka (vide podaj domenę / nie mam szklanej kuli na grupach).
  21. Symeon

    Bóg jest jeden

  22. Cześć. Chcę sprawdzić, czy na stronie następuje dynamiczna podmiana treści w zależności od ustawień (język przeglądarki / lokalizacja / urządzenie?) po stronie user agent. Najprostszy przykład, czy jeśli na jakiejś stronie X.com wyświetla się treść po polsku, czy mogę w łatwy sposób sprawdzić, czy ona została podmieniona dynamicznie? Ok, mogę zmienić ustawienia językowe przeglądarki. Dla mobile mogę zasymulować urządzenie lub po prostu sprawdzić z innego. Lokalizacji nie zasymuluję. Podejrzewam, że to kwestia wejścia w view-source + ctrl+f, ale nie mogę nigdzie znaleźć sugestii w Google, czego mam w kodzie szukać. W sumie nie potrzebuję już tej informacji jakoś bardzo żywotnie, ale wątek wydaje mi się na tyle ciekawy, że warto, aby na PiO się znalazł.
  23. Symeon

    Narzędzie do analizy Keyword Density

    Oni też mocno contentowo działają - Sławek Czajkowski pisze teksty gościnne w szeregu serwisów. 90% wzmianek robi Sławek albo Michał Suski lub Tomek Niezgoda - czyli team SurferSEO. U mnie na blogu też mają wpis gościnny. Zobacz na RD z ahrefsa (załącznik)
  24. Symeon

    Narzędzie do analizy Keyword Density

    Po prostu je polecam, bo zasługuje na popularyzację - korzystam z niego regularnie, więc polecam. Znam je od bardzo wczesnego etapu rozwoju i konsultowałem w nim niektóre rzeczy. Do niedawna było za free. Teraz albo niebawem będzie płatne. Ja tu wszystko pro publico bono, nie mam w nim udziału, nie biorę pieniędzy za jego reklamę
  25. Symeon

    Narzędzie do analizy Keyword Density

    W większości przypadków nie ma sensu sprawdzać keyword density i trzymać się jakichś reguł kolportowanych po konferencjach, że słów kluczowych ma być tyle, czy tyle. Jednak warto patrzeć na benchmarki i dla poszczególnych słów kluczowych sprawdzić, jakie są średnie / trendy np. w top10. Nie ma raczej uniwersalnej rekomendowanej wartości keyword density. Można jedynie patrzeć na benchmarki/standardy w poszczególnych niszach (czyt. dla topów każdego słowa kluczowego osobno) - a i to nie gwarantuje Ci, że obniżenie / podniesienie nasycenia do poziomu średniej z topów cokolwiek zmieni. Do takich analiz porównawczych możesz skorzystać z surferseo.com.