Jump to content

Paq

Forumowicze
  • Content Count

    1,609
  • Joined

  • Last visited

  • Days Won

    23

Paq last won the day on March 13

Paq had the most liked content!

Community Reputation

498 Excellent

About Paq

  • Birthday 05/01/1990

Contact Methods

  • Website URL
    http://paq-studio.com

Profile Information

  • Gender
    Male
  • Location
    Koszalin

Recent Profile Visitors

11,657 profile views
  1. Usunąć i 301 na właściwą stronę główną.
  2. Tak, noindex w meta tagu wystarczy i takie rozwiązanie może zostać.
  3. Myślę, że nie bardzo rozumiesz mechaniki, tj. co z czego wynika. Nie wiem, co ma zablokowanie przez robots.txt wpisu, którego fragment wyświetla się na stronie głównej. Skoro masz taki problem, że na stronie głównej wyświetla Ci się cała zawartość ostatnio opublikowanego wpisu, to powinieneś zrobić tak: https://www.youtube.com/watch?v=8TbAdvGMQxA No chyba, że to działanie celowe, tj. chcesz wyświetlać zawartość całego wpisu na stronie głównej, a nie chcesz indeksować go pod właściwym URL'em (co jednak wydaje się kuriozalnym pomysłem), to wtedy do zablokowania robota wykorzystaj noindex w meta tagu, bo przypominam, że robots.txt nie rozwiązuje duplikacji wewnętrznej: https://paq-studio.com/blog/czy-robots-txt-rozwiazuje-problem-duplikacji-wewnetrznej/ - wrzucam link, bo cały czas ten temat cały czas wraca.
  4. 1. To, co jest po kotwicy (#) nie jest indeksowalne dla robota tak długo, jak po kotwicy (#) nie występuje wykrzyknik (!) Czyli taka składnia: /strona-główna/kategoria/nazwa-produktu#121-rozmiar-040_x_10_mm nie jest indeksowalna i problem w kontekście SEO nie istnieje ale taka: strona-główna/kategoria/nazwa-produktu#!121-rozmiar-040_x_10_mm już może być indeksowana i (jeśli źle użyta), będzie generowała duplikację. Oczywiście ekspozycja kotwic (#) w URL'ach dla kombinacji produktowych w sklepie to wątpliwa praktyka UX'owa (bo umówmy się, taki URL wygląda, jak krzak), ale tylko tyle. Nie masz się czym martwić, nic nie musisz blokować i wycinać. Słabo wygląda, ale to tyle. Kotwice (#) powstały pierwotnie, jako mechanika do scrollowania stron (np. co typowe - na landing page'ach) do 1. dzielenia się fragmentami treści i/lub 2. scrollowania obrazu w browserze. 2. Jeszcze podpowiem, że gdybyś kiedyś chciał stosować canonicala do eliminowania duplikacji wewnętrznej, to pamiętaj tylko, że jest to dyrektywa warunkowa i czasami różne śmieci i tak latają po SERP'ie. Nie mówię,, żeby z canonicala nie korzystać, ale mieć do niego ograniczone zaufanie. A jeszcze a propos pomysłów @Przemoo to wyprostuję, że: Blokada w robota.txt jest zalecana. Nie ma sensu żeby robot miał dostęp do bezwartosciowych dla niego stron. Robots.txt nie rozwiązuje problemów z duplikacją wewnętrzną. Robots.txt ukrywa wybrane zasoby (które określisz w pliku) w wyniku organicznym, ale nadal je crawluje, a co za tym idzie - uwzględnia w budowie autorytetu domeny. Oznacza to, że jak będziesz miał duplikację wewnętrzną, to może nie zobaczysz jej w SERP'ie, ale i tak będzie obciążała Ci domenę. Z niewiadomego powodu robots.txt jest błędnie wykorzystywany jako substytut noindex'u w meta tagu, a tylko ten drugi doprawdy chroni przez duplikacją. Możesz sobie uzupełniająco poczytać mój art.: Czy robots.txt rozwiązuje problem duplikacji wewnętrznej? tutaj https://paq-studio.com/blog/czy-robots-txt-rozwiazuje-problem-duplikacji-wewnetrznej/
  5. 1. Nofollow na pewno poprawia indeksację zawartości, tj. robot przechodzi po nim, jak po każdym innym, a jako, że linki nofollow łatwo się pozyskuje, to jest to rzecz jasna jakaś wartość dodana. 2. Nofollow nie przenosi mocy z samego anchor tekstu. 3. Czy nofollow przekazuje szeroko pojęty autorytet? Zdania są podzielone. IMO niespecjalnie, a nawet jeśli, to mocno zubożały w porównaniu do dofollow.
  6. Usuwasz produkt i robisz 301 ręcznie np. takim modułem https://addons.prestashop.com/pl/url-przekierowania/11399-url-redirects-301-302-303-and-404-seo.html Więcej info o usuwaniu produktów w sklepach internetowych (3 scenariusze) masz tutaj (też o Prestashop): https://youtu.be/PzWtubi3beY
  7. Tzn. Panowie - żeby była jasność - współczynnik odrzuceń w kontekście SEO jest liczony tylko jeśli chodzi o zachowania wokół SERP'ów. Czyli nikt nie liczy współczynnika odrzuceń liczonego z direct'a, social mediów, ruchu z ads'ów itd., więc zakup ruchu mobilnego, jaki pochodzi z jakichś banerów, w które klika ją dzieci, w niczym nie szkodzi dla pozycji. Czyli w mega uproszczeniu BR w SEO jest analizowany w takim kontekście: 1. Wbijam z organika na coś, porzucam to. 2. Wracam do organika. 3. Wbijam z organika na coś, zostaję tutaj (i tutaj sesja się kończy, tj. kończy się np. zamknięciem okna przeglądarki, przejściem po jakimś refferal'u dalej itd.). Oczywiście jest to przeliczane przy odpowiedniej skali i osadzone w wybranych kontekstach (współczynnik odrzuceń, a co za tym idzie - zdarzenia behawioralne w zapytaniach encyklopedycznych są inne niż w zapytaniach np. o produkty w e-commerce). Czym innym jest współczynnik odrzuceń w kontekście analityki webowej (i tak np. wejście na Wiki i zamknięcie karty przeglądarki będzie odnotowane w Analytics jako porzucenie w kontekście analityki webowej, ale nie w kontekście SEO, a to często jest ze sobą mylone).
  8. Dane podawane przez ich oficjalne narzędzia nigdy nie są reprezentatywne, więc tak - GSC podane niepełne informacje. W przypadku linków mają jakąś 2-, 3-miesięczną obsuwę w porównaniu do rzeczywistych danych, na jakich pracują ich crawlery (ile dokładnie jest to w tej chwili to nie wiem, bo nie robię audytów linków w oparciu o dane z GSC - z powodu, o którym pisałem zresztą wcześniej).
  9. Sprawdź sam: site:tutajadresurl.pl. Skąd my moglibyśmy to wiedzieć Jeśli masz WP i artykuły są pingowane, to może i wszedł.
  10. To, czy artykuł jest długi, czy długi nie jest determinantem tego, czy w SERP'ach te gwiazdki się wyświetlą, czy też nie. Dane strukturalne są elementami warunkowymi - mogą być wyświetlone w organiku, ale nie muszą Tutaj zasada jest podobna, jak w przypadku np. meta title i description - one też są warunkowe (rzecz jasna nie są danymi strukturalnymi, ale mówię o samym mechanizmie); jeśli algorytm uzna, że odpowiadają podstronie, jakiej dotyczą, to zostaną wyświetlone (jeśli nie, to wyświetlony zostanie wybrany fragment tekstu z kodu źródłowego) Jeśli gwiazdki są wyświetlane w SERP'ach, to jest to dowód na to, że właściciel strony dostarcza (według algorytmu) wystarczająco reprezentatywne dane strukturalne (wyczerpujące, bo danych strukturalnych, jakimi np. kiedyś można było opisać produkt w sklepie internetowym było o połowę mniej niż dzisiaj), wiarygodne, bezbłędne (przy osadzaniu danych też idzie się pomylić, ale do sprawdzania jest: Narzędzie do testowania danych strukturalnych), a Twoja domena ma szeroko pojęty wysoki autorytet. Pozdrawiam Paq
  11. Nie ma problemu, pytaj, od tego tu jesteśmy. Jeśli chodzi o "po trzecie", to: Zasada jest taka, że są 3 główne determinanty położenia podstrony /bulka-z-maslem w wynikach organicznych: 1. Zawartość tej podstrony, jej długość, nasycenie słowem kluczowym, jej pochodnymi, liczbą i jakością bitmap i szeroko pojętą atrakcyjnością (np. czy na tej podstronie jest osadzony unikalny materiał wideo z Twojego kanału itd.) 2. Profil linków zewnętrznych, jakie prowadzą do tej podstrony, czyli np. z forów dyskusyjnych, blogów, katalogów itd. (zarówno jeśli chodzi o moc tych linków, jak ich tytuły, czyli anchory) 3. Profil linków wewnętrznych, jakie prowadzą do tej podstrony w obrębie samego serwisu - ich: ILOŚĆ oraz ZAWARTOŚĆ, czyli anchory. I teraz a propos "3", to: A: im więcej linków wewnętrznych do podstrony /bulka-z-maslem, tym jej większy potencjał w Google B: ale te linki muszą mieć odpowiedni anchor, czyli np. dosłownie "bułka z masłem" i musi ich być odpowiednio wiele. Z kolei najprostszym sposobem jest po prostu wpięcie odnośnika "bułka z masłem" do elementu, który jest osadzony na każdej podstronie Twojego serwisu (site-wide = na każdej z podstron w obrębie serwisu). A jeśli chodzi o first link count, to po prostu upewnij się, że pierwszy link w kodzie źródłowym, jaki prowadzi do /bulka-z-maslem ma właśnie anchor "bułka z masłem" (i jest linkiem tekstowym). Bo gdybyś nawet wrzucił link do /bulka-z-maslem z anchorem "bułka z masłem", ale np. w stopce serwisu, to przy założeniu, że istnieje jakikolwiek inny link do tej podstrony, który pojawia się w kodzie źródłowym wcześniej niż stopka, to właśnie on będzie determinował przekazanie mocy do /bulka-z-maslem, a nie ten link ze stopki (czego nie chcemy). Stąd też podałem przykład slidera, bo często zdarza się, że klienci linkują z niego TOP'owe produkty, które chcą pozycjonować organicznie, a ten slider słabo oddaje moc jako mechanika linkowania wewnętrznego, bo 1. są to bitmapy i 2. na ogół źle osadzone w kodzie (mają randomowe nazwy np. ghu9erh395t.jpg, brak w nich parametrów alt oraz title). Pozdrawiam
  12. Domena, która jest już online, jest zaindeksowana, ma swój wiek, swoje odleżała już w organiku, jest trudniejsza w ułożeniu architektonicznym od tej, która jeszcze nie wystartowała. Wobec tego - to co wynika z poradników o kanibalizacji, ma prawo nie działać tak, jak gdyby ten problem nie został rozwiązany/przewidziany przed wpuszczeniem po raz pierwszy robota na stronę. To m.in. z tego powodu turbo-dobrze pracuje się ze stronami, które są jeszcze offline i są na etapie deweloperskim, a wyjątkowo źle pracuje się na dużych sklepach, gdzie nikt przy SEO nigdy nie pracował. Zabawy onsite'owej jest na kilka albo naście miesięcy. Ale do rzeczy. Scenariusz, o jakim piszesz, tj. kiedy mimo zubożenia podstrony X o zawartość Y, nie staje się wystarczającym powodem dla zmiany ekspozycji to wypadkowa na ogół: 1. Tego, że domena ma nazwę keywordu w sobie, np. bulkazmaslem.pl/bulkazmaslem To częsty case, gdzie mimo nawet turbo optymalizacji, trudno przekonać robota do porzucenia ekspozycji bulkazmaslem.pl na rzecz bulkazmaslem.pl/bulkazmaslem 2. Nad wyraz mocnego profilu linków, prowadzących do strony głównej - szczególnie, jeśli są w nim linki EMA, albo partiale. Czyli jeśli do strony głównej prowadzą mocne linki z anchorami "bułka z masłem", to już sam ten fakt może być wystarczający dla bota, żeby nie potrafił zdecydować, którą z podstron eksponować na zapytanie "bułka z masłem" (tak, nawet jeśli fraza "bułka z masłem" na stronie głównej już nie wisi). 3. Upewnij się, że linkujesz do tej podstrony site-wideowo (ze wszystkich podstron) z anchorem exact match'owym przy uwzględnieniu first link count. Tj. upewnij się, że link wewnętrzny do podstrony /bulka-z-maslem ma anchor "bułka z masłem" i czasami nie jest podlinkowany gdzieś wcześniej w kodzie źródłowym jakimś przypadkowym anchorem, albo bitmapą (jakąś np. bitmapą ze slidera, bo to też częsty temat). 4. Pamiętaj zarazem, że im większa dysproporcja między profilem linków (zewnętrznych) strony głównej, a postrony /bulka-z-maslem (tj. jeśli 90% mocy napływającej do całej domeny leci na stronę główną, a tylko np. 5% na /bulka-z-maslem), to sam fakt tego, że na stronie głównej w anchorze odnośnika pada słowo "bułka z masłem", też może być powodem, dla którego to główna "łapie" pozycje, a nie podstrona. Rozwiązaniem mogłoby być po prostu wypięcie linku wewnętrznego do podstrony /bulka-z-maslem ze wyłącznie z tej strony głównej (bo anchor linku wewnętrznego jest takim samym fragmentem kodu źródłowego <body>, jak zwykły tekst w paragrafie, div'ie, czy czymkolwiek innym. To takie pomysły na szybko.
  13. Jedyne aplikacje nienatywne jakie zostaną, to gry
  14. W organiku wygrywa zawsze mocniejsza domena, a nie ta, która opublikowała treści jako pierwsza (Możesz posłuchać sobie: "Czy algorytm wie, kto jest właściwym autorem treści?" : https://youtu.be/VrG2yH7c-XI) Czy to, że kolega podbierze Ci treści 1 do 1 będzie szkodziło Twojemu sklepowi? Pewnie nie, bo mamy tutaj spełnione dwie okoliczności: 1. Twój sklep (zakładam) ma już jakiś profil linków 2. jego sklep będzie składał się z samych duplikatów, więc pod względem wartości startuje ze spalonej pozycji (klasyfikator domeny na poziomie jakiegoś randomowego spamu) Co innego, gdyby kolega buchnął Ci zawartość sklepu przy założeniach, że jego sklep to petarda w kontekście linkbuildingu i ma w pyt*ę unikalnej treści. Problem z duplikacją zachodzi np. kiedy opisy wyślesz do Ceneo ("Skąd wziąć opisy produktów do porównywarek?" https://youtu.be/FEMoDhBcF0w), albo jakieś Domodi lub innego agregatora, który sam w sobie jest na rynku wiele lat, ma trudno profil linków, jest 10 lat na rynku itd. Inna sprawa, że godzenie się na taki scenariusz może generować inne zdarzenia w przyszłości, np. fakt, że jeśli ktoś wpadnie kiedyś na pomysł, aby sprawdzić na Twoim sklepie opisy i zobaczy, że Twoje treści duplikują się z jakimś randomowym sklepem online, to jest spore prawdopodobieństwo, że będzie bardziej skłonny podebrać Ci opis, niż gdyby taka okoliczność nie zachodziła (będzie myślał, że pewnie Twój opis jest np. opisem producenta, bo skoro już ktoś ma Twój opis i nic z tym nie zrobiłeś, to pewnie jak on Ci podbierze, to też się nic nie stanie). A mówię o tym, bo już w branży motocyklowej to przerabiałem. Napisaliśmy do sklepu X, dlaczego podebrali sobie od nas opis produktu, a oni odbili - że nasz opis ma jeszcze sklep Y i oni myśleli, że to opis producenta i mogą z niego skorzystać. Potem to już kula śnieżna.
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue. Terms of Use Privacy Policy