Skocz do zawartości

Seo student

Forumowicze
  • Postów

    79
  • Rejestracja

  • Ostatnia wizyta

Ostatnie wizyty

1329 wyświetleń profilu

Osiągnięcia Seo student

  1. Cześć! Planujemy ogarnąć w naszych ekomersiakach temat RODeO Niestety nie korzystamy z Woo, czy też z Presty, ale z customowych skryptów. Odpadają więc wtyczki i inne pluginy. Przetestowałem masę rozwiązań i żadne z nich mnie nie przekonało. Albo są przekombinowane UX-owo, albo mega ciężkie (font awesome, tłuste JS-y, bootstrapy itd.). PYTANIE 1 - Możecie polecić coś, co rzeczywiście będzie zgodne z RODO (wczytywanie skryptów po akceptacji), da się z tego skorzystać na customowym silniku sklepu i będzie przyjazne dla SEO? I jeszcze kilka pytań dotyczących SEO: PYTANIE 2 – Czy dobrze rozkminiam, że jeśli taki skrypt RODO byłby leciutki, jak piórko to może hipotetycznie sprzyjać SEO, bo wszystkie ciężkie skrypty typu GA, pixel, hotjar itd. wczytywałyby się dopiero po akceptacji użytkownika, co oznacza, że z perspektywy czasu Googiel lepiej oceni taką stronę, bo będzie ją wczytywał i „oceniał” bez nich? PYTANIE 3 – Czy to jedyny rozsądny scenariusz, że po akceptacji cookies’ów skrypt RODO przeładowuje stronę w celu wczytania wszystkich skryptów (GA, GTM, pixel itd.)? Te skrypty RODO, które przetestowałem tak właśnie działają. Czy to jest neutralne dla SEO? Czy w jakikolwiek sposób może podziałać na nie negatywnie? Dzięki za odpowiedzi i wszelkie sugestie!
  2. Tak. Jest właściwe przekierowanie, a mapa strony od początku ma jedną formułę. Chodziło mi o to, czy jeśli w SERPach nie ma zdublowanych podstron przez występowanie wyników zarówno z oraz bez "www" to chyba nie robię sobie jakiejś wielkiej krzywdy, jeśli chodzi o SEO? Czy jednak mocno to dobija moją stronkę? I jeszcze jedno pytanko. Czy obecnie dalej warto z jakichś względów dodawać wszystkie 4 rodzaje adresu do GSC (http://adres.pl, https://adres.pl, https://adres.pl i https://www.adres.pl)? Czy wystarczy tylko postać https://adres.pl?
  3. @Grey Ronin dzięki za odpowiedź. Nie za bardzo jednak rozumiem. Mam kilka dodatkowych pytań. Jeśli mógłbyś odpowiedzieć to będę wdzięczny. 1. Gdzie mam umieszczać ten rel=canonical? Na wszystkich podstronach, które w SERPach wyświetlają się, jako adres z www, podając jako canonical dokładnie ten sam adres, ale bez www? 2. Czy nie jest tak, że wystarczające jest tutaj przekierowanie 301 z www na bez www? 3. Czy brak ustawionego przekierowania, o którym piszę w ad 2. było winowajcą, odpowiedzialnym za to, że mam teraz w SERPach misz-masz (adresy z www i bez www)? 4. Czy jeśli nie mam zdublowanych adresów w serpach np. adresstrony.pl/adres-podstrony i www.adresstrony/adres-podstrony to robię sobie ogromną krzywdę pod kątem SEO? Czy może nie jest aż tak źle? Technicznie są to przecież 2 różne strony, tak? 5. Napisałeś,że zmusić nie mogę. Kiedyś można było tego poniekąd dokonać w GSC, a obecnie mogę zrobić tylko te czynności, o których wspominamy powyżej i mam cierpliwie czekać? Nie da się nic więcej zdziałać? Z góry dzięki za odpowiedzi.
  4. Seo student

    SERPy z i bez www

    Cześć Mam taką sytuację zastaną, że wyświetla się w serpach wersja serwisu z www i bez www. Dawno tego nie robiłem, bo nie było takiej potrzeby, ale kiedyś można było wybrać preferowaną wersje w GSC, ale z tego, co zauważyłem to usunęli tę możliwość. Dodam, że mapa strony uwzględnia wszystkie strony z wersją bez www. Dodatkowo www ma przekierowanie na wersję bez www już po stronie serwera. Co mogę w takim razie zrobić, żeby "zmusić" Google, by wyświetlało w serpach tylko wersję bez www? Z góry dzięki!
  5. Seo student

    GSC - Problem z CLS

    Cześć! Mam problem z GSC. Wyświetla mi, że większość podstron jest słabej jakości przez problem z CLS. Ja podczas weryfikacji nie odnotowuje żadnych przesunięć. Wiele razy doświadczałem tego w praktyce w różnych serwisach, gdzie podczas ładowania strony "celowałem" np. w menu, a strona nagle się przesuwała i zamiast w menu klikałem w baner reklamowy. U mnie czegoś takiego nie doświadczam. Co mogę zrobić? Jak to zdiagnozować, skoro nie jestem mistrzem HTML-a. I ostatnia kwestia - można to zlekceważyć? To się mieści w kategorii Ulepszenia w GSC. Czy to może mieć jakiś realny negatywny wpływ na SEO?
  6. Ponawiam prośbę Czy ktoś mógłby mnie naprowadzić na właściwą ścieżkę w powyższym temacie? Nic ciekawego w sieci nie znalazłem. Większość odnosi się do przykładów blogowych, a to nie to samo, co sklep internetowy.
  7. Cześć! Czy może ktoś podać jakieś ciekawe inspiracje (opisać jakiś przykład lub podać jakieś linki do sklepów internetowych) dla mądrego podziału treści z wykorzystaniem kategorii produktowych, filtrów i tagów? Zastanawiam się, czy można użyć te wszystkie 3 elementy jednocześnie przy jednym projekcie? Tagi łatwiej jest mi sobie wyobrazić na portalach internetowych i blogach. Jeśli chodzi o sklep internetowy to wszystko, co próbuję przenieść na tagi, pasuje mi jako filtr lub kategoria, a przypisanie tego do tagów, wydaje się być bardziej komplikowaniem, niż porządkowaniem treści, czy też ułatwianiem życia klientom sklepu. Aspekt wykorzystania tagów na potrzeby SEO rozumiem, np: czasem możemy stać przed decyzją, którą nazwę wybrać dla kategorii i te inne propozycje możemy zamienić na tagi. Dzięki za każdą sugestię!
  8. Strona nie jest nowa - ma jakieś 3 lata. To sklep internetowy. Dynamikę pewną ma, ale strona główna. Strony produktowe są często nieruszane przez wiele miesięcy albo i czasem dłużej. Ostatnio zmieniałem szablon graficzny i było trochę zmian, ale to chyba nie jest wystarczający powód, by uznać, że strona jest często odświeżana??? A czy to, że nie ma wspomnianej kopii skutkuje czymkolwiek negatywnym z perspektywy SEO? Czy mogę jakimś sposobem ustalić przyczynę? Czy pozostaje tylko zgadywać w takiej sytuacji? W meta robots mam index i follow, więc to raczej nie to. Dziwna sytuacja. Nigdy sie z czymś takim nie spotkałem wcześniej. Dzięki za wszystkie odpowiedzi!
  9. Kurcze... nikt nic mi nie podpowie? Nie mogę znaleźć w sieci absolutnie żadnego info na temat braku kopii w Google'u. Google wyszukuje mi stronę po domenie, stoi też wysoko na wiele fraz w wynikach wyszukiwania, ale tak, jak napisałem powyżej - nie ma możliwości kliknięcia w "kopię".
  10. Cześć! Mam taką sytuację, że obecnie w Google po wpisaniu site:domena pokazuje się ponad 250 wyników, ale przy większości z nich nie ma możliwości podejrzenia "kopii". Ostatnio wprowadzałem dość sporo zmian na stronie - włączając w to zmianę szablonu graficznego. Widzę, że "kopia" jest tylko przy tych, które jeszcze mają starą kopię sprzed tych zmian. Co może być przyczyną? Poza stroną produkcyjną miałem też kopię pod testy. Niestety nie wyłączyłem indeksacji i Google zaindeksował ze 150 podstron. One są 1:1 z tą produkcyjną. Czy może być tak, że przy tej testowej znajduje się możliwość kliknięcia w kopię, a przy produkcyjnej nie, bo Google jakoś sobie powiązał te strony i uznał testową jako tą ważniejszą? Jak tylko się połapałem to ustawiłem na testowej w .htaccess 302 i wszystkie podstrony z serwisu testowego przekierowują na właściwe podstrony z serwisu produkcyjnego. Chyba dobrze podstąpiłem? Mam tylko obawy co do tego, że to potrwa bardzo długo. Można to jakoś przyspieszyć? Dzięki za odpowiedzi!
  11. Dziękuję wszystkim za pomoc i informacje. @Lexy sprawdziłem przekierowania na jednej ze stron, który były podane w artykule. Rozumiem, że to nie jest normalne, jeśli niektóre rodzaje adresów są przekierowywane 4-krotnie? Co może być przyczyną i jak można zidentyfikować winowajcę?
  12. Witam po pewnym czasie. Temat został odłożony ze względu na inne ważne sprawy. Chciałem was podpytać jeszcze o kilka istotnych kwestii: 1. W GSC dodałem https://xyz123.pl i https://www.xyz123.pl. Oczywiście w GSC mam ustawiony preferowany adres bez www. I teraz pytania odnośnie działań w GSC: a) Czy należy dodać nową mapę strony - w zasadzie jest to ta sama mapa strony, co wcześniej z tym, że pod domeną https://xyz123.pl? Rozumiem, że pod wariantami http://www.xyz123.pl oraz https://www.xyz123.pl nie dodajemy map strony w GSC? b) Po wykonaniu a) tak na dobrą sprawę to w 2 z 4 dodanych wariantów domen podczepione będą mapy stron, tj. pod http://xyz123.pl (była już wcześniej przed dodaniem certyfikatu SSL) oraz https://xyz123.pl (świeżo dodana mapa strony - bliźniacza do tej z przed SSL). Czy tak to właśnie ma funkcjonować? Czy mapę strony dla adresu http://xyz123.pl (bez SSL) należy jakoś "usunąć"? 2. Ustawiłem na poziomie cms-a adres z https i włączyłem go dla całej domeny (a nie tylko dla stron z logowaniem, płatnościami itp.). Dodatkowo dodałem w .htaccess następujące zapisy (przekierowanie na https oraz bez www): RewriteCond %{HTTPS} !=on RewriteRule ^ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301] RewriteCond %{HTTP_HOST} ^www.(.*)$ [NC] RewriteRule ^(.*)$ http://%1/$1 [R=301,L] a) Czy tak może wyglądać ten zapis w .htaccess? b) Czy jeśli certyfikat SSL jest włączony na poziomie cms-a + dodatkowo jw. na poziomie .htaccess to nie spowoduje to jakiegoś podwójnego przekierowania etc.? Przy okazji tego dopytam - jak sprawdzić ewentualne wielokrotne przekierowania? Jakieś narzędzia? Dzięki i pozdrawiam.
  13. Czy XNEO można zainstalować na lokalnym kompie? Jeśli tak to czy przez takie podejście XNEO może mi zainfekować kompa? Przecież biega po różnych stronach, więc chyba jest takie realne ryzyko? Jak to się ma do instalacji XNEO i antywirusa z firewallem na jednym kompie? Potrafią ze sobą żyć? Jestem, ale zauważ, że w 2011 roku założyłem tylko konto, a to nie jest tożsame z aktywnością na forum To tylko potwierdza, że kiedyś interesowałem się SEO, co jest prawdą, ale to już zamierzchłe czasy... Odnośnie tego, co piszesz o moim problemie z pozyskiwaniem linków to jest to prawda - co nie jest zresztą tajemnicą, bo przecież podpytuję o to w różnych wątkach Jak wiadomo linki można pozyskiwać w różny sposób. Ja mam problem z tematem ich pozyskiwania za pośrednictwem zewnętrznych programów (takich, jak np. XNEO). Mam kilka niewiadomych/pytań, na które do teraz nie potrafię znaleźć odpowiedzi, a szukam wytrwale i będę dalej szukał. Na szkoleniach i kursach słyszy się podstawy podstaw i teksty w stylu, że "linki nie są już tak ważne, jak kiedyś", bo "content is the king". Jeśli uzyskam te absolutne podstawy (które są niezbędne do dalszego rozwoju) to będę mógł je samodzielnie rozwijać, bo do mistrzostwa w tej dziedzinie wiedzy droga jest daleka, a ja nie jestem osobą leniwą. Lubię testować, kombinować, ale utknąłem w martwym punkcie, a rozumiem, że nikt nie chce tego wytłumaczyć, bo o to się rozchodzi, by ta wiedza pozostała dla nielicznych... EDIT: Czy ZennoProxyChecker można połączyć z XNEO? Czy to się sprawdzi w praktyce?
  14. Witam, Szybkie pytanie - kiedy można uznać, że domena nie jest świeżynką? Czy po półtorej roku w sieci można mówić już o pewnej "dojrzałości" domeny? Kolejna kwestia - jeśli domena była zarejestrowana kilka lat (przy czym część tego czasu stał tam serwis oparty na WP, a część wisiała jako "strona w trakcie budowy), a następnie była wolna przez kilka miesięcy to, czy taka domena wa jakąś wartość? Dodam, że domena miała kiepski ruch i nie została zaspamowana. Czy kilkumiesięczny status jako "niezarejestrowana" mocno obniża jej wartość? Dzięki i pozdrawiam.
  15. Cześć, Przez jakiś czas byłem nieobecny, a potem nadganiałem zaległości. Przepraszam za milczenie i dzięki za odpowiedzi W tym czasie tylko delikatnie - dosłownie na palcach jednej ręki można by liczyć pozyskane linki zwrotne. Raczej nie miało to znaczenia. Myślisz o działaniach konkurencji itp.? Strona na tamtą chwilę nie stanowiła realnej konkurencji. Tak, ja napisałem - spokojnie rosła sobie w siłę. Odnośnie robots.txt to tak - sprawdziłem. Nie ma tam niczego niepokojącego raptem kilka standardowych linijek. GWT??? W sensie Google Webmaster Tools? Nic tam nie kombinowałem, a przynajmniej nie kojarzę. Dodaliśmy tylko mapę strony, po zmianie wtyczki odpowiadającej za SEO i tutaj upatruję winowajcę, ale muszę jeszcze trochę przetestować pewne kwestie. Jeśli chodzi o modyfikacje strony to było ich sporo. Trzeba by wszystko brać pod uwagę. Błędy 404 to tylko kilka wystąpiło i to nawet nie w tym czasie, w którym odnotowałem tę niekorzystną zmianę. W tamtym czasie nagle ponad 1500 stron, które były uprzednio zaindeksowane zmieniło swój status na "Strona zeskanowana, ale jeszcze nie zaindeksowana". To jest właśnie mój problem. Za tym poszedł nagły spadek ruchu i to spory, więc były to istotne podstrony. Tak właśnie zrobiłem. Zobaczymy, co będzie się dalej działo. Gdybym odkrył coś istotnego (a mam nadzieję, że tak będzie) to tutaj to opiszę - może komuś się przyda. A jeszcze moje pytanie z pierwszego posta - czy można jakoś masowo zgłaszać strony do ponownego zaindeksowania? Czy niestety trzeba klikać w każdy link z poziomu GSC i czekać kilkadziesiąt sekund? Rozumiem, że jedyną alternatywą jest ponowne wczytanie mapy strony?
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności