Skocz do zawartości

Harry

Forumowicze
  • Postów

    273
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    26

Treść opublikowana przez Harry

  1. @Bestek jak wcześniej napisałem. Do linków afiliacyjnych proponuję używać rel="sponsored" + 302 - to zupełności załatwia sprawę, ponieważ: sponsored informuje google, że link jest w celach zarobkowych, więc googlebot nie bierze go pod uwagę przekierowanie 302 nie przenosi mocy
  2. Cześć @Bestek To o co pytasz, to o linki względne (bez domeny) oraz absolutne/bezwzględne (z domeną). Dla Googlebota bez znaczenia, chociaż ja preferuję linki absolutne, czyli te z domeną 3xx jest niedopowiedzeniem, bo tych kodów jest kilka. Generalnie do linów afiliacyjnych proponuję używać rel="sponsored" + przekierowanie 302 (tymczasowe), a 301 czyli przekierowanie stałe zostawić tylko w obrębie własnej domeny Polecam dokumentację Google: Kwalifikowanie linków wychodzących na potrzeby wyszukiwarki Google oraz stanowisko Google w sprawie płatnych linków, do których linki afiliacyjne się zaliczają Pozdrawiam
  3. Kliknąłem z ciekawości, ale jak dla mnie tytuł wprowadza w błąd i powinien brzmieć "Omówienie narzędzia Google Lighthouse" gdzie kluczowe słowo to "omówienie" Poza tym fajnie i rzeczowo, bardzo łopatologicznie!
  4. Harry

    Program do Wordpressa

    Wzywam naczelnego spamera @Xenobi, któremu żaden WordPress nie jest straszny podlinkuję też temat: Czy spam(bot Xenobi) w komentarzach serio działa?
  5. @Mirex od siebie dodam też ciekawy wątek, w którym odpowiedział John Mueller Odpowiedź Johna Po przetłumaczeniu Pozdrawiam
  6. Gdy temat był w złym dziale, to wysłałem autorowi tematu info na PW. Dostałem feedback, że uznał to za zły trop
  7. Harry

    Danae wraca?

    SEO nie wróciło, bo nigdzie nie odeszło. Ta branża się zmienia i trzeba się jedynie dostosować W 2013 Google wypuściło Hummingbird aka Koliber, czym był wstęp do wyszukiwania semantycznego. Chyba że coś pominąłem btw to ile zarobisz zależy głównie od odwiedzających, chociaż pozycje też mają tutaj jakieś znaczenie, co TOP1 nie zawsze jest dobre dla konwersji Witaj ponownie na forum
  8. Harry

    Katalogi

    SEO is dead od 1997 roku (wkładam kij w mrowisko ->) tak samo katalogi nie mają sensu Kupować, znajdywać, tworzyć własne. Chociaż wielu ogranicza się do kupna artykułu sponsorowanego, a przecież linkbuilding, to coś więcej niż tylko link na jakimś PBN
  9. @Mion nie mogę się zgodzić. U mnie sytuacja z hostido to jakiś żart Screen wyjaśni wszystko Jeżeli serwer nie obsługuje lets encrypt, to uciekaj albo podepnij stronę do cloudflare ( https://www.cloudflare.com/pl-pl/ ). Darmowy pakiet oferuje SSL.
  10. Mnie nie interesują kwestie techniczne, skrypt, czy identyczne funkcje. Zadałem proste pytanie: Czym się różni twój katalog od innych tego typu, tzn. co u ciebie jest innowacyjnego, czego nie ma konkurencja? Link ze słabej strony, to tak jakby tego linku nie było.
  11. Cześć @mirosław84 Czym twój katalog różni się od innych?
  12. @Farlicki zainstaluj po prostu plugin https://wordpress.org/plugins/wps-hide-login/. W ustawieniach ustaw sobie jakiś ciąg znaków i później na spokojnie ogarniaj 403 w htaccess
  13. Cześć @Pawciokot Prawdopodobnie - jak napisałeś - strona jest za młoda. Wizytówki rządzą się lekko innymi zasadami niż typowe wyniki wyszukiwania. Na wizytówkach zdecydowanie szybciej widać efekt. Zapewne masz ale i tak napiszę stwórz powiązanie wizytówka <-> strona, a dodatkowo śledź ruch na wizytówce (w Google Analytics, Google Search Console). Zamiast dodawać sam URL do wizytówki, możesz dodać UTM do adresu, przykład: .pl/?utm_source=google&utm_medium=organic&utm_campaign=GMB Kolor zielony do zmiany lub nie Jak wprowadzisz parametr, to koniecznie upewnij się, że rel=canonical wskazuje na ten sam adres ale bez parametru. W WordPress na 100% RankMath wrzuca prawidłowy canonical, ale nie wiem jak Yoast i inne. Pozdrawiam
  14. poza botami, a dobry profil może działać jak niezastąpiony indexer Z całą resztą zgadzam się @Skalmar
  15. Czatboty oparte na LLM miały swój boom w 2022, mamy obecnie 2025. Potrzebuję niezależnego zestawienia r/r, a nie informacji typu "wydajemisie" jakie prezentuje @frajer pisząc Wiele ludzi powiela takie zdanie ale jeszcze nikt nie pokazał mi twardych danych na udowodnienie tego. Wiesz, to tak naprawdę jak w SEO - TO ZALEŻY. Jeśli dla celów zarobkowych: tekst jest oczywiście dla algorytmów Google Dla celów hobbystycznych: tekst jest dla ludzi Ta technologia dopiero raczkuje, teraz wychodzą hocki klocki ale za 30 lat - wierzę - będzie na tyle dobrze, że prawnicy zadadzą pytanie i dostaną kompleksowy opis konkretnych artykułów/paragrafów i cytatów z XX lat wstecz btw odnoszę wrażenie, że wątek troszkę zszedł z pierwotnych założeń. Może założymy nowy aby dalej prowadzić rozmowę w tym kierunku?
  16. Tak, wiele razy to widziałem i czytałem ale nikt mi nie podał konkretnych danych albo chociaż źródła swojej wiedzy. Może ty będziesz tym unikatem, który poda mi w końcu rzetelne dane potwierdzające te jakże wspaniałe doniesienia
  17. @Pawciokot instrukcja obsługi "S i R 285.910.075" zawiera lekko ponad tysiąc słów i obawiam się, że więcej to byłoby lanie wody - ten temat dogłębnie wyczerpany. Co innego wyciek dokumentacji technicznej Google - obawiam się, że tutaj 50k słów będzie za mało. Więc co dokładnie masz na myśli?
  18. Niestety widzę błąd logiczny w twoim rozumowaniu. To czy treści są wartościowe ocenia algorytm oraz użytkownicy, a nie twórca ów contentu. Zmiana permalinków mogła wpłynąć na zmianę pozycji, bo Google w takim przypadku musi jeszcze raz dodać adresy do kolejki crawlowania, a następnie ponownie przeliczyć wszystko (content, linki, anchory, powiązania, etc.), by ustalić pozycję. Możesz temu w pewnym sensie zapobiegać dodając 301 stary adres -> nowy adres ale to się robi od razu po zmianie permalinków, ewentualnie ustawiając canonical. Właściwie WordPress (o ile go używasz) powinien automatycznie stworzyć przekierowanie, a już na pewno wtyczki śledzące zmiany, np. RankMath z włączonym odpowiednim modułem lub Redirection.
  19. @michniknieadam, jak wyżej Operator site jest cały czas aktywny, pomyliłeś z cache, który został wycofany jakiś czas temu a może to reklamy widzisz #żarcik
  20. Cześć @michniknieadam Twój pomysł wydaje się dobry ale jeśli Google ich jeszcze niezaindeksował, to prawdopodobnie znajduje się w kolejce. Tak duża strona jak foursquare.com dziennie pewnie ma tysiące stron do zaindeksowania - poczekaj. Jak sprawdzasz stan zaindeksowania? bo operator site: nie daje 100% gwarancji wyświetlenia zaindeksowanego url. Tak samo w "GSC -> Linki" zaindeksowany adres może się nie wyświetlić Zamiast tworzyć artykuł, który później usuniesz mam inne rozwiązanie. Zrób podstronę typu "Tu mnie znajdziesz", "Opinie o mnie" albo na podstronie "O mnie" dodaj linki, które chcesz zaindeksować. Takie podejście wydaje mi się lepszym, ponieważ wygląda naturalnie i tworzy relacje między twoją stroną, a NAP'em. Pozdrawiam
  21. Niestety ale to nie jest "przewodnik" a jedynie opis możliwości. Automatyzacja jest mi całkiem bliska, bo kilka dni w tygodniu odpalam ZennoPoster. Jeśli "automatyzowanie procesów bez programisty" byłoby takie łatwe, to już dawno każdy Januszex miałby pełny automat na wszystko. Niestety ale znajomość chociażby xPath lub JSON, a nawet Regex jest całkiem fajna żeby zrobić coś więcej niż zwykły klikacz na make'u z ograniczeniami i limitami. Szkoda, że ChatGPT nie polecił im N8N bijącego w każdym aspekcie make, zapier, czy bubble. Webflow? Dorzućmy do tego Elementora Rozumiem, że ostatecznie to artykuł do lejka sprzedażowego, a nie faktycznie wyjaśniający temat. Te tematy na planeta-seo są coraz gorsze
  22. Już na samym początku odniosłem identyczne wrażenie co @Mion tym bardziej, że identyczny post znalazł się na "dobreprogramy", ale ciekawy byłem jak zareaguje administracja, więc siedziałem cicho Atrybut data-jmap-canonical-override="1" jest niestandardowy i można takie znaleźć w Joomla CMS. Googlebot ignoruje takie atrybuty - canonical jest dobry
  23. Cześć @Farlicki Czy w ogóle ktoś (człowiek / robot) wchodzi na adres http:// bo jeśli nie, to nie ma sensu się nad tym głowić. Takie przekierowanie jest standardowe, ponieważ przekierowanie z http na https działa na różnych warstwach, ustala właściwą domenę i wymusza SSL. Następnie przekierowanie www i non-www to dwa różne byty. Obie wersje mogą mieć różne konfiguracje serwera, rekordy DNS, a nawet certyfikaty SSL. Można to optymalizować ale osobiście sensu w tym nie widzę. Pod kątem Googlebota też nie ma żadnego znaczenia, bo wielokrotnie robiłem testy łańcucha przekierowań i Googlebot za każdym razem kończył na 20 przekierowaniu - pewnie dlatego, że działa jako "Headless Chromium", czyli z góry ustalony limit jak dla każdej przeglądarki. Ciekawostka: można to "obejść" przekierowaniem meta-refresh lub javascript zwiększając łańcuch w nieskończoność Pozdrawiam
  24. Skoro potencjalny klient tego nie wie, a jest w posiadaniu opisywanego sklepu i napisze, to "lejek sprzedażowy" działa prawidłowo Tak to właśnie widzę
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności