Skocz do zawartości

romek_rozen

Forumowicze
  • Postów

    38
  • Rejestracja

  • Ostatnia wizyta

O romek_rozen

  • Urodziny 20 Października

Profile Information

  • Gender
    Male
  • Location
    Klenica
  • Interests
    Google Ads, SEO, Google Analytics

Contact Methods

  • Twitter
    rrozenberger

Ostatnie wizyty

1458 wyświetleń profilu
  1. Screaming frog Xenu (opcja darmowa) Sitebulb I każdy inny crawler Ci to wyciągnie. Zmniejsz prędkość crawlera, może to pomoże.
  2. To powinno zadziałać uniwersalnie dla każdej domeny: RewriteEngine On RewriteCond %{HTTPS} !=on RewriteRule ^ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301] Nie potrzebujesz domeny, chyba że robisz to po prostu pod 301 ze starej domeny. Teoretycznie zmieniając %{HTTP_HOST} na pożądaną przez Ciebie domenę otrzymasz efekt o jaki Ci chodzi.
  3. W tej formule masz błąd. Masz wstawiony nawias przed // trzeba go usunąć. Ogólnie ta formuła wyciągnie Ci pierwszy link, który w href ma domena.pl. Poczytaj więcej o XPATH, może Ci to uprości dalsze prace. Ogólnie xPath wykorzystasz też potem np. w Screaming Frogu. Jeżeli chcesz przeglądać strony kategorii to potrzebujesz jakiegoś crawlera albo programu, który kliknie na kolejną stronę na stronach kategorii postów. Żeby wyciągnąć URL możesz kombinować w postaci: Pobrania wszystkich URL postów i wyciągnięcia nazwy kategorii po xpath (moim zdaniem bez sensu) Jeżeli CMS ma bazę danych to przy pomocy mysql wyciągniesz sobie wszystkie posty danej kategorii i ich adresy też, wyciągniesz też w ten sposób opisy kategorii. Zrób crawl przy pomocy Screaming Frog i korzystając z opcji Extraction wyciągnij to co potrzebujesz ze stron kategorii. W Screaming Frog (SC) możesz definiować typy stron i zapytania xpath. Zapytania xpath możesz sprawdzić w google sheets albo w jakimś programie po wyguglaniu "xpath test" Jeżeli chcesz pobrać długość opisu kategorii to znowu z wykorzystaniem xpath znajdujesz tekst kategorii i sprawdzasz jego długość. Możesz też podać wszystkim zebranym tutaj URL i na pewno ktoś Ci pomoże. Może napisz do ludzi Artefaktu. Bo z tego co widzę to wszystko opierasz na ich webinarze, na którym mogły być błędy (na podstawie tego co mówisz).
  4. Hej, =IMPORTXML("URL z sitemap.xml"; "//*[local-name() ='url']/*[local-name() ='loc']") Powinno zadziałać
  5. To dlaczego wydawnictwa je indeksują, linkują do nich wewnętrznie i ujednolicają tagowanie hmmm W mojej opinii tagi, czy kategorie można indeksować. Tylko trzeba wiedzieć co i po co się robi.
  6. Nie usuwaj wersji z http ze swojego gsc. To w niczym nie pomoże. Jak @zgred pisze. zakładaj nowe usłgui dla https, wgrywaj mapy stron. Sprawdź czy nie masz mixed content na stronach i podmień linki wewnętrzne na https.
  7. Podlinkuj wewnętrznie kategorie (może być też z opisu produktu, który rankuje) na anchor "nasiona cebuli" i zobacz co się może wydarzyć
  8. Żeby do GSC wleciał, to GSC musi go jakoś znaleźć, np. poprzez stiemap, linki wewnętrzne, linki zewnętrzne. Żeby na wszelki wypadek się przed tym chronić chyba każde z "seo" wtyczek ustawia selfcanonical na siebie w przypadku edycji. Możesz za pomocą .htaccess ograniczyć botom wejście i wywoływanie adresów z parametrem. Bez URL ciężko mi coś więcej powiedzieć. Co do Google Analytics. Wystarczy albo założyć filtr na sesje z preview w url. Ale moim zdaniem lepiej żeby wykluczyć siebie ze śledzenia (i innych autorów też)
  9. Hej, nie blokuj w robots bo to nic nie da. Jeżeli chcesz blokować to po stronie serwera. Jeżeli to serwer apache lub jemu podobne (np. lightspeed). Spróbuj na początku .htaccess dodać to: RewriteCond %{HTTP_REFERER} ^https?://[^/]+\.ru/? [NC] Sprawdzić czy patent działa możesz po prostu poprzez CURL curl --referer domena-tld-ru twoja-domena-do-ochrony Zanim wykonasz taki krok warto sprawdzić po logach, bo być może ten bot zgłasza się jako normalny Google, wtedy musiałbyś szukać po IP tego bota.
  10. Polskie: Senuto Semstorm Zagramaniczne: Ahrefs Semrush Ubbersuggest
  11. Możesz skorzystać z remarketingu dynamicznego dla ofert: https://support.google.com/google-ads/answer/6053288 W niestandardowych parametr jest zalecany, ale nie wymagany.
  12. Wiem widziałem, ale co zrobisz - szewc bez butów chodzi - naprawimy
  13. Nie robiłbym niczego na stronie z wykorzystaniem display: none. Pod kątem SEO to jest cloaking
  14. Najprościej skorzystać z XENU lub innego crawlera, który wyrzuci Ci informacje na temat tego, że link nie działa. W przypadku Xenu jest to komunikat No Such Host. Wrzucasz takiego crawlera na strony targów, izb gospodarczych, bipów, stron miejskich, etc. i czekasz. Nawet jak znajdziesz wygasłą podlinkowaną domenę to warto sprawdzić jak była linkowana. Tutaj możesz skorzystać z darmowego limitu majestic'a, czy moz'a. Są też strony na których może podejrzeć wygasłe domeny, np.: aftermarket https://www.dns.pl/lista_domen_usunietych
  15. @Stranek W tym roku nie cuduj tylko odnów. Przenieś je sobie do aftermarket (tu mam około 80 domen) lub domeny.tv (tu mam parę zagranicznych) . Cenniki mają dobre. W aftermarket w razie kolejnego przeniesienia wygenerujesz sobie automatycznie authinfo.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności