EACTIVE

Forumowicze
  • Zawartość

    20
  • Rejestracja

  • Ostatnio

Reputacja

1 Neutral

Contact Methods

  • Website URL
    https://www.eactive.pl/

Ostatnio na profilu byli

Blok z ostatnio odwiedzającymi jest wyłączony i nie jest wyświetlany innym użytkownikom.

  1. EACTIVE

    Test pozycji w Google

    Możesz sprawdzić asps.pl - dają możliwość śledzenia do 5 fraz na dla jednej strony w darmowym pakiecie
  2. GSC nie pokazuje wszystkich linków prowadzących do Twojej domeny, nie pokazuje nawet wszystkich zaindeksowanych linków i nie ma na to reguły. Jeśli chcesz sprawdzić czy Google widzi link do Twojej strony możesz sprawdzić czy jest zaindeksowany. Jeśli będzie zandeksowany oznacza to że bot Googla już go widział.
  3. EACTIVE

    Grupa odbiorców ciągle się zamyka

    Możesz podać więcej szczegółów? Rozumiem, że masz wrzucone tagi na każdej z tych stron? Grupy konfigurowałeś w Google Ads czy w Google Analytics? Możesz podrzucić screen z konfiguracji grupy?
  4. W skali miesiąca faktycznie powinno się to zamknąć w budżecie dziennym*30,4. Czyli jednego tygodnia wydasz więcej, a zostanie to zrekompensowane w innych dniach. To Cię jednak nie urządza, ponieważ wpłacasz 1000 zł/tydzień. Trzeba by sprawdzić jak rozkładają się wydatki w ciągu dnia. Jeśli miałoby to sens, można wdrożyć skrypt, który będzie sprawdzał wydatki (np. co godzinę) i wstrzymywał kampanię po przekroczeniu wskazanego budżetu, po czym włączy ją następnego dnia. Ryzyko jest takie, że możesz mieć niedziałającą kampanię w czasie, w którym warto by było emitować reklamy.
  5. Rozwiązanie z linkiem w postaci <a href=""> będzie najbardziej odpowiednie pod kątem możliwości sterowania podążaniem za linkami za pomocą atrybutu rel. Prosty JSowy "link" zostanie zinterpretowany jako dofollow. Zalecałbym stosowanie pojedynczego linku jeśli kotwica ma zawierać tylko obrazek i właściwy tekst kotwicy, jednak jeśli miałaby pojawić się tam jakaś dodatkowa zawartość skorzystałbym z dwóch linków - jeden na obrazku (można się zastanowić nad nofollow - aczkolwiek nie widziałem nigdy żeby to dało jakiś zysk w organicu), drugi na właściwej kotwicy. W zasadzie pracownicy Google twierdzą że nie ma większego sensu manipulowanie atrybutami nofollow w przypadku gdy zablokowana jest indeksacja podstrony docelowej w obrębie serwisu. Będzie to miało sens dopiero przy na prawdę dużych i szybko rozwijających się serwisach gdzie blokowanie przechodzenia bota przez linki na których nam nie zależy może przyspieszyć indeksację. Blokowanie adresów w pliku robots.txt teoretycznie powstrzymuje bota przed odwiedzaniem danego adresu, ale jeśli robot już zindeksował stronę nie powoduje jej wyindeksowania (bot już nie będzie jej odwiedzał, ale nie usuwa jej ze swojego indeksu) - stąd informacja w wynikach wyszukiwania. Co więcej jeśli umieścimy na podstronie którą zablokowaliśmy w robots.txt tag noindex, to w teorii podstrona nie wyindeksuje się - bot już nie będzie odwiedzał danej podstrony - więc tagu noindex nie zobaczy. Najlepszą metodą w tym przypadku jest - najpierw wyindeksować podstronę (czy przez tag noindex, czy przez Google Serach Console) a dopiero później zablokować dostęp do niej w robots.txt. Tak to wygląda teoretycznie - ale zdarza się że Google w jakiś niespodziewany sposób interpretuje zapisy dotyczące indeksacji i dostępu. W nowej wersji Google Search Console mamy dostęp do zakładki "Stan" i na karcie "wykluczono" możemy zidentyfikować dużo problemów dotyczących przemieszczania się bota po naszej stronie, po kliknięciu w dany problem można zobaczyć kiedy ostatnio bot próbował uzyskać dostęp do zasobu i dzięki temu dowiedzieć się czy bot mimo naszych blokad nadal odwiedza dany adres. To troszkę mniej niż można wyczytać z logów serwera - ale i tak polecam zobaczyć - można się zdziwić Pozdrawiam Jakub, eactive.pl
  6. Byłbym ostrożny z linkowaniem na EMA (exact match anchor), myślę że jeśli to nowa strona, na razie skupiłbym się na linkowaniu na stronę główną bez typowych EMA.
  7. Polecam rozwiązanie z canonicalem na samego siebie + koniecznie rel="prev/next" Źródło: https://moz.com/blog/seo-guide-to-google-webmaster-recommendations-for-pagination
  8. Być może w momencie, gdy Google to wykrył, obie te wersje zwracały kod odpowiedzi serwera 200? W jednym z adresów jest slash na końcu.
  9. EACTIVE

    Sprawdzenie SSL

    Jeśli są poprawnie ustawione przekierowania 301 na nowe odpowiedniki, to pozostaje czekać i może próbować przyspieszyć to przez "pobierz jako Google" w GSC, jednak nie jestem pewien na ile będzie to pomocne w takim aspekcie. Szacować w przypadku Google jest dość ciężko, ale gdybym mimo wszystko miał się tego podjąć, to określiłbym to na mniej więcej 2-4 tygodnie przy takim site
  10. EACTIVE

    Jak zrobić estymację ruchu?

    Cześć! Jeśli chodzi o estymację ruchu na frazy z analizy słów kluczowych (jaki realny ruch mogą przynieść), to jest to ściśle uzależnione od pozycji, które te frazy zajmą, zatem estymacja musiałaby się opierać na wariantowości dla poszczególnych pozycji zajmowanych w TOP10. Dla przykładu: fraza "x", zakładamy, że jest prosta, niskokonkurencyjna do TOP10, a więc osobiście zrobiłbym średnią miesięczną liczbę wyszukań pomnożoną przez procentowość klikalności w poszczególne pozycje z TOP10 z uwzględnieniem konkurencyjności frazy w znaczeniu wyświetlanych reklam Google Ads, które zaburzają te ogólne, standardowe przeliczniki CTR w procentach dla pozycji i sezonowości (może być wzięte z SENUTO). Taka analiza, mimo że i tak prawdopodobnie będzie niemiarodajna, bo wyniki się nie pokryją, to będzie moim zdaniem nieco lepsza od standardowej bez uwzględnienia czynników konkurencyjności i sezonowości. Nie jestem jednak do końca pewien, czy dobrze zrozumiałem to pytanie. Do czego będzie potrzebna ta analiza?
  11. Hej, A jaki dostajesz komunikat gdy próbujesz to zrobić poprzez "pobierz jako google", w którym następnie wysyłasz prośbę o zaindeksowanie?
  12. Czyli to http://staradomena.pl/numerkategorii-1234/podstrona na to? http://staradomena.pl/inny-przyjazny-adres/podstrona Może spróbuj nieco zmodyfikować Twoją regułę odnosząc się również do znaczników, które zawarłeś w nawiasie [zmieniłem + na *) RewriteRule ^numerkategorii-1234\/(.*)$ https://nowadomena.pl/inny-przyjazny-adres/$1 [L,R=301] A co się dzieje po zaimplementowaniu Twojej wersji? jakiś błąd, czy nic?
  13. Wykluczenie w robots.txt, dyrektywy wyindeksowujące, tworzenie się niekończących adresów URL? [np. przy filtracji]? Podaj przykład URL, który jest w mapie niezaindeksowany, wtedy będzie można odnieść się do problemu bardziej rzeczowo.
  14. EACTIVE

    Linki Ref

    Jeśli adres przyjazny i ref zwracają kod odpowiedzi serwera 200, to generują duplikat, a więc wpływa negatywnie na SEO (możemy to sprawdzić jeżeli podasz przykład linku przyjaznego i ref).
  15. Jeśli masz strony zaindeksowane i dodałeś je do robots.txt, to one się nie wyindeksują nawet jakbyś dodał noindex,nofollow do meta robots, ponieważ plik robots.txt informuje boty, aby nie wchodziły na daną podstronę, a więc jeśli chcesz wyindeksować podstronę, najprościej będzie, jak usuniesz wpis z nią związany z robots.txt (aby boty mogły na nią wejść), dodasz w meta robots (albo x-robots) dyrektywę noindex,nofollow i dopiero w momencie, jak się podstrona wyindeksuje - możesz dodać ją do robots.txt, aby boty na nią już nie wchodziły.