Jump to content

Torque

Forumowicze
  • Content Count

    53
  • Joined

  • Last visited

  • Days Won

    2

Everything posted by Torque

  1. Komenda site nie pokazuje wszystkich zaindeksowanych podstron. Sprawdz sobie w GSC albo recznie, co faktycznie jest w indeksie. Moze zadnego filtra w ogole nie masz.
  2. Zanim zaczniesz robic kupe niepotrzebnej roboty i tracic czas, lepiej chyba dowiedziec sie dlaczego tak sie stalo. Ja powiedzialbym, ze dzieje sie tak gdyz: Google kojarzy synonimy, warianty slow oraz o czym Twoja strona generalnie jest, wiec nawet jak sie na jakas fraze bezposrednio nie pozycjonujesz, mozesz zaczac sie na nia pojawiac w serpach. Najprawdopodobniej wersja jednoczlonowa Twojego slowa kluczowego ma duza mniejsza konkurencje i dlatego zaczales na nia rankowac wysoko. Zamiast cokolwiek usuwac, zacznij pracowac nad domena i strona, a z czasem pozycje na wersje dwuczlo
  3. W Twoim przypadku ustawilbym tak jak ponizej, czyli opcja numer 2 w targetowaniu zamiast ustawien zalecanych. Do tego dodalbym wykluczenia.
  4. Prosta sprawa - kup pakiet, zrob test i sie przekonasz.
  5. Pewnie kod GA zostal usuniety ze strony. Zobacz w kodzie zrodlowym strony czy jeszcze tam jest, ewentualnie zainstaluj sobie Google Tag Assistant i sprawdz.
  6. Nie da się schować danych, poza tym nie dodaje się tam użytkowników tylko weryfikuje dostęp. W kwestii linków - GSC reaguje z bardzo dużym opóźnieniem na jakiekolwiek zmiany, poza tym i tak wszystkich linków nie pokazuje. Sprawdź jakimś darmowym narzędziem, czy tam w ogóle jakieś linki są, bo jak strona jest pozycjonowana jedynie dodawaniem niesamowicie atrakcyjnego kontentu to może ich po prostu nie ma.
  7. Sa takie grupy, ale raczej nie w Polsce (przynajmniej ja o nich nie slyszalem) no i oczywiscie nie tak liczne - max to chyba pare tysiecy osob. Moim zdaniem najlepszy sposob jest taki jak napisal Paq, ewentualnie mozesz skorzystac z Serpclixa, o ile maja polskie IP (powinni miec) i generowac wejscia na strone z Google na konkretny keyword. Opcji wyszukiwania bez wejscia na strone chyba nie maja, no ale zawsze mozesz napisac na support i sie upewnic.
  8. Jasna sprawa zupełnie zablokować się nie da. Mimo wszystko, w taki prosty sposób można część mniej wykwalifikowanych "kopistów" nieco zniechęcić 😉
  9. Jest kilka tutoriali w necie jak to ustawić. Tutaj jeden z nich: https://www.robinheed.com/see-what-users-are-copying-and-improve-your-website/ @Deliryc Możesz zablokować kopiowanie tekstów ze strony javascriptem.
  10. Mozna tez sledzic bardziej "real time" kiedy ktos kopiuje tekst na Twoje stronie. Da sie to to zrobic za pomoca Google Tag Managera. W GA bedziesz mial info kiedy i z jakiej podstrony ktos cos skopiowal.
  11. Spam score - jesli ktos sie chce pozycjonowac w MOZie, albo w SEMRush (oni tez maja cos podobnego) faktycznie powinien sie tym przejac. Ci, ktorzy pozycjonuja strony w Google moga spac spokojnie. Linki z sociali - strata czasu. @azzaz piszesz, ze w Ahrefsie widac , ze Google lubi linki z Tweetera. Coz, ja mysle, ze niespecjalnie je lubi - w 2018 roku Google indeksowalo ok. 5% tweetow. W 2020 jest to pewnie 0.5%
  12. Osobiście ustawiłbym to chyba na jednym koncie - choć, być może jeśli setup jest bardzo rozbudowany robienie tego na kilku kontach może okazać się lepszym rozwiązaniem. Odpowiadając na pytania: 1. Oprócz utrudnienia w zarządzaniu, raczej nie ma przeciwskazań natury technicznej. Przez utrudnienia w zarządzaniu mam na myśli m.in. - brak możliwości pracy ze wspólnymi budżetami czy wspólnymi listami słów kluczowych etc. 2. Nie. Pod względem tchnicznym nie jest to problem. Jakiś czas temu zarządzałem kampanią dla dużej sieci sklepów - jedna domena, różne wersje językowe w katalogac
  13. Google zmienia wyświetlane meta description tak jak mu się podoba, więc nic z tym nie zrobisz.
  14. Zmien sobie user agenta na bota ahrefsa i zobacz czy mozesz wejsc na strone. Mozesz miec w htaccesie zablokowane. Poza tym, nie bardzo rozumiem co to za problem - wiekszosc sprzedajacych linki podkresla ze blokuje boty i uzywa tego jako atut przy sprzedazy swoich uslug.
  15. Używam od chyba dwóch lat - największy plus to ilość keywordów jakie możesz monitorować w stosunku do ceny. Jest też sporo opcji ustawień : Fajną opcją jest możliwość dodawania notatek na osi czasu projektu. To z plusów. Minusy - ze średnią dokładnością bywa różnie. Niektóre frazy pokazywane są dość dobrze, inne mogą się różnić o nawet 20-40 pozycji. Ja wykorzystuję to narzędzie w celach bardziej poglądowych, więc bardzo mi to nie przeszkadza. Do raportów dla klienta ten tracking jest jednak za mało dokładny. I tak dla porównania - SEM Rush wypadał dużo le
  16. W Google Ads jest taka opcja, ale skoro jestes poczatkujacy i nie masz dlugiej historii z Google Ads to raczej z niej nie skorzystasz: musisz miec wydane 50k USD i konto aktywne przez przynajmniej 3 miesiace. Facebook tez oferuje cos podobnego i na pierwszy rzut oka nie ma takich restrykcji - mozesz o tym poczytac tutaj .
  17. Niestety mam po angielsku,ale może Ci to coś pomoże. U mnie wygląda to tak: Campaign>Settings>Bidding i Klikasz w strategię jaką masz ustawioną. Pojawia się rozwijane menu i wybierasz z listy. Osobiście polecam opcję "manual" z zaznaczonym "enhanced cpc". Wysokość stawek ustawiasz z poziomu widoku słów kluczowych.
  18. Na chwilę obecną Ahrefs pokazuje chyba najwięcej linków. Do tego, co wymieniłeś dorzuciłbym jeszcze SEMRusha, który ostatnimi czasy bardzo się poprawił, no i trudniej go zablokować (poza tym ma bardzo dobry keyword tracking i ładnie generuje proste raporty dla klientów- no ale to może nie być Ci potrzebne). Zanim zdecydujesz się na jakiś abonament, poszukaj kogoś kto wygeneruje Ci raporty z tych narzędzi dla jakichś przykładowych domen, to zobaczysz sobie jak to mniej więcej wygląda.
  19. Odpuść sobie to AstroVM - no chyba, że lubisz tracić czas i pieniądze. Dziwię się, że ta firma jeszcze w ogóle działa. Zresztą - jest na tym forum sporo opinii o nich, m.in. tutaj . Poczytaj zanim się na nich zdecydujesz.
  20. Petrowicz robił sporo szumu i publicznie wytykał Guglowi błędy - robił ostatnio testy z indeksacją i duplicate content (o ile dobrze pamiętam), no a że był znany i za bardzo się stawiał, to mu pokazali miejsce w szeregu. Sprawa z linkami jest trochę jak - "pokażcie mi człowieka, a znajdę na niego paragraf". Praktycznie każdy link można zakwalifikować jako nienaturalny, a na dodatek Gugiel nie musi niczego uzasadniać i z czegokolwiek się tłumaczyć. Paradoksalnie, dla nas może to przynieść trochę dobrego, bo skoro za linki jest "czapa", to agencyjne białe kapelusze zaczną się ich bać jak ognia
  21. Nie mam konta na fejsbuku (tak, są tacy ludzie), to się wypowiem. FB tnie zasięgi postów od dawna i zapewne robi to po to, żeby użytkownicy korzystali z tego przycisku po prawej, co z kolei łączy się z wydawaniem przez nich pieniędzy. Spróbuj "szerować" te posty przez jakichś użytkowników i zobacz czy zasięg będzie wzrastał. Podobno to pomaga.
  22. Tak na szybko: 1. wstep - czym jest Google Ads, wyjasnienie pojec (CPA, CTR etc.) 2. Typy kampanii (Search, Display, Youtube, Shopping etc.) i Rodzaje reklam 3. strategie licytacji i targeting 4. zasady i czynniki wplywajace na przebieg licytacji : quality score (czynniki), stawki i ich modyfikatory etc. 5. sposoby organizacji i optymalizacja kampanii
  23. Sposobów jest przynajmniej kilka. Pierwsze lepsze 2 z brzegu: 1.Jest taka strategia licytacji, gdzie możesz wybrać, że chcesz, aby Twoje reklamy ukazywały się tylko na górze pierwszej strony. Znajdziesz ją w ustawieniach kampanii. 2. Inną opcją jest ustawienia dodatkowego warunku dla stawek. Np. podnieś o x% w takich i takich godzinach jeśli liczba klików, albo liczba wyświetleń jest mniejsza niż x) (screen w załączniku).
  24. Zacznij linkować te podstrony z zewnątrz.
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue. Terms of Use Privacy Policy