Tablica liderów


Popularna zawartość

Pokazuje zawartość z najwyższą reputacją od 21.07.2018 we wszystkich miejscach

  1. 4 punkty
    @zoozool @ar4 po prostu zaobseowaliśmy, że w Stat4Seo proxy pochodzące z OVH nie działają. Tyle. Nie udało się znaleźć odpowiedzi na pytanie dlaczego, gdy inne proxy działały dobrze, ale jednocześnie te z OVH działały np. w Web-Tools. Pracuję nad pewnymi zmianami w module sprawdzania - powinno się udać może na początku przyszłego tygodnia je wydać. Wrzuciłem krótki komunikat na forum Stat4Seo, proszę tam zerkać po ew. informację z frontu
  2. 3 punkty
    Częściowe zaćmienie Księżyca uchwyciłem:)
  3. 3 punkty
    Pytanie w stylu "jaki samochód kupić, żeby dobrze jeździł?" Określ z grubsza szacowany ruch, potrzeby co do konfiguracji, możliwości finansowe, ilość produktów i co ważne Twoje możliwości programistyczne
  4. 3 punkty
    Lepiej działać niż gadać ....
  5. 2 punkty
    Mnie się udało tylko tyle i już po najlepszym momencie (wtedy Księżyc chował się w koronach drzew). Słaba ostrość, ale nie mogłam stanąć stabilnie
  6. 2 punkty
    Ci co mówią nie taguj, nie wiedzą jak i jakie wartości może dać umiejętne tagowanie. Poszukaj na forum była nie raz o tym dyskusja. Nawet są wskazówki jak umiejętnie tagować.
  7. 2 punkty
    Dedykowany sklep na starcie? Strzelanie do muchy z armaty. Chyba, że ktoś ma to upalenia 50 klocków i potem lubi bujać się z jedyną słuszną deweloperką (bo kod w dedykach jest często napisany tak, że potem nikt nie chce przejąć deweloperki, bo np. brak jasnej dokumentacji technicznej). W spółce pilnuję 4 sklepów, z czego 2 Presty, 1 WP bez modułu WooCommerce, 1 WP z WooCommerce. Kilka wniosków. Presta jest mocniej obciążająca sprzętowo od Woo Presta jest bardziej rozbudowana od Woo, więc daje perspektywę budowy dużego sklepu Presta ma mniejsze wsparcie deweloperskie; jest droższa i trudniejsza wdrożeniowo Presta wymaga łatania dziur, bo na starcie - chce indeksować dosłownie wszystko. Patrz tutaj. Generalnie Woo obsłuży nawet niskiej klasy deweloper, Prestę niekoniecznie. Woo jest tanie, szybkie we wdrożeniu, Presta odwrotnie. Woo jest z drugiej strony na ogół rozwiązaniem tymczasowym, bo jednak ma mniej rozwiązań typowo stosowanych w e-commerce od Presty albo Magento (ale od Magento raczej trzymaj się z daleka, bo jest to skrypt jeszcze trudniejszy do ogarnięcia i pod względem użytkowym i do ogarnięcia w kontekście SEO od czegokolwiek innego). Anyway, wszystko byle nie SaaS, bo wyssą Cię z ostatnich oszczędności.
  8. 2 punkty
    Fajny temat Ściana płaczu bo google podkręciło kurek. Nie pierwszy i nie ostatni raz. Chłopaki nie płaczą!
  9. 2 punkty
    @Moriarty Przecież on prosił o ip i wysłał mi proxy do testów. Pisał kilka postów wcześniej, że ma proxy do testów dla chętnych i napisałem mu priv. Skąd tak pochopne wnioski;p
  10. 2 punkty
    cURL, to tylko biblioteka kliencka do obsługi żądań między innymi HTTP/S . Znacznie ma konstrukcja samego żądania, czyli nagłówki HTTP. Ale niezależnie od całej "magi nagłówkowej" w cURL, przeglądarka obsługą JS inaczej zrealizuje odpytanie o SERP. IMHO - na dłuższą nie ma sensu testować jakieś okrojonej wersji bez obsługi javascript, a jak już to, iść w kierunku wykorzystanie silnika przeglądarki chrome, gecko możliwości są spore. Jednak wymaga, to czegoś więcej niż prostych skryptów PHP, więc raczej nie Oczekujecie, że soft php'owy adhoc zmieni silnik na przeglądarkowy.
  11. 2 punkty
    Sprawdziło wszystkie frazy bez jednej captchy na 1 IP (a od 12 w nocy do teraz Stat4seo sprawdził 6). Sprawdzało ok 2h (można oczywiście szybciej - to Zenek i można mu dać x wątków). Po 9 wrzucę większą paczkę (800 fraz) i dam rotację na 3 prywatne IP tj jeden IPv4 + 3 różne porty (paczka z proxymarket).Wygląda na to że trzeba będzie zmodyfikować monitory pozycji ale wygląda na to że udało się wykluczyć kilka teorii z tego wątku czyli że Goole tnie zakresy IP i że JS tworzy fingerprinta w ciachach przy odpytywaniu albo pozwala na odpytywanie tylko zalogowanym do G. To dobrze.
  12. 2 punkty
    Zrobiłem mały test. Odpaliłem Zenka i na szybko, z palca napisałem scrapera wyników. Wziąłem jedno z prywatnych proxy, które w stat4seo jest jako zbanowane. Wyłączyłem JS (reszta - obrazki, css ... włączone). Ustawiłem szukanie n=10 a jak nie ma wyniku to n=100. Dałem interwały czasowe między "kliknięciem", ponownym wyszukaniem... Wrzuciłem listę ok 350 fraz do sprawdzenia. Uruchomiłem w ProjectMakerze a nie w samym Zenku. Obecnie jest przy 150 frazie, zero captch - śmiga bez problemu (na jednym proxy - niby zbanowanym). Nie chce mi się czekać aż skończy. Rano dam znać czy sprawdziło do końca. Jaki się nasuwa wniosek na ten moment? Nie widać żeby proxy było zbanowane. Nie chodzi o JS. Zauważyłem że przed kolejnym sprawdzeniem w url-u zmienia się parametr sei (ale może dlatego, że czyszczę ciacha) - jakiś token. Może G sprawdza czy jest odpowiedni silnik (albo czy przeglądarka jest uruchomiona) Postawiłem czystego Zenka z parametrami defaultowymi. Może to interwały pomiędzy wyszukiwaniami chronią przed banem. A może to że grafika jest czytana. Ja stawiałbym na to że w stat4seo albo innych monitorach pozycji po zmianie w G trzeba pogrzebać w zapytaniach CURL-a. 190 fraza - zero Captch i idę spać.
  13. 2 punkty
    Takie 3 grosze - Przeglądarka przy wejściu na stronę wykonuje całkiem sporo requestów do serwerów G z IP klienta. Przeważnie klient jako człowiek nie ogranicza sie do wejścia na stronę wyszukiwania i przejechania o 1 -(n) stron wyników i na ty konczą się żadania HTTP danego IP. user jako człowiek wykona dziesiątki innych akcji na stronach na, których są między innymi google analitycsy, które jako bigdata wszystko zapisują w ogromnych bazach. I to w rożnych interwalach czasowych bardzo losooowo. Ile z tych akcji <dodatkowych żądań HTTP z IP> wykonują sprawdzarki pozycji oparte na PHP ? Czy sprawdzarki oparte na PHP wykonują cała robotę związana z Javascritp np dynamiczne wyszukiwanie na stronie G Ile z sprawdzarek PHP przejdzie z strony z wyszukiwani na strony z wyników i tam dalej wykona żadania z obsługą Javascript ITD.... W efekcie końcowym mamy swieżaka IP, ktore nie robi nic innego jak nachalnie pyta o SERP do tego w parametrze URL podaje dalsze stronicowanie... i się dziwić ze IP ma bana .
  14. 2 punkty
    Chciałbym napisać że w ciągu kilku godzin postaram się przełączyć wszystkich klientów na nowe adresacje. Działam od 5 rano nad rozwiązaniem problemu i już widać światełko w tunelu. Lecz tak jak wspomniał @makauer trzeba trochę zmienić podejście udostępniania i zarządzania zasobami proxy aby nie można było monitorować jak niektórzy 5 -8 tyś fraz na 5 czy 10 proxy.
  15. 2 punkty
    https://www.forum.optymalizacja.com/topic/259454-prywatne-proxy-porzadki-w-google?page=2&amp;tab=comments#comment-1564609
  16. 2 punkty
    Jeśli weźmiemy od uwagę, to co oferują nadal za darmo, czyli limit 25 K / miesiąc, to mamy 75000 /30 ~ 2500 wyświetleń dziennie. Dla firmy "Kowalskiego", który wykorzystuje mapę w dziale kontakt, to w zupełności wystarcza. Jeśli ktoś swój model bYznesowy serwisu opiera głównie na mapach, to cóż ma teraz problem, gdyż musi się podzielić $$$$
  17. 2 punkty
    @zgred przyzwyczaiłeś się wychodzić do pracy, dzieci nie dawały spokoju ?
  18. 1 punkt
    Skoro nie jest to główny opis, to pół biedy. Wiadomo, że sposobu prezentacji parametrów technicznych nie będziesz zmieniać tylko pod kątem wyszukiwarek, aczkolwiek gdyby się uprzeć, można to nieco zautomatyzować i zróżnicować. Musiałbyś kombinować np. z osadzeniem tego w JSie, do którego dostęp zablokujesz w robotst.txt Jeśli myślałeś o czymś w postaci noindex dla fragmentu treści, to niestety nie ma czegoś takiego. Moim zdaniem nie ma jednak potrzeby takiego kombinowania. Skup się na głównych opisach. Jeśli ich ilość jest na tyle duża, że przygotowywanie unikalnych opisów będzie taką "sztuką dla sztuki", to ogranicz się do opisów najważniejszych produktów, w szczególności tych wyświetlanych na stronie głównej (np. jako proponowane) i na pierwszych stronach kategorii. Sam opis kategorii również wyświetl tylko na 1. stronie paginacji, a wtedy nie będzie powodów do tego, aby kategorie rankowały słabo.
  19. 1 punkt
    Link z zaplecza do docelowej też kosztuje, więc możesz sobie szacunkowo przeliczyć. Bo docelowa musi zarabiać.
  20. 1 punkt
  21. 1 punkt
    @zoozool kupiłem Wasz pakiet 20 i niestety nie działają, na 20 proxy może jeden lub dwa, reszta ma bany. Pisałem na maila pomoc@proxygen.pl to wraca deamon, pisałem na info@stylem.pl i nie dostałem odpowiedzi. To gdzie jest ten support? Usługa nie działa. Jeszcze raz przed chwilą napisałem. Dziś na moich współdzielonych 20 proxy 1400 sprawdzone o 5:01.
  22. 1 punkt
    Ja myślę na początek niech kupi sobie Donka, jeśli to ma być pierwszy soft seo.
  23. 1 punkt
    Darek daj już spokój, nie pouczaj innych masz swoje zdanie szanuje to, ale nie pouczaj innych na zasadzie "czego jeszcze nie rozumiesz". To nie szkola i Ty nie jesteś nauczycielem
  24. 1 punkt
    @siriset Pytania zupełnie nie pasują do sytuacji kiedy firma od zawsze zleca działania marketingu internetowego na zewnątrz lub ma do tego pracowników. Czyli właściciel nie robi SEO dla siebie. i faktycznie pytania trochę nie spójne ze sobą. Ale życzę powodzenia.
  25. 1 punkt
    Pytanie wyżej jest całkiem dobre. Na pewno bardzo uważnie śledzicie konkurencję. Czy macie coś dlaczego warto wziąć u Was abo? Na pierwszy rzut oka całość wygląda raczej na wewnętrzne narzędzie w agencji SEO przygotowane pod własnych i pozyskiwanych klientów, tak żeby mieć w jednym miejscu ich pozycje fraz + szybkie przygotowanie raportów pod wyceny dla nowych, niż na coś co jest faktycznie przydatne konkretnie przy pozycjonowaniu.
Tablica liderów jest ustawiona na Warszawa/GMT+02:00