-
Postów
20695 -
Dołączył
-
Ostatnia wizyta
-
Wygrane w rankingu
421
Treść opublikowana przez Mion
-
@wyszukiwać zawartość z meta tagów? Czyli co ?
-
TO JUŻ JEST SZCZYT LENISTWA ! Cały ogromny topic o scrapebox a Ty się pytasz do czego on służy -> Powinieneś dostać 7 dniowy odpoczynek os pisania na czytanie
-
Polecam: SEOLINE.PL 256 IP z 80 klas, https://www.forum.optymalizacja.com/index.p...133004&st=0 -> https://www.forum.optymalizacja.com/index.p...st&p=968305
-
@Czy Scrapbox jest lepszy czy gorszy od Publikera pod tym względem? Czy młotek jest lepszy od siekiery - choć podobne narzędzia jednak funkcjonalnie nie są takie same, więc nie można w ten sposób porównywać.
-
@, więc w tej sytuacji to nie ma nic do rzeczy. Ma zadasniczo do rzeczy, bo w posobie z zapytaniem GET do google pobieramy stronę wyników wyszukiwania za pośrednictwem danego proxy. Kolejny przykład przed chwilą sprawdzany - ustawienia: pobieramy za pomocą proxy stronę wyszukiwania wiec jeśli mamy proxy OK na 100% dane proxy nie miało w chwili sprawdzania bana. Zresztą tak zweryfikiwane proxy lepiej - wydajniej sprawują się w module do sprawdzania zaindeksowania programu PSM --- Różnice w sprawdzaniu w opisamy sposób dobrze widać na proxy od makauer których większość jest OK a tymi pobranymi z ogólnodostępnych zródeł gdzie większość zwraca 302 co oznacza, ze pojawia sie strona w google bana IP proxy. --- Topik tyczy scrapeboxa, więc wiecej na temat Proxy SEO Mastera tutaj nie pisze....
-
@Ping Mastera od Miona Działa w ten sposob, że za pośrednictwem proxy pobiera stronę główną google i szuka w zwróconym kodzie wystąpienia "advanced_search" jesli znajdzie to takie proxy oznaczane jest jako dobre. Tylko, że jest pewne ale jakie nidawno zauważyłem i w najbliższym czasie to zmienię - Jak chodzi o google to, że za pomocą proxy można pobrać stronę gówną nie jest równoważne z tym, że za pomocą tego samego proxy da się wykonac zapytanie wyszukujące Oczywiście są też proxy które nawet nie umożliwią pobrania strony głównej google bo mają całkowitego bana. ------- Ale jest na to pewien sposob w konfiguracji programu w trzeciej zakladce wpisujemy adres taki jak by był w formie zapytania np: https://www.google.pl/search?hl=pl&q=anonse i w polu [W pobranym kodzie strony szukaj] -> wpisujemy tego keywordsa: anonse | W tym wypadku program nie pobiera strony głównej google, ale stronę SERP;ow dla szukania anonse wiec jesli proxy będzie Proxy OK na pewno w chwili sprawdzania za pomocą tego proxy została zwrócona strona wynikó wyszukiwania, a nie strona z info o banie Na jakiej zasdzeie scrapebox weryfikuje proxy nie wiem .
-
Jak już pisalem szybkość nałożenie bana na IP przez google zależy między innymi od rodzaju wykonywych zapytań i IMHO jest coraz szybciej nakładany.
-
Google banuje też za rodzaj zapytania, więc nie istotne czy to będzie proxy publiecz, prywatne czy własny IP jak i tak dostaniemy za chwilę filtr wykonujac za często określony typ zapytania np site:*.*. Wiec jest całkiem duże prawdopodobienstwo, że na liście "publicznych inaczej" jakie udostępnia makauer zrobimy lepszą robotę niż na puli np 10 prywatnych z tego powodu, że tych od makauer jest znacznie wiecej.
-
Ten na klientów śpiochów czeka
-
503 Service Unavailable Usługa niedostępna – serwer nie jest w stanie w danej chwili zrealizować zapytania klienta ze względu na przeciążenie
-
Poza tym zależy też jakie żądanie wykonujesz za pomocą proxy np pobranie strony z google przejdzie, ale kolejne żądanie o site z tego samego IP już nie. To samo tyczy innych operacji w których korzysta się z ogólnie dostępnych proxy, bo w tym samym czasie z tego samego proxy do tego z taką samą operacją [żądaniami http] może korzystać np 50-ciu i userów i do tego samego serwisu co TY
-
@Często testuje jakieś proxy i są dobre, Klasyczne zjawisko występujące przy korzystaniu z ogólno dostępnych proxy których czas życia może wynosić nawet kilka sekund. Czyli w chwili sprawdzania okazują się np zdolne do wykonania żądania do google, a chwile później mają już BAN'a. @ Wiecie może w czym tkwi problem i jak go wyeliminować? Dla ogólnodostępnych proxy NIE ma takiej możliwości, bo z uwagi, że są ogólnodostępne w tym samym czasie możne korzystać z niego n set, tysięcy userów.
-
Ale ja się nie oszukuję ani nikogo innego tylko piszę jak sprawa wygląda z szerszej perspektywy. Łącze ma duży wpływ, ale też współczesne łącza są dosyć przepustowe.@Procek jest w takim przypadku bardzo obciazony. Tu nie do końca chodzi o obciążenie procesowa, ale czas procesora przydzielony dla realizacji wątku. Wiec jeśli będzie n razy więcej wątków do obsłużenia utworzonych prze kolejne procesy [instancje danego programu] kolejne będą musiały czekać na przydział czasu. Do tego oczywiście dochodzą wątki uruchomione przez inne procesy. Inaczej sprawa wygląda w procesorach wielordzeniowych.
-
To zależy od większej ilości czynników, a nie tylko prędkości łącza. Między innymi też od ilości rdzeni w procesorze lub procesorach.
-
IMHO to tak samo jak by umieścić jaką reklamę na środku Sahary ... może ktoś ją przeczyta = znajdzie się jakaś unikalna strona gdzie zamieścisz komentarz z linkiem [follow ] która jest w indeksie google i przez jakiś czas w nim zostanie. Oczywiście inni mogą i pewnie mają odmienne zdanie na ten temat
-
To tak samo jak niedawne stwierdzenia, że "nauka obsługi tego narzędzia wymaga kilku lat"
-
@Nie ma to jak naturalne linkowanie 100tys linków w 1-3 dni Tylko, że z tych n K linków może ~1 promil będzie zaindeksowany
-
IMHO podobne działanie, ale za free - posty w dół: https://www.forum.optymalizacja.com/index.p...st&p=795564
-
Pisząc skutecznie z pewnością mają na myśli szybko, bo bez proxy owszem da się "skutecznie" wykonać jakieś zapytania do google, ale rozłożone w czasie inaczej klient dostaje czasowego bana. Jeśli twierdzisz, że jest inaczej czekamy na konkrety nie tylko odpowiedzi w stylu "da się" ...
-
Otwórzcie sobie osobny watek do obsługi tej listy, bo sagittariuspl wprowadza tylko zamieszanie w tym topicku tyczącym scrapeboxa, a nie jego list, czy też problemów z obsługą subskrypcji
-
Jak chodzi o wątki to można utworzyć ich nawet więcej, ale i tak nie zostaną wykonywane ze względu na przydzielony czas procesora który też dzielą inni userzy VPS'a. Dlatego im procesor VPS'a ma więcej rdzeni tym lepiej, bo wątki mogą współbieżnie z niego korzystać co znacznie zmniejsza czas oczekiwania.
-
Możesz rozwinąć swoja lakoniczną wypowiedź - chodzi o laureata Nagrody Nobla z dziedziny fizyki w roku 1933
-
Przeczytaj to co napisałeś ... Da się odpalić VS nie da się odpalić
-
No to się wydało po co uruchomiono w wine tą wersje crack "demo"