Ganter Opublikowano 27 Października 2016 Udostępnij Opublikowano 27 Października 2016 Witajcie. Potrzebuję przeskanować polskie Google na ok. 5000 fraz, każda fraza = jedno zapytanie - chcę tylko Top 10. Zależy mi na tym, aby te wyniki były miarodajne - aby historia poprzednich wyszukiwań, czy ustawienia lokalizacji nie wpływały na wyniki wyszukiwania. Potrzebne mi będzie więc proxy. I tutaj kilka moich pytań. 1. Czy będzie duża różnica w wynikach wyszukiwania przy użyciu polskich proxy vs zagranicznych proxy? 2. Czasem widzę oferty w stylu "proxy pod Google". Jakie plusy ma takie proxy? 3. Do moich zastosowań raczej będzie potrzeba prywatnego proxy? Z góry dziękuję za pomoc. Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
MaxPan Opublikowano 27 Października 2016 Udostępnij Opublikowano 27 Października 2016 1. Czy będzie duża różnica w wynikach wyszukiwania przy użyciu polskich proxy vs zagranicznych proxy? obecnie tak, ale co będzie jutro nikt nie powie Czasem widzę oferty w stylu "proxy pod Google". Jakie plusy ma takie proxy? Że poprawnie wykonują zapytania przez siebie do Google. Do moich zastosowań raczej będzie potrzeba prywatnego proxy? Prywatnych a nie prywatnego lub API proxy publicznych pod Google. Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Mion Opublikowano 27 Października 2016 Udostępnij Opublikowano 27 Października 2016 Potrzebuję przeskanować polskie Google na ok. 5000 fraz, każda fraza = jedno zapytanie - chcę tylko Top 10.Pytanie brzmi w jakim czasie chcesz mieć wyniki, bo jak się nie spieszysz, to można rozłożyć w czasie i przy dobrych wiatrach może obejść się bez proxy. HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
jimmi Opublikowano 27 Października 2016 Udostępnij Opublikowano 27 Października 2016 im szybciej chcesz mieć wyniki tym więcej proxy będziesz potrzebował. tak jak @Mion napisał Przyjaźń psa na całe życie. ZAGINĄŁ DOM Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Ganter Opublikowano 27 Października 2016 Autor Udostępnij Opublikowano 27 Października 2016 Wyniki chciałbym jak najszybciej. Dzień - dwa. Chciałbym też, żeby były dobre - nie spowodowane wcześniejszą historią czy też lokalizacją. Mogę zejść z liczbą wyszukiwanych fraz, powiedzmy do 500. Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
MaxPan Opublikowano 27 Października 2016 Udostępnij Opublikowano 27 Października 2016 Mogę zejść z liczbą wyszukiwanych fraz, powiedzmy do 500. Ale z nami nie musisz targować się, co potzrebujesz napisano wyżej. Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Ganter Opublikowano 27 Października 2016 Autor Udostępnij Opublikowano 27 Października 2016 Ale z nami nie musisz targować się, co potzrebujesz napisano wyżej. Nie targuję się Teraz mój największy dylemat to proxy zagraniczne vs proxy polskie. Frazy będą różne. Jako początkujący widzę dwa plusy w zagranicznych proxy. Nie będą dopasowywać wyników pod miasto, z którego piszę. No i chyba są łatwo dostępne, np. ProxyMarket. Ale z drugiej strony, hmm, boję się, że Google będzie podsuwało angielskie wersje serwisu tylko dlatego, że proxy jest ustawione na zagranicę. Sorry za głupie pytania i wątpliwości, ale z tymi urlami uzyskanymi od Google chcę zrobić kilka rzeczy, więc chciałbym, żeby wyniki wyszukiwania Google były "obiektywne" Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Mion Opublikowano 27 Października 2016 Udostępnij Opublikowano 27 Października 2016 500 keywords bo jak piszesz do top 10 = 500 zapytań skoro się nie spieszysz, to teoretycznie w dzień bez proxy. Tylko jeszcze kwestia czym to zrobisz. Może https://mini.seo-stat.pl/ HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
jimmi Opublikowano 27 Października 2016 Udostępnij Opublikowano 27 Października 2016 obiektywnie to musisz spróbować, kup paczkę proxy pod google i sprawdź, nie musisz jakieś kosmicznej wielkość na początek. i zobacz ile możesz na niej sprawdzić Przyjaźń psa na całe życie. ZAGINĄŁ DOM Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Ganter Opublikowano 27 Października 2016 Autor Udostępnij Opublikowano 27 Października 2016 Będę jechał Scrapeboxem. Myślałem nad własnym skryptem w Pythonie, ale raczej serwery Google nie są najlepszym przykładem strony, z których łatwo wyciągać dane (chodzi mi o różne blokady, błędy 4xx). Myślałem też nad iMacros. Ale chyba Scrapebox będzie najłatwiejszy. Co do harvestowania Google bez proxy - Google bardzo szybko mnie blokuje i to za bardzo podstawowe zapytania - tylko w Scrapeboxie, w przeglądarce już jest ok. Za to Binga można przeszukiwać wzdłuż i wszerz. Tak, jak pisałem - najbardziej mi zależy właśnie, aby Google nie brało pod uwagę mojej lokalizacji w ustalaniu pozycji stron i żeby nie brało pod uwagę historii. Z historią sprawa jest raczej prosta - trzeba usuwać ciasteczka. Z lokalizacją - ciut gorzej, bo nie widziałem, żeby było ustawienie w Google "nie bierz pod uwagi mojej lokalizacji". Mogę nie podawać mu lokalizacji, ale i tak weźmie z IP. Próbowałem wchodzić do Google przez bramki proxy i wyniki są raczej ok (przy ustawieniu języka interfejsu PL i "szukaj tylko w języku polskim". Czy potwierdzacie moje spostrzeżenia? Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Mion Opublikowano 27 Października 2016 Udostępnij Opublikowano 27 Października 2016 Co do harvestowania Google bez proxy - Google bardzo szybko mnie blokuje i to za bardzo podstawowe zapytania - tylko w Scrapeboxie, w przeglądarce już jest ok.No wcale się nie dziwię. Myślałem też nad iMacros.Jak się na tym znasz to na Twoje potrzeby starczy HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Carnagge Opublikowano 27 Października 2016 Udostępnij Opublikowano 27 Października 2016 Najlepsze będzie imacros - odpal przeglądarkę w trybie prywatnym i napisz skrypt w pętli do imacros a keywordy pobieraj z pliku i pauze zrób co 2 min. Tak zostaw kompa i powinno bez żadnych proxy sobie ładnie przelecieć w ok. 12h Blog z informacjami o prawnych aspektach związanych z funkcjonowaniem internetu, w tym problematyka dotycząca SEM i SEO. organisciak.pl Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Ganter Opublikowano 27 Października 2016 Autor Udostępnij Opublikowano 27 Października 2016 @Carnagge, Dalej myślę, które narzędzie wykorzystać. Bez proxy będzie chyba problem z tym, że Google będzie dopasowywał wyszukiwania geograficznie pod moje ip? W Google nie widzę żadnego parametru, który pozwoli wyłączyć mi to dopasowanie wyszukiwania do lokalizacji. Jest &pws, ale to bardziej do tego, aby Google nie brał pod uwagę mojej historii wyszukiwania. Jeszcze mam jedno pytanie - czy uważacie, że parametr GET &lr (język strony) warto używać w swoich indekserach, czy raczej ma marginalne znaczenie i wystarczy ustawić język interfejsu? Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Rekomendowane odpowiedzi
Zarchiwizowany
Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.