MaxPan

A-Parser - wielowątkowy parser wyników wyszukiwania, content, danych, słów kluczowych, inne. A multi-threaded parser of search engines, site assessment services, keywords, content

Polecane posty

b8cct6ob.png

 

 

2qhvzhvy.png

 

c677pkem.jpg

 

 

 

Strona www projektu :  a-parser.com  (link z refem) link bez refa : a-parser.com

 

 

 

A-parser to dobre znany w kręgach zawodowych pozycjonerów wielowątkowy serwerowy harwester. Wyróżnia się dużą prędkością oraz skutecznością.

Długi czas a-parser był dostępny do kupienia tylko w Rosji, Ukrainie i innych krajach posługujących się cyrylicą. Jest to produkt Rosyjski.

Teraz jest wersja angielska a co więcej dość łatwo każdy może sobie dostosować interface do dowolnego języka. Plik językowy dostępny w interface, wystarczy przetłumaczyć ok 200 linijek.

Jedna z głównych zalet tego produktu to możliwość ( a ja prywatnie tylko tak i polecam) pracy na serwerach LInux i sprzedaż przez autorów dostępu do API proxy.

W zasadzie dostaje się kompletne narzędzie do harwestowania wszystkiego co można harwestować.

A-parser zawiera ponad 70 rożnych harwesterów i to autorzy dbają aby oni działali i na bieżąco ich aktualizują.

A-parser na średnim VPS z Linux potrafi harwestować miliony unikalnych URL w ciągu doby, co bardzo ważne posiada swój unikalny system henerujący słowa kluczowe. Można dodać tylko swoje footprint a apraser sam będzie ich unikalizować przy pomocy slow, liter, cyfr.

Ceny podane wyżej to ceny netto, faktury wystawia zewnętrzny serwis po doliczeniu VAT, czasami może być telefoniczna weryfikacja czy konto PayPal/karta nie kradzione.

Na stronie www jest dostępne demo,  nie wpelni funkcjonalne ale zawsze można zobaczyć jak soft wygląda.

Na forum wczoraj zarejestrowała się osoba decyzyjna z projektu i to po konsultacjach z nią powstał ten temat, ale dla supportu polecam korzystać z kontaktów podanych na stronie www.

Ceny za API proxy już od 7 USD/tygodniowo.

Program może dzialać na sewerach Linux i Windows. Ja prywatnie polecam VPSy z Linux, w cenie za ok 30 zł miesięcznie można mieć bardzo wysoką prędkość i stabilność.

Tak jak nie każdy potrafi zainstalować soft na Linuxie, polecam użytkownika z naszego forum  https://www.forum.optymalizacja.com/profile/9649-pawelc

On od wielu lat instaluje i obsługuje a-parsery na moich serwerach i robi to dość dobrze i nie drogo. Doskonale zna ten skrypt i ma nawet swoja autorską aplikację która monitoruje skrypt i w razie restartu ponownie go uruchamia. Z tego co wiem instaluje i konfiguruje skrypt na VPSie za ok 50 zł.

Na serwerach Windows a-parser może sobie zainstalować każdy, jak każdy inny program.

U mnie aparsery działają na VPSach o takiej konfiguracji :

 

f9wrk3i7.jpg

 

KOD RABATOWY (20%) NA PIERWSZĄ PŁATNOŚĆ ZA SERWER  PROMO6320

Ceny brutto, kod rabatowy działa nawet na roczną płatność.

Obrazek z serwerem podlinkowany refem, link bez refa : webh.pl

  • Like 1

re287am9.jpg

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Dostępne harwestery:

 

Search engine parsers Description
SE::Google SE::Google Parse Google search results
SE::Google::Mobile SE::Google::Mobile Universal parser of Google search engine
SE::Yandex SE::Yandex Parse Yandex search results
SE::AOL SE::AOL Parse AOL search results
SE::Bing SE::Bing Parse Bing search results
SE::Baidu SE::Baidu Parse Baidu search results
SE::Dogpile SE::Dogpile Parse Dogpile search results
SE::DuckDuckGo SE::DuckDuckGo Parse DuckDuckGo search results
SE::MailRu SE::MailRu Parse Mail.ru search results
SE::QIP SE::QIP Parse Yandex search results through search.qip.ru
SE::Seznam SE::Seznam Parse Czech search engine seznam.cz
SE::Yahoo SE::Yahoo Parse Yahoo search results
SE::YouTube SE::YouTube Parse Youtube search results
SE::Ask SE::Ask Parse American Google search results through Ask.com
SE::Comcast SE::Comcast Parse American Google search results through Comcast.net
SE::Rambler SE::Rambler Parser of Rambler search results
SE::Ixquick SE::Ixquick Parser of Ixquick search results
Parsers of positions in search engines Description
SE::Google::position SE::Google::position Check Google position of sites by keyword
SE::MailRu::position SE::MailRu::position Check the positions of a sites by keywords on Mail.ru
SE::Yandex::position SE::Yandex::position Check the positions of a sites by keywords on Yandex
SE::QIP::position SE::QIP::position Check the positions of a sites by keywords on QIP
Parse search engine suggestions Description
SE::AOL::Suggest SE::AOL::Suggest Parse AOL suggestions
SE::Google::Suggest SE::Google::Suggest Parse Google suggestions
SE::Yandex::Suggest SE::Yandex::Suggest Parse Yandex suggestions
SE::Bing::Suggest SE::Bing::Suggest Parse Bing suggestions
SE::Yahoo::Suggest SE::Yahoo::Suggest Parse Yahoo suggestions
Keyword parser Description
SE::Yandex::WordStat SE::Yandex::WordStat Parse keywords and statistics of keyword hits from the wordstat.yandex.ru service
SE::Yandex::WordStat::ByDate SE::Yandex::WordStat::ByDate Parse keyword hits on WordStat by month and week
SE::Yandex::WordStat::ByRegion SE::Yandex::WordStat::ByRegion Parse keyword statistics in WordStat by region and city
SE::Yandex::Direct::Frequency SE::Yandex::Direct::Frequency Check keyword rate through Yandex.Direct
SE::Google::Trends SE::Google::Trends Parse popular Google keywords
Account registration Description
SE::Yandex::Register SE::Yandex::Register Register an account on Yandex
Parse parameters of sites and domains Description
SE::Google::TrustCheck SE::Google::TrustCheck Check if sites are marked as trusted on Google
SE::Google::Compromised SE::Google::Compromised Verify the presence of "This site may be hacked" text on Google
SE::Google::SafeBrowsing SE::Google::SafeBrowsing Check if Google has blacklisted a domain
SE::Bing::LangDetect SE::Bing::LangDetect Determine site language through Bing
SE::Yandex::TIC SE::Yandex::TIC Check the popularity citation of a domain by Yandex
Net::Whois Net::Whois Determine if a domain is registered, the date of first registration, date of expiration and Name-Servers info
Net::DNS Net::DNS Parse a domain to show its related IP addresses
Rank::CMS Rank::CMS Determine over 600 types of CMS. Determines all popular forums, blogs, CMS, guestbooks, Wiki's and a set of other types of web engines
Rank::Alexa Rank::Alexa Alexa Rank Parser
Rank::Alexa::API Rank::Alexa::API Fast checker of Alexa Rank via API
Rank::Archive Rank::Archive Parser shows the date of the first and last caching of a site from web archives via archive.org
Rank::Linkpad Rank::Linkpad Parse backlinks and statistics from the linkpad.ru service
Rank::MajesticSEO Rank::MajesticSEO Parse the quantity of backlinks via majesticseo.com
Rank::Mustat Rank::Mustat Parse a traffic assessment on the site, including the cost and rating of a domain
Rank::OpenSiteExplorer Rank::OpenSiteExplorer Checks a rating of the domain or page on OpenSiteExplorer
Rank::OpenSiteExplorer::Extended Rank::OpenSiteExplorer::Extended Advanced version of Rank::OpenSiteExplorer parser, collects 39 different parameters
Rank::SEMrush Rank::SEMrush Checks SEMrush rating
Rank::SEMrush::Keyword Rank::SEMrush::Keyword Collects traffic, competition and other parameters by keyword from SEMrush
Rank::MegaIndex Rank::MegaIndex Parser of statistics from the site megaindex.com
Rank::Social::Signal Rank::Social::Signal Parser of social signals
Parsers of different services Description
SE::Bing::Translator SE::Bing::Translator Text translator through www.bing.com/translator/
SE::Google::Translate SE::Google::Translate Translator through Google service
SE::Yandex::Translate SE::Yandex::Translate Translator through Yandex service
SE::Bing::Images SE::Bing::Images Parse pictures from the Bing search engine
SE::Google::Images SE::Google::Images Parse pictures from Google Images by keyword
SE::Google::ByImage SE::Google::ByImage Parse pictures from Google Images by link
SE::Yandex::Direct SE::Yandex::Direct Parse ads on keywords through direct.yandex.ru
SE::Yandex::Catalog SE::Yandex::Catalog Parse sites on Yandex.Catalog
SE::Yandex::Images SE::Yandex::Images Parser of Yandex Images
Util::AntiGate Util::AntiGate Recognition of a captcha through services supporting the AntiGate API
SEO::ping SEO::ping Mass send Ping requests to services supporting the Weblog API (Google Blog Search, Feed Burner, Ping-o-Matic, etc.)
Check::RosKomNadzor Check::RosKomNadzor Checking the site in the Roskomnadzor database
SE::Bing::AddURL SE::Bing::AddURL Adding links to the Bing index
SE::Yandex::Speller SE::Yandex::Speller Checking pages for errors in the text through Yandex.Speller
GooglePlay::Apps GooglePlay::Apps Google Apps parser
Parsers of shops Description
Shop::Amazon Shop::Amazon Parse amazon.com search results
Shop::Yandex::Market Shop::Yandex::Market Parser of Yandex.Market
Content parsers Description
Check::BackLink Check::BackLink Check if a backlink can be freely accessed or crawled by search engines
HTML::LinkExtractor HTML::LinkExtractor Parse external and internal links from a specified site, can also follow internal links to a selected level
HTML::TextExtractor HTML::TextExtractor Parse text units, allowing content collection from arbitrary sites
HTML::TextExtractor::LangDetect HTML::TextExtractor::LangDetect Determines the language of a page without use of third-party services
HTML::EmailExtractor HTML::EmailExtractor Parsing of e-mail addresses from site pages
Net::HTTP Net::HTTP Loads data on the given link, allowing the creation of additional parsers for information extraction Using regular expressions
  • Like 1

re287am9.jpg

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Jeżeli miałbyś ocenić to jak wypada w stosunku do xseona (chodzi o harwest)? Myślę nad jednym lub drugim ale ciężko mi znaleźć w internecie tematy z ocenami użyszkodników. Z tego co napisałeś to A-Parser w zasadzie to automat bo sam zbiera słowa kluczowe itd. więc na pewno fajna opcja.

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Trocha inna cena w porównaniu z XseoN, tu masz 70 harwesterów, jest nawet rejestracje email automatyczna, nu i prędkość - bez problemu harwestuje miliony w krótkim czasie.

Ja korzystam ot dawno bo kupuje proxy daje na serwer harwest i zapominam, po zakończeniu obieram listę. Realnie oceniając to obecnie najlepszy harwester na rynku.

 

  • Like 2

re287am9.jpg

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Tak jak piszecie do mnie PW z pytaniami o demo.

Opisze bardziej precyzyjnie.

Demo jest dostępne po zarejestrowaniu na stronie www. Ale demo działa tylko 6 godzin po aktywacji, proxy już podłączone nie trzeba mieć swoich. Demo jest calkowicie bezpłatne. Są ograniczenia. Dane do kontaktu z supportem są na stronie www. Użytkownik @Forbidden, jest osoba decyzyjna i nie zajmuje się supportem. Jeśli są jakieś pytania piszcie w temacie ja postaram się odpowiedzieć lub na support. Rabatów i promocji na zakup obecnie nie ma.

 


re287am9.jpg

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

czy ten harwerser  będzie dobrym rozwiazaniem jeśli chcę tworzyć listy dedykowane pod xneolinksa?  Lepiej korzystać z własnych proxy czy tych od autorów ? (jakie proxy polecacie)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Jednoznacznie najlepiej korzystać z proxy od autorów bo w tej cenie po prostu nie ma lepszych i soft zoptymalizowany do ich użycia. Można kupić na tydzień i przetestować.

Co do list ja swoje listy do Xneolinks robię a-parserem, na razie nie znam lepszego parsera.

 

Co do jakości proxy proszę zobaczyć foto bez podłączenia OCR ilosć błędnych zapytań przy użyciu inurl: jest ok 17 %, jeśli nie używam INURL, to błędnych zapytań w ogóle prawie nie ma. Harwestowanie INURL wprost w Google ot dawno jest najbardziej zasobożernym jeśli chodzi o proxy, nawet prywatne proxy bez reanimacji nie żyją. Przy harwestowaniu standardowym czyli kontentem, site:, inne tak jak pisałem często ilość błędów proxy jest bliska zero.

 

lfww2vtd.jpg

 

 

  • Like 1

re287am9.jpg

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Wyszła nowa stabilna wersja 1.2.0

 

Dużo zmian poprawiono niedziałające ze względów zmian w serwisach parsery, dodano nowy parser Google  mobile łączący w sobie starą i nową wersje.

Dodano obsługę Recaptcha2 przez zewnętrzne serwisy i capmonter2 wkrótce dodadzą API do Xevil do obsługi Recaptcha2. Rozbudowano JS parser i wiele innych zmian.


re287am9.jpg

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Nowa stabilna wersja A-parser 1.2.31

  • We started the release of 64-bit assemblies for Windows
  • The interface for selecting saved tasks has been redesigned, now presets can be sorted by folders of any nesting
  • Implemented "lazy" loading of saved presets
  • In 64-bit windows/linux versions the JavaScript engine V8 has been updated to version 6.3
  • SE::Bing::Translator completely rewritten, fixed the problem when the text with html tags and double quotes was not translated, and also large texts are translated now
  • Added autocompletion Provider url for CapMonster in Util::ReCaptcha2
  • Added the ability to parse Cloudflare protected e-mails in HTML::EmailExtractor
  • Added sorting of JS parsers inside folders
  • Notification of the new version is transferred to the statusbar
  • Improved smoothness when viewing logs in Test parsing

Corrections due to changes in the issuance

Fixes

  • Fixed a bug where the antigate preset list was not updated after creating a new one
  • Fixed parser crashes when using a removed antigate preset
  • Fixed API work when calling a saved task
  • Fixed bug with $followlinks in HTML::EmailExtractor
  • Fixed encoding detection on some sites
  • Fixed the calculation of failed queries in some cases
  • Fixed bug with Custom template in filters
  • Fixed work of the Update button in the logs
  • Fixed error Can not call method "Parse::HTML::Util::urlFromHTML", which appeared in one of the previous versions
  • Fixed crashes when using unique in some cases
  • Fixed checking for updates after changing the channel
  • Like 1

re287am9.jpg

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Witaj MaxPan ;)

 

Z tego co widzę wykupując jeden z pakietów masz dołączone proxy do niego.

 

Czy dokupujesz jeszcze inne?

 

Jeśli tak to jakie są koszta miesięczne?

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Po zakupie dostajesz jak dobrze pamietam proxy 20 wątków na tydzień. Ceny proxy masz w zakładce "sklep". Ja harwestuje na proxy 100 wątkowych, oczywiście czym więcej proxy tym szybsze harwestuje, tak jak po zakupie masz 20 wątków możesz sprawdzić minimalną prędkość.


re287am9.jpg

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Bądź aktywny! Zaloguj się lub utwórz konto

Tylko zarejestrowani użytkownicy mogą komentować zawartość tej strony


  • Kto przegląda   0 użytkowników

    Brak zalogowanych użytkowników przeglądających tę stronę.

  • Podobna zawartość

    • Przez hiper
      Wykonałem ten parser dla osoby, która chciała pozyskać adresy email do mailingu.
       
      Parser odpytuje serwery whois a następnie odczytuje kluczowe informacje i eksportuje do pliku CSV, gdzie są uporządkowane i łatwe do odczytu/obróbki. Plik CSV to zwykły plik tekstowy w którym poszczególne dane zapisane są między cudzysłowami i oddzielone średnikiem. Te pliki można otworzyć zwykłym edytorem tekstowym albo np. w Excelu.Wystarczy tylko dodać domeny a zostaną one automatycznie sprawdzone. Po zakończonym zadaniu wybierasz pola, które chcesz wyeksportować do pliku i gotowe.
       
       
      Cechy parsera:
      - zautomatyzowane (cron) sprawdzanie whois
      - zapisanie kluczowych informacji (daty rejestracji, modyfikacji, wygasania, email, telefon itp.) w czytelnej dla użytkownika formie w pliku CSV
      - obsługa 400 końcówek () (głównie generyczne i kilka krajowych)
      - możliwość dodawania pełnych nazw domen lub samych nazw + wybranie końcówek (końcówki zostaną wówczas automatycznie "doklejone")
      - narzędzie jest chronione hasłem (możliwość zmiany hasła)
       
       
      Wymagania hostingowe:
      - php
      - mysql
      - cron
       
       
      Chętnym udostępnię demo.
      Cena 37 zł.
       
      Kontakt przez PW lub email: hdcore@gazeta.pl
       
    • Przez ddaapp
      Zapraszam do korzystaniu z kilku narzędzi które mogą się przydać osobom działającym w SEO.
      Darmowy harwester google online Skaner proxy Narzędzie do filtrowania proxy Synonimizator tekstu Hurtowy Skracacz linków Do zastosowania raczej "na szybko" jeśli nie mamy pod ręką deskopowych narzędzi.
      Narzędzia dostępne:
      http://stylem.pl/darmowe-narzedzia-seo/