Jump to content
artur_waw

Scrapebox 1.0 - 2.0

Recommended Posts

Często tu na forum zostawał wymieniany taki soft jak: scrapebox

Rozumiem że chodzi o ten produkt: http://www.scrapebox.com/

Czy ktoś z was może się podzielić informacjami na temat względnej skuteczności, problemów z obsługą itd.

Przeglądałem pobieżnie stronę i z tego co widzę to soft do odpalenia na własnym komputerze - stąd jeszcze jedno pytanie, działa on non-stop jak Publiker?


Może uda mi się zrobić coś dobrego

;)

Share this post


Link to post
Share on other sites

Jest to narzedzie bardzo wszechstronne, glownie nastawione na spamowanie WP i BlogEngine, ale ma sporo dodatkowych przydatnych funkcji. Co do skutecznosci to pewno szalu nie ma - wiekszosc WP ma linki nofollow. BlogEngine zostal calkowicie zaspamowany, poza tym do niego dodawanie komentarzy idzie bardzo opornie i wolno - ja mam jakies 10% udanych tylko na juz odfiltrowanych listach, a pozniej w efekcie sie okazuje, ze linki sa na jakims 1%. W gruncie rzeczy SB uzywam do indeksowania, a do pozycjonowania jeszcze nie sprawdzalem jego skutecznosci.


kodeks-logo-baner-pio.jpg

Blog z informacjami o prawnych aspektach związanych z funkcjonowaniem internetu, w tym problematyka dotycząca SEM i SEO.

Share this post


Link to post
Share on other sites

Mocne narzędzie.

Czekałem na rozwój tematu.

Sa fora scrapebox, ale my na PIO tez mozemy wymieniac sie doswiadczeniami /bazami dofollow - takie sa

Jak znajda sie osoby aktynie uzywajace i chcace sie dzielic na forum o dzialaniu metodach scrapeboxa to ja jestem na duze TAK

Share this post


Link to post
Share on other sites

Program bardzo dobry, rozwija się dosłownie dzień w dzień. Codziennie jakieś aktualizacje, cena jest śmieszna jak na możliwości które daje a głównie używam go jednak do innych rzeczy niż spam blogowy ;)

@marcin_ek dzielenie się bazami w tym przypadku nie ma kompletnie sensu, blogi nie mogą być za bardzo zaśmiecone bo siła linka z komentarza z posta będzie znikoma.

Edited by zoreander

 ...

Share this post


Link to post
Share on other sites

@it_management - a co djae ten 2 poziom filtrowania w hrefie? Na jakiej zasadzie tam dzialaja te filtrowania?


kodeks-logo-baner-pio.jpg

Blog z informacjami o prawnych aspektach związanych z funkcjonowaniem internetu, w tym problematyka dotycząca SEM i SEO.

Share this post


Link to post
Share on other sites

2 poziom filtrowania powoduje wybieranie z wynikow z googla tylko te ktore sa forami (tzn zawieraja dany tekst url etc.. ).

Przyklad :

W scrapeboxie mozemy pobrac wszystkie wyniki ktore daje google po wpisaniu : pozycjonowanie forum , natomiast href dodatkowo jeszcze te wyniki przefiltruje

Share this post


Link to post
Share on other sites

Aha to w SB da sie cos takiego zrobic, ale troche sie trzeba pobawic. Jak jest narzedzie do sprawdzania linkow - Check Links to ono tak naprawde sprawdza, czy jest dany tekst/kod na stronce, wiec mozna tam ewentualnie wpisac jakies dodatkowe frazy do przefiltrowania np. "zaloz konto" itp.


kodeks-logo-baner-pio.jpg

Blog z informacjami o prawnych aspektach związanych z funkcjonowaniem internetu, w tym problematyka dotycząca SEM i SEO.

Share this post


Link to post
Share on other sites

mozna przefiltrowac site:"powered by wordpress"-"bez komentarza"+.edu + słowa kluczowe i mamy poczworne filtrowanie, wiec nie za bardzo rozumiem 2 stopnia ?

Ale mozliwości są duże programu. Co do szybkosci np. wpisy w blogach 10 minut 100 wpisow 10 pozytywnie na jednym proxy.

Share this post


Link to post
Share on other sites

SB samą baze buduje szybko. Weryfikacja bazy trwa dłuzej /index,PR,duplikat url/

wiesz ze transfer to nie zupelnie a dobra baza proxy, szybkich proxy to sukces, a ta kosztuje. Ja tam narazie używam jednego url i czasem proxy, te ktore znajdzie SB, ale te sa mułowate i jest duzo odzutów na wpisach z powodu timeout.

Jak dobrze skonstruuje sie zapytanie i potem odpowienio przefiltruje sie to powstaje ładna baza , i z tego kilka procent pozytywnych wpisów . Wszystko w tle działania komputera.

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


  • Recently Browsing   0 members

    No registered users viewing this page.

  • Similar Content

    • By conradd
      Takie pytanie..mam nadzieję, że ktoś bardziej ogarnięty w kwestiach technicznych pomoże.
       
      Mam listę footprintów przykładowo:
       
      intext:"Powered by Wordpress" intitle:"keyword"
      inurl:"list.php" intitle:"keyword"
       
      + listę słów kluczowych np
       
      dieta
      odchudzanie
       
      Podsuńcie pomysł w jaki sposób lub z jakiego narzędzia skorzystać, żeby po podaniu powyższych danych jako wynik otrzymałbym
       
      intext:"Powered by Wordpress" intitle:"dieta"
      inurl:"list.php" intitle:"odchudzanie"
      intext:"Powered by Wordpress" intitle:"dieta"
      inurl:"list.php" intitle:"odchudzanie"
       
      (oczywiście zarówno słów kluczowych jak i footprintów będzie dużo więcej - std chcę to jakoś zautomatyzować, żeby nie przepisać wszystkiego manualnie za każdym razem)
    • By droopy
      Mam taki oto problem, chcę sprawdzić które proxy jest żywe w Scrapebox - Proxymanager, wrzucam listę i testuję.
      Przy ustawieniu Time out na 120 sekund i np 5 wątkach testowa próbka zgłasza: Filed Connection time out przed upływem 20 sekund :/ - ale znajduje kilka żywych proxy.
      Przy ustawieniu Time out na 120 sekund i np 30 wątkach testowa próbka zgłasza: Filed Connection time out przed upływem 20 sekund :/ - nie znajduje żadnego żywego proxy
      Obciążenie procesora 0% cały czas
      Obciążenie sieci też blisko 0% cały czas
      Coś tu chyba nie tak? Ma ktoś jakieś sugestie?
       
    • By potas119
      Witam,
      Przy 1 scrapowaniu wyników google (scrapebox) chciałbym pozyskać po 30 wyników z takich keywordów:
      site:strona.pl jak nauczyć się angielskiego site:strona.pl angielski nauka site:strona.pl szybkie metody nauczania angielskiego site:strona.pl porady w nauce angielskiego Takich scrapowań dziennie robiłbym po 20-30. Wszystkie wyglądałby by w taki sam sposób:
      site:strona.pl jak nauczyć się niemieckiego site:strona.pl niemiecki nauka site:strona.pl szybkie metody nauczania niemieckiego  site:strona.pl porady w nauce niemieckiego  strona.pl zawsze zostaje ta sama, a te 4 keywordy różnią się tylko nazwą języka. Dziennie chciałbym scrapować po 4 keywordy dla 20-30 języków. Ile proxy bym potrzebował do tego?
    • By duchu0
      Chciałbym zrobić mały harvest z Google na interesującą mnie frazę oraz CMS. Oczywiście wiem, że można coś takiego zrobić przy pomocy SB ale chciałbym Was zapytać czy znacie jakieś inne aplikacje lub skrypty webowe które również dadzą radę to zrobić. 
       
    • By marecky
      Twoja strona nie zdobywa wysokich pozycji pomimo nowych backlinków z forów, katalogów, precli itd ?
      Nadaj im mocy poprzez solidne podlinkowanie - megaBLAST - ponad 600 tysięcy linków do Twoich wpisów sprawi, że nabiorą one odpowiedniej mocy by rankować Twoją stronę.
       
      Wykonam megaBlast za pomocą programu Scrapebox. Dzięki tej usłudze możesz podlinkować swoje strony zapleczowe, wpisy w katalogach czy artykuły w preclach, wszystkie strony gdzie są backlinki do Twojej strony. Ponad 600 tysięcy linków skutecznie wzmocni Twoje backlinki.
       
      Koszt: 150.00zł
      Promocja: za zakup dwóch blastów trzeci GRATIS !
      magaBLAST - megaPROMOCJA! - kup 5 blastów a drugie 5 otrzymasz GRATIS !

      Uwaga !
      Blast nie jest przeznaczony do Twojej strony głównej tylko do stron linkujących ją !
      Dane kontaktowe: marecky@retsat1.com.pl
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue. Terms of Use Privacy Policy