Skocz do zawartości

mlody0072

Oficjalne
  • Postów

    739
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    12

Treść opublikowana przez mlody0072

  1. Jeśli masz na myśli dodawanie + (plusów) i kropek w mailu to można to zablokować bez problemu krótkim skryptem w PHP. Ja robię tak że jeśli klient się loguje z gmail i zrobić jakieś kropki czy plusy to mu je kasuje i zostawiam normalnego maila. Nie wpływa to później na logowanie. Przy próbie rejestracji kolejnego konta z tego samego gmaila dostaje komunikat ze już taki użytkownik istnieje Co do aplikacji to wszystko zależy jaka będzie cena pakietów. Ja obecnie używam usercheck.com mają limit do 1000 sprawdzeń według mnie działa spoko. Używam chyba już drugi rok.
  2. Potrzebujesz serwisów, na których możesz umieścić artykuły sponsorowane wraz z linkami dofollow dla swoich klientów? Świetnie trafiłeś! Posiadamy aż 271 portali o różnorodnej tematyce, na których możesz opublikować swoje artykuły. NIE MASZ GOTOWYCH TEKSTÓW DO PUBLIKACJI? Bez obaw, napiszemy je dla Ciebie i dodamy dwa zdjęcia do artykułów. Ile to kosztuje? Zaledwie 30 zł netto za każdą publikację.* Nie czekaj, zamów już dziś! JAK WYGLĄDA PROMOCJA W PAŹDZIERNIKU? Wystarczy, że zamówisz minimum 20 publikacji, a otrzymasz korzystną cenę - tylko 30 zł netto za jedną publikację. CHCESZ OTRZYMAĆ PEŁNĄ LISTĘ DOMEN? Napisz komentarz pod postem, skontaktujemy się z Tobą prywatnie. Możesz również podać nam swój adres e-mail, a odpiszemy na niego! Nasz adres e-mail to: info@opublikuj.eu. *Cena 30 zł netto dotyczy zakupu 20 lub większej liczby publikacji. Cena regularna: 50 zł netto.
  3. Artykuły sponsorowane Potrzebujesz serwisów gdzie mógłbyś zamieścić artykuł sponsorowany wraz z linkiem dofollow dla swoich klientów? Bardzo dobrze trafiłeś posiadamy 241 portali z różnej tematyki na których możesz zamieścić swoją publikacje. NIE MASZ TEKSTÓW DO PUBLIKACJI? Nie szkodzi napiszemy je dla Ciebie oraz dodamy dwa zdjęcia do publikacji. ILE TO KOSZTUJE ZAPYTASZ? Niewiele tylko 25zł netto za publikację.* Nie zwlekaj zamów już dziś. JAK WYGLĄDA PROMOCJA W LIPCU? Wystarczy że zamówisz minimum 15 publikacji a otrzymasz super cenę 25zł netto za jedną publikację. CHCESZ OTRZYMAĆ PEŁNĄ LISTĘ DOMEN? Napisz komentarz pod postem odezwiemy się do Ciebie w prywatnej wiadomości lub zostaw do siebie email odpiszemy! *Cena 25zł netto można uzyskać przy zakupie 15 i więcej publikacji. Cena regularna 50zł netto https://opublikuj.eu/ Piersa.pl Adam Piersa ul. Stefana Jaracza 18/28 07-409 Ostrołęka NIP: 758 222 07 07
  4. @SinusMaximus Gdzie Ty wyczytałeś ze konto kosztuje 2/3 tyś funtów ? Bo konto z API i pełnymi prawami do udostępniania danych w swoich aplikacjach masz już od 250 funtów miesięcznie. Kupując na rok masz już nie całe 210 funtów.
  5. Na publicznych proxy google przykręciło śrubę wczoraj od godziny 14-15 widoczny spadek wydajności proxy. Jak wiadomo w nocy się to pogorszyło bo wszystkie sprawdzarki ruszyły do boju. Trzeba czekać może wróci do normy jak co rok ten sam cyrk od Google
  6. Ja u siebie w sklepie sprawdzam wszystko po http i nie zaobserwowałem problemów dziś w nocy
  7. Jest jeden zero dla nas jak Polska wygra pierwsza trójka z konkursu dostaje pakiet 60 proxy Google na 30 dni gratis.
  8. Problemy z proxy są od 25 lutego dokładnie od godziny 20:40 także dotyczy to wszystkich nie tylko jednego użytkownika.
  9. Tylko że to w 100% nie wyłączy połączenia szyfrowanego przez curl trzeba grzebnąć w kodzie zapytania.
  10. Przez http także jest gorzej niż było wcześniej ale działa. W stat4seo można zmienić https na http przez phpmyadmin z tego co wdziałem.
  11. Ponieważ stat4seo nadal sprawdza pozycję przez https
  12. Myślę, że jak autorzy poprawią to aby o sam z siebie soft nie generował obciążenia będzie można i 20-40 wątków ustawić na takich parametrach. Obecnie soft żyje sam czyli coś sobie dłubie "po cichu" Dwa wątki podczas restartu o 100% procka ? Tu chyba nie ma znaczenia ile wątków bo i tak procesor idzie na 100%. Przeciez sama z siebie bot który wykonuje kliknięcia przepisywanie danych nie potrzebuje takiej mocy. Ktoś coś spier..... podczas projektowania lub jest to celowe działanie aby listy nie padały tak szybko Nie to, że coś nażekam jakoś to idzię całe profilowanie tym softem.
  13. Nie wiem na jakiej zasadzie działa ten restart ale chyba powinno to inaczej działać. Program powinien sprawdzać poszczególne procesy i mierzyć ich czas wykonywania i jeśli proces nie odpowiada powinien być zabijaniu. W sumie nie wiem program odpalamy nic nie robi tworzymy projekt procesor na 25% leci od razu czyli jak nic nie robi to co on robi? Moze juz o tym ktoś pisał na forum ale nie czytałem tematu. Jeden projekt to minimum 30 godzin przy 10 wątkach. Jaka skuteczność macie na dołączonej bazie 5000+?
  14. Chyba nie takie hasło bo zalogować się nie można ;/
  15. @Krzysztof_kf - tego nie sprawdzałem najbardziej mi zależało na ograniczeniu ruchu na serwerze, ostatni boty strasznie zamulały mi jednego vpsa. Później przetestuje na jakiejś domenie czy widać linki czy nie w MS i Ahrefs ale tak jak mówi Zgerd wszystkiego nie wytniesz, wchodzą boty pod innymi nazwami i nadal indeksują dalej. Lecz jeśli komuś boty zamulają serwer polecam wrzucić to co podałem u mnie działa
  16. Ja na swoich stronach tak blokuję (może lista nie jest aktualna ale po wrzuceniu do pliku htaccess zbędny ruch zmalał i to znacznie ) <Limit GET POST> #The next line modified by DenyIP order allow,deny #The next line modified by DenyIP #deny from all allow from all </Limit> <Limit PUT DELETE> order deny,allow deny from all </Limit> <Files 403.shtml> order allow,deny allow from all </Files> SetEnvIfNoCase User-Agent .*Twiceler.* bad_bot SetEnvIfNoCase User-Agent .*trovitBot.* bad_bot SetEnvIfNoCase User-Agent .*MJ12bot.* bad_bot SetEnvIfNoCase User-Agent .*AhrefsBot.* bad_bot SetEnvIfNoCase User-Agent .*VoilaBot BETA 1.2.* bad_bot SetEnvIfNoCase User-Agent .*libwww-perl/5.805.* bad_bot SetEnvIfNoCase User-Agent .*Java/1.5.0_11.* bad_bot SetEnvIfNoCase User-Agent .*Sogou web spider/3.0.* bad_bot SetEnvIfNoCase User-Agent .*psbot.* bad_bot SetEnvIfNoCase User-Agent .*Exabot.* bad_bot SetEnvIfNoCase User-Agent .*Charlotte/1.0b.* bad_bot SetEnvIfNoCase User-Agent .*boitho.com-dc.* bad_bot SetEnvIfNoCase User-Agent .*ajSitemap.* bad_bot SetEnvIfNoCase User-Agent .*bot/1.0.* bad_bot SetEnvIfNoCase User-Agent .*panscient.com.* bad_bot SetEnvIfNoCase User-Agent .*Java/1.6.0_11.* bad_bot SetEnvIfNoCase User-Agent .*WebDataCentreBot/1.0.* bad_bot SetEnvIfNoCase User-Agent .*Java.* bad_bot SetEnvIfNoCase User-Agent .*SapphireWebCrawler.* bad_bot SetEnvIfNoCase User-Agent .*Yandex.* bad_bot SetEnvIfNoCase User-Agent .*Baiduspider.* bad_bot SetEnvIfNoCase User-Agent .*Rankivabot.* bad_bot SetEnvIfNoCase User-Agent .*DBLBot/1.0.* bad_bot SetEnvIfNoCase User-Agent "^Black Hole" bad_bot SetEnvIfNoCase User-Agent "^Titan" bad_bot SetEnvIfNoCase User-Agent "^WebStripper" bad_bot SetEnvIfNoCase User-Agent "^NetMechanic" bad_bot SetEnvIfNoCase User-Agent "^CherryPicker" bad_bot SetEnvIfNoCase User-Agent "^EmailCollector" bad_bot SetEnvIfNoCase User-Agent "^EmailSiphon" bad_bot SetEnvIfNoCase User-Agent "^WebBandit" bad_bot SetEnvIfNoCase User-Agent "^EmailWolf" bad_bot SetEnvIfNoCase User-Agent "^ExtractorPro" bad_bot SetEnvIfNoCase User-Agent "^CopyRightCheck" bad_bot SetEnvIfNoCase User-Agent "^Crescent" bad_bot SetEnvIfNoCase User-Agent "^Wget" bad_bot SetEnvIfNoCase User-Agent "^SiteSnagger" bad_bot SetEnvIfNoCase User-Agent "^ProWebWalker" bad_bot SetEnvIfNoCase User-Agent "^CheeseBot" bad_bot SetEnvIfNoCase User-Agent "^Teleport" bad_bot SetEnvIfNoCase User-Agent "^TeleportPro" bad_bot SetEnvIfNoCase User-Agent "^MIIxpc" bad_bot SetEnvIfNoCase User-Agent "^Telesoft" bad_bot SetEnvIfNoCase User-Agent "^Website Quester" bad_bot SetEnvIfNoCase User-Agent "^WebZip" bad_bot SetEnvIfNoCase User-Agent "^moget/2.1" bad_bot SetEnvIfNoCase User-Agent "^WebZip/4.0" bad_bot SetEnvIfNoCase User-Agent "^WebSauger" bad_bot SetEnvIfNoCase User-Agent "^WebCopier" bad_bot SetEnvIfNoCase User-Agent "^NetAnts" bad_bot SetEnvIfNoCase User-Agent "^Mister PiX" bad_bot SetEnvIfNoCase User-Agent "^WebAuto" bad_bot SetEnvIfNoCase User-Agent "^TheNomad" bad_bot SetEnvIfNoCase User-Agent "^WWW-Collector-E" bad_bot SetEnvIfNoCase User-Agent "^RMA" bad_bot SetEnvIfNoCase User-Agent "^libWeb/clsHTTP" bad_bot SetEnvIfNoCase User-Agent "^asterias" bad_bot SetEnvIfNoCase User-Agent "^httplib" bad_bot SetEnvIfNoCase User-Agent "^turingos" bad_bot SetEnvIfNoCase User-Agent "^spanner" bad_bot SetEnvIfNoCase User-Agent "^InfoNaviRobot" bad_bot SetEnvIfNoCase User-Agent "^Harvest/1.5" bad_bot SetEnvIfNoCase User-Agent "^Bullseye/1.0" bad_bot SetEnvIfNoCase User-Agent "^Mozilla/4.0 (compatible; BullsEye; Windows 95)" bad_bot SetEnvIfNoCase User-Agent "^Crescent Internet ToolPak HTTP OLE Control v.1.0" bad_bot SetEnvIfNoCase User-Agent "^CherryPickerSE/1.0" bad_bot SetEnvIfNoCase User-Agent "^CherryPicker /1.0" bad_bot SetEnvIfNoCase User-Agent "^WebBandit/3.50" bad_bot SetEnvIfNoCase User-Agent "^NICErsPRO" bad_bot SetEnvIfNoCase User-Agent "^Microsoft URL Control - 5.01.4511" bad_bot SetEnvIfNoCase User-Agent "^DittoSpyder" bad_bot SetEnvIfNoCase User-Agent "^Foobot" bad_bot SetEnvIfNoCase User-Agent "^WebmasterWorldForumBot" bad_bot SetEnvIfNoCase User-Agent "^SpankBot" bad_bot SetEnvIfNoCase User-Agent "^BotALot" bad_bot SetEnvIfNoCase User-Agent "^lwp-trivial/1.34" bad_bot SetEnvIfNoCase User-Agent "^lwp-trivial" bad_bot SetEnvIfNoCase User-Agent "^Wget/1.6" bad_bot SetEnvIfNoCase User-Agent "^BunnySlippers" bad_bot SetEnvIfNoCase User-Agent "^Microsoft URL Control - 6.00.8169" bad_bot SetEnvIfNoCase User-Agent "^URLy Warning" bad_bot SetEnvIfNoCase User-Agent "^Wget/1.5.3" bad_bot SetEnvIfNoCase User-Agent "^LinkWalker" bad_bot SetEnvIfNoCase User-Agent "^cosmos" bad_bot SetEnvIfNoCase User-Agent "^moget" bad_bot SetEnvIfNoCase User-Agent "^hloader" bad_bot SetEnvIfNoCase User-Agent "^humanlinks" bad_bot SetEnvIfNoCase User-Agent "^LinkextractorPro" bad_bot SetEnvIfNoCase User-Agent "^Offline Explorer" bad_bot SetEnvIfNoCase User-Agent "^Mata Hari" bad_bot SetEnvIfNoCase User-Agent "^LexiBot" bad_bot SetEnvIfNoCase User-Agent "^Web Image Collector" bad_bot SetEnvIfNoCase User-Agent "^The Intraformant" bad_bot SetEnvIfNoCase User-Agent "^True_Robot/1.0" bad_bot SetEnvIfNoCase User-Agent "^True_Robot" bad_bot SetEnvIfNoCase User-Agent "^BlowFish/1.0" bad_bot SetEnvIfNoCase User-Agent "^JennyBot" bad_bot SetEnvIfNoCase User-Agent "^MIIxpc/4.2" bad_bot SetEnvIfNoCase User-Agent "^BuiltBotTough" bad_bot SetEnvIfNoCase User-Agent "^ProPowerBot/2.14" bad_bot SetEnvIfNoCase User-Agent "^BackDoorBot/1.0" bad_bot SetEnvIfNoCase User-Agent "^toCrawl/UrlDispatcher" bad_bot SetEnvIfNoCase User-Agent "^WebEnhancer" bad_bot SetEnvIfNoCase User-Agent "^TightTwatBot" bad_bot SetEnvIfNoCase User-Agent "^suzuran" bad_bot SetEnvIfNoCase User-Agent "^VCI WebViewer VCI WebViewer Win32" bad_bot SetEnvIfNoCase User-Agent "^VCI" bad_bot SetEnvIfNoCase User-Agent "^Szukacz/1.4" bad_bot SetEnvIfNoCase User-Agent "^QueryN Metasearch" bad_bot SetEnvIfNoCase User-Agent "^Openfind data gathere" bad_bot SetEnvIfNoCase User-Agent "^Openfind" bad_bot SetEnvIfNoCase User-Agent "^Xenu's Link Sleuth 1.1c" bad_bot SetEnvIfNoCase User-Agent "^Xenu's" bad_bot SetEnvIfNoCase User-Agent "^Zeus" bad_bot SetEnvIfNoCase User-Agent "^RepoMonkey Bait & Tackle/v1.01" bad_bot SetEnvIfNoCase User-Agent "^RepoMonkey" bad_bot SetEnvIfNoCase User-Agent "^Zeus 32297 Webster Pro V2.9 Win32" bad_bot SetEnvIfNoCase User-Agent "^Webster Pro" bad_bot SetEnvIfNoCase User-Agent "^EroCrawler" bad_bot SetEnvIfNoCase User-Agent "^LinkScan/8.1a Unix" bad_bot SetEnvIfNoCase User-Agent "^Keyword Density/0.9" bad_bot SetEnvIfNoCase User-Agent "^Kenjin Spider" bad_bot SetEnvIfNoCase User-Agent "^Cegbfeieh" bad_bot order allow,deny deny from env=bad_bot allow from all jak ktoś by miał lepszą listę to bym poprosił o udostępnienie może być na PW
  17. Jeśli komuś potrzebne proxy do postowania to mogę udostępnić taki pakiet. Więcej szczegółów na PW.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności