
Mendax
Forumowicze-
Content Count
297 -
Joined
-
Last visited
Community Reputation
0 NeutralContact Methods
-
Website URL
http://www.fabrykaspamu.pl
Profile Information
-
Gender
Male
-
e-weblink.com: moje podejrzenia byly juz w kilka miesiecy po starcie webmini, kiedy na jednej domenie z tym skryptem widzialem tylko moje linki, ale o sprawie zapomnialem. ostatnio wrocilem jednak do uzywania SWL-i. po otworzeniu pliku .wbl mamy przykladowo cos takiego (domene wydeytowalem): albo (podobnie: domena ora dodatkowo urle wyedytowana): nie chce podawac wiecej przykladow na forum, wystarczy otworzyc jakikolwiek plik wbl w edytorze i samemu sie dostrzeze wzor. wyraznie widac, ze w jednej paczce laduja linki, dodane za pomoca multilinka (czy jak tam nazywacie funkcje dodawani
-
Xann: nie mam wprawdzie pewnosci, ale przypuszczam, ze znalazlem, hm... blad, niedociagniecie, nie wiem, jak to nazwac... zalozmy, ze user na koncie "pro" dodaje w jednym momencie 400 linkow do wpisow w katalogach i przypisuje je do jednej grupy przy priorytecie "1" a nastepnie przydziela na grupe 400k punktow. zalozmy, ze 1000pkt umozliwia "wypchniecie" pary link-anchor raz na godzine. zatem po uplynieciu godziny od dodania tych linkow zostana one "wypchniete" na strony-emitenty, w paczkach po 250 par link-anchor, prawda? i teraz, jesli dobrze zaobserwowalem, w takiej jednej paczce ida li
-
czy jest mozliwosc "hurtowego" kupienia kodow?
-
google.com -> make money online pierwszy wynik (makemoneyforbeginners blogspot com) to wlasnie idealnie skontruowana w tym momencie strona dla wielkiego g.
-
proponuje zamknac watek na tym wpisie. polecialo mi 5% stron klientow - tych, dla ktorych przesadzilem z sytuacja, kiedy anchor=dokladna fraza i jednoczesnie nie dywersyfikowalem IP linkow przychodzacych poza standardowe katalogi/precle i zaplecza na "seohostingach". no i poleciało mi ~30% wysokocontentowych "zaplecz", przy ktorych sie nie bardzo przykladalem w linkowaniu. przy czym co ciekawe, wszystkie, ktore polecialy mialy PR2 lub mniej.
-
z tym, zeby wszystko trzymac na jednym IP to jest tanio, skutecznie i w ogole, ale w pewnym momencie moze przyjsc "malpiatka" z g. lub spamraport -> 95% domen dostaje bana i pozniej jest placz na forum, ze prawie cale zaplecze pooooszlo. nie wiem, jaki jest biznes w tym, zeby uczyc nowicjuszy rzeczy, ktore sa potencjalnie niebezpieczne.
-
czy ktokolwiek wie co sie stalo, ewentualnie kiedy bedzie mozliwosc ponownego zalogowania/rejestracji? albo moze ktos posiada kontakt do wlasciciela? bo to byl jeden z 3 najlepszych katalogow w polskiej sieci...
-
cos w rodzaju studium przypadku na calkiem IMHO dobrej strone: http://trafficplanet.com/topic/2372-succes...seo-case-study/ podana jest nazwa domeny - polecam spojrzenie chocby na wykres Aleksy. __ jesli chodzi o konkurencje, to absolutnie nie lezy ani w naszym ani w interesie zwyklych uzyszkodnikow, aby byl to Bing; Microshit jest korporacja jeszcze gorsza do wielkiego g.
-
ta, najlepiej wybrac CMS, ktory wrecz nie istnieje! a powaznie, to uzywaj takiego skryptu, ktory: -szybciej zainstalujesz, -latwiej mozesz zarzadzac, kiedy bedziesz mial na nim setki stron.
-
o tak banalna sprawe, jak maksymalna dywersyfikacja zaplecza nawet nie pytam. g. juz ~4 lata temu mialo system "wykrywania zapytan wykonywanych przez pozycjonerow" (i czasem szli z tym do ISP). jestem pewien, ze od tego czasu mocno to rozwineli.
-
testowali to juz u nas w pl na domenach regionalnych. alez sie prosto filtrowalo konkurencje;).
-
jeden z moich klientow prowadzi bloga na WP. niestety udostepnial RSS z komentarzami do wpisow. w zeszlym tygodniu odkrylismy, ze ktos (prawdopodobnie RU) puszcza maszynke XRumero-podobna kopiujac komentarze z bloga klienta i doklejajac do tego adres domeny. oczywiscie zaskutkowalo to umieszczeniem strony na kilku blacklistach, przede wszystkim Akismetowej. i teraz pytania: -czy jesli zablokowalem publikacje RSS z komentarzami, to proceder sie skonczy? innymi slowy (pytanie do tych, ktorzy stosuja takie techniki), czy jeszcze jakos mozna podbierac efektywnie content oprocz RSS-ow? -ile trw
-
czemu serpstat nie respektuje zapisow w robots.txt? skoro mam cos takiego: User-Agent: Googlebot Allow: / User-Agent: * Disallow: / to znaczy, ze nie zycze sobie, zeby jakikolwiek robot (oprocz g.) lazil mi po stronach i wyciagal do kogo linkuje. zatem pytanie, czy i kiedy zaczniecie respektowac robots.txt? czy moze bede musial blokowac was po ip?
-
po pierwsze chcialem napisac, ze dodawarka pierwsza klasa! koszt zakupu zwrocil mi sie juz chyba kilkusetkrotnie natomiast cztery uwagi: -po pierwsze jesli w tekscie do precli znajduje sie apostrof ' to wywala blad SQL-a (brak filtrowania?) BŁĄD:You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near 'bla|bla|bla' at line 21 -druga moja uwaga jest taka, ze przydaloby sie rozdzielic nazwe projektu od nazwy domeny. chcialbym moc np. zrobic tak, ze puszczam dodawanie artykulow do WebMini, a po skonczeniu puszcz