Jump to content

Mendax

Forumowicze
  • Content Count

    297
  • Joined

  • Last visited

Community Reputation

0 Neutral

Contact Methods

  • Website URL
    http://www.fabrykaspamu.pl

Profile Information

  • Gender
    Male
  1. e-weblink.com: moje podejrzenia byly juz w kilka miesiecy po starcie webmini, kiedy na jednej domenie z tym skryptem widzialem tylko moje linki, ale o sprawie zapomnialem. ostatnio wrocilem jednak do uzywania SWL-i. po otworzeniu pliku .wbl mamy przykladowo cos takiego (domene wydeytowalem): albo (podobnie: domena ora dodatkowo urle wyedytowana): nie chce podawac wiecej przykladow na forum, wystarczy otworzyc jakikolwiek plik wbl w edytorze i samemu sie dostrzeze wzor. wyraznie widac, ze w jednej paczce laduja linki, dodane za pomoca multilinka (czy jak tam nazywacie funkcje dodawani
  2. Xann: nie mam wprawdzie pewnosci, ale przypuszczam, ze znalazlem, hm... blad, niedociagniecie, nie wiem, jak to nazwac... zalozmy, ze user na koncie "pro" dodaje w jednym momencie 400 linkow do wpisow w katalogach i przypisuje je do jednej grupy przy priorytecie "1" a nastepnie przydziela na grupe 400k punktow. zalozmy, ze 1000pkt umozliwia "wypchniecie" pary link-anchor raz na godzine. zatem po uplynieciu godziny od dodania tych linkow zostana one "wypchniete" na strony-emitenty, w paczkach po 250 par link-anchor, prawda? i teraz, jesli dobrze zaobserwowalem, w takiej jednej paczce ida li
  3. czy jest mozliwosc "hurtowego" kupienia kodow?
  4. google.com -> make money online pierwszy wynik (makemoneyforbeginners blogspot com) to wlasnie idealnie skontruowana w tym momencie strona dla wielkiego g.
  5. proponuje zamknac watek na tym wpisie. polecialo mi 5% stron klientow - tych, dla ktorych przesadzilem z sytuacja, kiedy anchor=dokladna fraza i jednoczesnie nie dywersyfikowalem IP linkow przychodzacych poza standardowe katalogi/precle i zaplecza na "seohostingach". no i poleciało mi ~30% wysokocontentowych "zaplecz", przy ktorych sie nie bardzo przykladalem w linkowaniu. przy czym co ciekawe, wszystkie, ktore polecialy mialy PR2 lub mniej.
  6. z tym, zeby wszystko trzymac na jednym IP to jest tanio, skutecznie i w ogole, ale w pewnym momencie moze przyjsc "malpiatka" z g. lub spamraport -> 95% domen dostaje bana i pozniej jest placz na forum, ze prawie cale zaplecze pooooszlo. nie wiem, jaki jest biznes w tym, zeby uczyc nowicjuszy rzeczy, ktore sa potencjalnie niebezpieczne.
  7. czy ktokolwiek wie co sie stalo, ewentualnie kiedy bedzie mozliwosc ponownego zalogowania/rejestracji? albo moze ktos posiada kontakt do wlasciciela? bo to byl jeden z 3 najlepszych katalogow w polskiej sieci...
  8. cos w rodzaju studium przypadku na calkiem IMHO dobrej strone: http://trafficplanet.com/topic/2372-succes...seo-case-study/ podana jest nazwa domeny - polecam spojrzenie chocby na wykres Aleksy. __ jesli chodzi o konkurencje, to absolutnie nie lezy ani w naszym ani w interesie zwyklych uzyszkodnikow, aby byl to Bing; Microshit jest korporacja jeszcze gorsza do wielkiego g.
  9. ta, najlepiej wybrac CMS, ktory wrecz nie istnieje! a powaznie, to uzywaj takiego skryptu, ktory: -szybciej zainstalujesz, -latwiej mozesz zarzadzac, kiedy bedziesz mial na nim setki stron.
  10. o tak banalna sprawe, jak maksymalna dywersyfikacja zaplecza nawet nie pytam. g. juz ~4 lata temu mialo system "wykrywania zapytan wykonywanych przez pozycjonerow" (i czasem szli z tym do ISP). jestem pewien, ze od tego czasu mocno to rozwineli.
  11. testowali to juz u nas w pl na domenach regionalnych. alez sie prosto filtrowalo konkurencje;).
  12. Szokowizna, slabo szukales: http://support.google.com/webmasters/bin/a...p;answer=189077 a reszta wypowiadajacych sie w tym temacie: Panowie, sledzcie uwazniej, co g. wprowadza, bo kiedys sie obudzicie w ciemnej...
  13. jeden z moich klientow prowadzi bloga na WP. niestety udostepnial RSS z komentarzami do wpisow. w zeszlym tygodniu odkrylismy, ze ktos (prawdopodobnie RU) puszcza maszynke XRumero-podobna kopiujac komentarze z bloga klienta i doklejajac do tego adres domeny. oczywiscie zaskutkowalo to umieszczeniem strony na kilku blacklistach, przede wszystkim Akismetowej. i teraz pytania: -czy jesli zablokowalem publikacje RSS z komentarzami, to proceder sie skonczy? innymi slowy (pytanie do tych, ktorzy stosuja takie techniki), czy jeszcze jakos mozna podbierac efektywnie content oprocz RSS-ow? -ile trw
  14. czemu serpstat nie respektuje zapisow w robots.txt? skoro mam cos takiego: User-Agent: Googlebot Allow: / User-Agent: * Disallow: / to znaczy, ze nie zycze sobie, zeby jakikolwiek robot (oprocz g.) lazil mi po stronach i wyciagal do kogo linkuje. zatem pytanie, czy i kiedy zaczniecie respektowac robots.txt? czy moze bede musial blokowac was po ip?
  15. po pierwsze chcialem napisac, ze dodawarka pierwsza klasa! koszt zakupu zwrocil mi sie juz chyba kilkusetkrotnie natomiast cztery uwagi: -po pierwsze jesli w tekscie do precli znajduje sie apostrof ' to wywala blad SQL-a (brak filtrowania?) BŁĄD:You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near 'bla|bla|bla' at line 21 -druga moja uwaga jest taka, ze przydaloby sie rozdzielic nazwe projektu od nazwy domeny. chcialbym moc np. zrobic tak, ze puszczam dodawanie artykulow do WebMini, a po skonczeniu puszcz
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue. Terms of Use Privacy Policy