Jump to content

Mendax

Forumowicze
  • Content Count

    297
  • Joined

  • Last visited

Everything posted by Mendax

  1. e-weblink.com: moje podejrzenia byly juz w kilka miesiecy po starcie webmini, kiedy na jednej domenie z tym skryptem widzialem tylko moje linki, ale o sprawie zapomnialem. ostatnio wrocilem jednak do uzywania SWL-i. po otworzeniu pliku .wbl mamy przykladowo cos takiego (domene wydeytowalem): albo (podobnie: domena ora dodatkowo urle wyedytowana): nie chce podawac wiecej przykladow na forum, wystarczy otworzyc jakikolwiek plik wbl w edytorze i samemu sie dostrzeze wzor. wyraznie widac, ze w jednej paczce laduja linki, dodane za pomoca multilinka (czy jak tam nazywacie funkcje dodawani
  2. Xann: nie mam wprawdzie pewnosci, ale przypuszczam, ze znalazlem, hm... blad, niedociagniecie, nie wiem, jak to nazwac... zalozmy, ze user na koncie "pro" dodaje w jednym momencie 400 linkow do wpisow w katalogach i przypisuje je do jednej grupy przy priorytecie "1" a nastepnie przydziela na grupe 400k punktow. zalozmy, ze 1000pkt umozliwia "wypchniecie" pary link-anchor raz na godzine. zatem po uplynieciu godziny od dodania tych linkow zostana one "wypchniete" na strony-emitenty, w paczkach po 250 par link-anchor, prawda? i teraz, jesli dobrze zaobserwowalem, w takiej jednej paczce ida li
  3. czy jest mozliwosc "hurtowego" kupienia kodow?
  4. google.com -> make money online pierwszy wynik (makemoneyforbeginners blogspot com) to wlasnie idealnie skontruowana w tym momencie strona dla wielkiego g.
  5. proponuje zamknac watek na tym wpisie. polecialo mi 5% stron klientow - tych, dla ktorych przesadzilem z sytuacja, kiedy anchor=dokladna fraza i jednoczesnie nie dywersyfikowalem IP linkow przychodzacych poza standardowe katalogi/precle i zaplecza na "seohostingach". no i poleciało mi ~30% wysokocontentowych "zaplecz", przy ktorych sie nie bardzo przykladalem w linkowaniu. przy czym co ciekawe, wszystkie, ktore polecialy mialy PR2 lub mniej.
  6. z tym, zeby wszystko trzymac na jednym IP to jest tanio, skutecznie i w ogole, ale w pewnym momencie moze przyjsc "malpiatka" z g. lub spamraport -> 95% domen dostaje bana i pozniej jest placz na forum, ze prawie cale zaplecze pooooszlo. nie wiem, jaki jest biznes w tym, zeby uczyc nowicjuszy rzeczy, ktore sa potencjalnie niebezpieczne.
  7. czy ktokolwiek wie co sie stalo, ewentualnie kiedy bedzie mozliwosc ponownego zalogowania/rejestracji? albo moze ktos posiada kontakt do wlasciciela? bo to byl jeden z 3 najlepszych katalogow w polskiej sieci...
  8. cos w rodzaju studium przypadku na calkiem IMHO dobrej strone: http://trafficplanet.com/topic/2372-succes...seo-case-study/ podana jest nazwa domeny - polecam spojrzenie chocby na wykres Aleksy. __ jesli chodzi o konkurencje, to absolutnie nie lezy ani w naszym ani w interesie zwyklych uzyszkodnikow, aby byl to Bing; Microshit jest korporacja jeszcze gorsza do wielkiego g.
  9. ta, najlepiej wybrac CMS, ktory wrecz nie istnieje! a powaznie, to uzywaj takiego skryptu, ktory: -szybciej zainstalujesz, -latwiej mozesz zarzadzac, kiedy bedziesz mial na nim setki stron.
  10. o tak banalna sprawe, jak maksymalna dywersyfikacja zaplecza nawet nie pytam. g. juz ~4 lata temu mialo system "wykrywania zapytan wykonywanych przez pozycjonerow" (i czasem szli z tym do ISP). jestem pewien, ze od tego czasu mocno to rozwineli.
  11. testowali to juz u nas w pl na domenach regionalnych. alez sie prosto filtrowalo konkurencje;).
  12. Szokowizna, slabo szukales: http://support.google.com/webmasters/bin/a...p;answer=189077 a reszta wypowiadajacych sie w tym temacie: Panowie, sledzcie uwazniej, co g. wprowadza, bo kiedys sie obudzicie w ciemnej...
  13. jeden z moich klientow prowadzi bloga na WP. niestety udostepnial RSS z komentarzami do wpisow. w zeszlym tygodniu odkrylismy, ze ktos (prawdopodobnie RU) puszcza maszynke XRumero-podobna kopiujac komentarze z bloga klienta i doklejajac do tego adres domeny. oczywiscie zaskutkowalo to umieszczeniem strony na kilku blacklistach, przede wszystkim Akismetowej. i teraz pytania: -czy jesli zablokowalem publikacje RSS z komentarzami, to proceder sie skonczy? innymi slowy (pytanie do tych, ktorzy stosuja takie techniki), czy jeszcze jakos mozna podbierac efektywnie content oprocz RSS-ow? -ile trw
  14. czemu serpstat nie respektuje zapisow w robots.txt? skoro mam cos takiego: User-Agent: Googlebot Allow: / User-Agent: * Disallow: / to znaczy, ze nie zycze sobie, zeby jakikolwiek robot (oprocz g.) lazil mi po stronach i wyciagal do kogo linkuje. zatem pytanie, czy i kiedy zaczniecie respektowac robots.txt? czy moze bede musial blokowac was po ip?
  15. po pierwsze chcialem napisac, ze dodawarka pierwsza klasa! koszt zakupu zwrocil mi sie juz chyba kilkusetkrotnie natomiast cztery uwagi: -po pierwsze jesli w tekscie do precli znajduje sie apostrof ' to wywala blad SQL-a (brak filtrowania?) BŁĄD:You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near 'bla|bla|bla' at line 21 -druga moja uwaga jest taka, ze przydaloby sie rozdzielic nazwe projektu od nazwy domeny. chcialbym moc np. zrobic tak, ze puszczam dodawanie artykulow do WebMini, a po skonczeniu puszcz
  16. heh, widze, ze coraz wieksza liczba ludzi dala sobie wmowic, ze problem wynika z niedostatecznej/zlej optymalizacji strony. powodzenia. ja zaczynam odbudowywac zaplecze pod SWL-e. zamiast pozycjonowac swoje, bede filtrowal konkurencje - jak ten algo wprowadza na caly indeks, to stanie sie to bardziej oplacalne.
  17. czyta, ale nie respektuje prostego User-Agent: * Disallow: /
  18. no i? podeslij mi na maila jakies Twoje "zadbane zaplecze", to je zafiltruje w kilka dni. ja widze te sprawe tak, ze owszem, przy niektorych domenach my - SEO-wcy schrzanilismy, ale w tym momencie wystarczy, ze konkurencja przylozy ze 100k punktow w SWL-u i strona klienta wypada. Panie Szymanski, do Pana tylko jedno pytanie: czy algorytm odsiewajacy "spam" zostanie rozszerzony na caly polski indeks?
  19. Panowie, z calym szacunkiem, ale dyskusja tutaj jest jalowa: wielkie g. jest zle, podpier***/lizydu** sa zli, a w zaden sposob nie zblizamy sie do ustalenia, co jest przyczyna spadkow. dlatego kilka moich obserwacji, opartych na probce kilkudziesieciu domen. akcja z poczatku pazdziernika miala dotknac subdomeny. niejako przy okazji oberwalo sie domenom typu wroc.pl, gda.pl, lublin.pl, poznan.pl, krakow.pl, gliwice.pl i chyba kilka innych - generalnie tym, ktore nie sa obslugiwane przez NASK, a wiec z punktu widzenia systemu DNS/NASK są "subdomenami" wlasnie. potwierdzam, ze "filtr" da sie
  20. Mendax

    PikoCMS

    Darq: w .htaccess musi być też kod tego typu: RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteRule . index.php [L] w Twoim nie ma. HaZe: wyglada na to, ze cos edytowales w kodzie i usunales/zmieniles funkcje fixslash. ewentualnie nie jest ona odpalana przy zapisie tresci do pliku z danymi. bez wiedzy, co zmieniles nie jestem w stanie pomoc.
  21. wielokrotnie zdarzalo mi sie, ze G. zaindeksowalo wersje rozwojowe serwisow (czyli bez linkow), po ktorych surfowali programisci, uzywajacy Chrome'a. wniosek? jesli zajmujesz sie SEO, to nawet Chrome nie instaluj, chyba ze chcesz pozniej plakac, ze "zbanowali mi zaplecze", "dostalem filtry" itp.
  22. tia, i za takie "bledy" wylatuje sie poza 1000. ciekawe.
  23. taa, ogolnie jest swietnie, tylko nie mowimy o wszystkich domenach regionalnych, a jedynie o tych, ktorych sie nie zarejestruje u partnerow NASK-u (jak lublin.pl, gda.pl, wroc.pl). gdyby taki filtr dotknal dokladnie wszystkie domeny regionalne, to paradoksalnie sprawa bylaby jasniejsza: potezna zmiana algorytmu. ale nie, strony na domenach typu waw.pl, wroclaw.pl, katowice.pl sa nienaruszone. mnie tydzien temu wrocila wiekszosc tych, ktore wczesniej polecialy. ale nadal 3 autorytatywne domeny z dobrym contentem nie sa widoczne w 1000 wynikow na niektore frazy, jednoczesnie bedac w TOP3 na i
  24. zakręcony: http://www.google.com/support/forum/p/Webm...b68f2&hl=pl to nie jest "filtr", to najwiekszy blada googiela w algo, jaki widzialem. jak ktos ma jakis kontakt bezposredni do Kaspara, to niech mu uzmyslowi, ze tak "poprawili" algo, ze praktycznie wyeliminowali nie-NASK-owe domeny regionalne. FreeS: mnie nie polecialy nawet ewidentne spamy na subdomenach "normalnych" domen, a jedynie kilku klientow na regionalkach, a to i tak wyrywkowo, bo niektorych fraz nie ma w 1000, a inne trzymaja sie na 1. miejscu. o, albo mam cos takiego:
  25. Panowie, zasadnicze pytanie: czy to byly domeny na regionalkach nie-NASK-owych? mam na mysli np poznan.pl, krakow.pl, wroc.pl bo mnie polecialy tylko takie i nie byly to bynajmniej zapleczowki, a strony klientow. ba! konkurencja na takich "domenach" tez oberwala. ktos w g. chyba wcisnal jeden przycisk za duzo...
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue. Terms of Use Privacy Policy