Jump to content

rymasz

Forumowicze
  • Content Count

    15
  • Joined

  • Last visited

Posts posted by rymasz

  1. OK, wiem chyba o co chodzi :) Wnioski dwa:

    1) jak nie powysyłam konkretnych zapytań do firm, to nie dostanę odpowiedzi tego typu, na którym mi zależy ;)

    2) każda firma z branży SEO działa tak, jak jej się podoba. W zależności od tego ilu i jakich ma klientów oraz jakie ma moce przerobowe, pozwala sobie z klientami pogrywać tak, albo inaczej :)

    Ogólnie chodziło mi o kwestię "dobrych praktyk".

    Czyli czy są zasady typu np. "renomowane i wiarygodne firmy robią optymalizację w cenie". Ale już rozumiem, że to nie jest ze sobą powiązane i rozrzut jest szeroki.

    • Like 1
  2. Już Ci users nie starcza? :P

    Co Ty mnie śledzisz? ;)

    płatny audyt

    Ty za darmo pracujesz ? ;)

    W sumie tak ;)

    A tak poważniej - to zawsze było dla mnie jasne, że koszt optymalizacji strony jest rozłożony na wielomiesięczną umowę.

    Natomiast mam wrażenie, że firmy pozycjonujące się wycwaniły i albo ciągną w ten sposób więcej kasy, albo dają niższą cenę usług w stosunku do firm, które optymalizują.

    Pomijając moją ocenę, to jak postępuje większość firm na naszym rynku? Optymalizują w cenie pozycjonowania, czy nie?

    Bo tak naprawdę to każdy wariant jest mi biznesowo na rękę, natomiast czegoś się trzeba trzymać.

  3. Chciałem podpytać z ciekawości, jakie zasady współpracy obowiązują aktualnie na polskim rynku SEO/SEM, a konkretnie co jest do roboty po stronie pozycjonerów, a co po stronie właścicieli witryn.

    Skąd mam ten problem? Z pozycjonowania nie żyję, czasem pomagam w temacie znajomym. Stąd niekoniecznie jestem na bieżąco i trwam w przekonaniu, że po stronie wykonawcy usług rozumianych jak pozycjonowanie jest m.in. "SEO" czyli optymalizacja witryny pod kątem wyszukiwarek. Na nią składają się m.in.: w oparciu o ustalone frazy kluczowe - odpowiednie nasycenie nimi strony, m.in. w znacznikach title, h1..h5, w linkach, w atrybutach alt, w atrybutach title itp. Dodatkowo poprawienie drobnych błędów pod validator, utworzenie sitemap, robots.txt itp. zabiegi.

    Natomiast spotykam się od zeszłego roku z takim podejściem firm pozycjonujących:

    - robimy audyt, za który klient ma kilka stówek zapłacić (wtedy dostanie raport),

    - następnie klient we własnym zakresie poprawia i optymalizuje sobie stronę (sam lub poprzez "swoich ludzi"),

    - jak już wszystko zrobi, to firma pozycjonująca bierze się za robotę.

    Zdziwiło mnie to, bo kiedyś chyba było tak, że jak pozycjoner kasował klienta za swoją robotę to on brał na swoje barki optymalizację strony i potrzebował też w niej czasem pogrzebać.

    Mówię ogólnie i chodzi mi o proste przykłady niedużych stron internetowych, bo jasne jest że z ogromnymi serwisami na egzotycznych frameworkach niekoniecznie firmy pozycjonujące sobie poradzą, więc można wtedy zasady domawiać.

    Zatem jak jest dzisiaj - tak ogólnie i dla klientów z małymi firmami (stronami)?

    Gdyby było tak, jak niektóre firmy sobie życzą (płatny audyt, umywamy rączki od optymalizacji, kasujemy niemało w sumie tylko za linkowanie) to byłoby świetnie dla osób z tego rynku - w sensie dojenia klienta z kasy. Z punktu widzienia klienta jednak, jak zobaczyłem takie oferty to zapaliło mi się światełko ostrzegawcze, że chyba ktoś próbuje tu naciągać / przerzucać odpowiedzialność za ewentualne niepowodzenie.

  4. @dziki_rysio_997 - "depozycjonowanie" takie proste słowo i wszystko jasne. Dzięki :)

    @G.Prawda - dzięki za informacje. Po głowie mi nie chodzą takie zachowania, ale za każdym razem jak czytam, by uważać i nieprzeginać z linkowaniem/pingami itp. bo zostanie się uznanym za spammera, to drapię się po głowie, że skoro tak to, ktoś może mi zrobić "niedźwiedzią przysługę". Przy okazji bym podpytał - tak w skrócie o co chodzi z tym, że linki przychodzące szkodzą?

  5. Ale akcję "kretyn" rozumiem jako pozycjonowanie czyjegoś serwisu na hasło, na którym właścicielowi nie zależy (czy wręcz jest niepożądane). Mnie chodzi po głowie, czy w ramach czarnego SEO, są możliwe praktyki osłabiające strony konkurencji na hasła na których im zależy ... Testów na żywym organiźmie przeprowadzać nie będę, bo to raz że niemoralne :faja:, dwa nie mam narzędzi do masowego spamowania, trzy nie wyrabiam się czasowo z poważniejszymi rzeczami. Tak chciałem tylko rozwiać swoje wątpliwości ...

  6. jak dobrze znasz dane skrypty i poznasz te kilka komend do rozpoznawania skryptów to będzie się dobrze sprawdzał

    Ale to rozumiem działa raczej na zasadzie - "przetestuj wskazane adresy pod kątem danej platformy" i dla każdego typu katalogów trzeba wypełniać [Wyszukiwany ciąg znaków] + [Ciąg znaków do dodania] + wczytać footprinty?

    Mnie się marzy takie coś, gdzie raz konfiguruje się definicje katalogów (footprinty + najczęstsze adresy podstron + najczęstsza budowa formularza) i później już tylko mieli URL'ami (ewentualnie co jakiś czas te definicje rozbudowuje).

    Licorne AIO tez ma taką opcję - oczywiście jak dobrze skonfigurujesz footprinty wcześniej

    Dzięki za informację. Od razu podpytam - Licorne obsługuje tylko footprinty, czy jest "inteligentniejsze"?

    Jeszcze odnośnie moich marzeń, to byłoby super gdyby program potrafił znaleźć, że pod adresem:

    jakas_domena/jakis_podkatalog/2013/jakis-wpis-ze-slowami-seo-w-urlu/?c=12

    jakiś katalog SEO "siedzi" pod adresem jakas_domena/jakis_podkatalog/

    a w innym wypadku jest pod adresem jakas_domena

    czyli inteligentnie sprawdzał różne możliwości, bo czasami ze skrócenia URL'a do root'a dużo nie wynika...

  7. Prośba o dyskusję i podzielenie się doświadczeniami - czy wg Was można "wycinać" konkurencję i jak Google sobie z takimi zachowaniami radzi?

    Od czasu do czasu czytam o tym, że co za dużo to niezdrowo. Że masowe pingi do wyszukiwarek = spammer. Że spamowanie linkami = spammer. Że linki ze śmieciowych miejsc = spammer.

    I tak zastanawiam się nad prawdziwością powyższego i tym jak Google to ogarnia. Na ile rozumiem zagadnienie, nic nie stoi przecież na przeszkodzie, by "posiać" trochę konkurencji. I jeśli spamowanie by przynosiło negatywne skutki, to czy taka strategia nie byłaby możliwa - "Jesteś na 11 pozycji? Wytnij 5 z TOP10 a będzie efekt" ???

    Do głowy mi jeszcze przyszło, że gdyby analizowana była ilość "dobrych BL" w stosunku do spamu i jeśli strona miałaby ich jakiś procent, to może "wycinać" by się dawało przez gwałtowny przyrost "dobrych BL" czyli zaburzenie tempa przyrostu linków.

    Czy jednak by wyłapać filtr/bana, trzeba się postarać o niego w kodzie/treści pozycjonowanej strony?

  8. Krótko i na temat - szukam desktopowego narzędzia do sprawdzania typów katalogów. Czy możecie coś polecić?

    Znam "Platform Link Reader" oraz "Sick Platform Reader" - przydatne, ale skuteczność oceniam jako średnią / względną.

    Próbowałem skorzystać z Google oraz tutejszej wyszukiwarki, ale efekt marny.

    Marzy mi się soft, który będzie analizował adres pod kątem:

    1) słów w HTML'u / footprintów (jak powyższe)

    2) istnienia dodatkowych stron/adresów typowych dla danego katalogu

    3) analizy strony z formularzem dodawania wpisu

    4) z podstawowym sprawdzeniem czy formularz jakkolwiek działa

    ... i dopiero przy prawdziwości kilku z testów na dany katalog, kwalifikował adres jako dany katalog.

    Czy istnieje coś takiego, czy muszę pisać sam? Może być płatne, ale w granicach rozsądku.

    Z góry dziękuję za podpowiedzi.

  9. @rymasz - nic złego się nie stanie, po prostu ten jeden odpalony cron na minutę może iść na marne (z bazy może pobrać sprawdzone przed momentem adresy).

    Dziękuję. Intuicja mi podpowiadała, że powinno być jak piszesz, natomiast co jest w kodzie i jakie zależności w bazie panują, i jakie pliki tymczasowe są tworzone to już tylko umysł autora ogarnia :)

    Przy okazji zapytam:

    - czy rozpoznawanie katalogów ma jakiś ogólny mechanizm przyjmowania linków do sprawdzenia? W sensie podawać adres strony głównej katalogu / precla, czy może adres formularza dodawania?

    Np. mam dylemat czy linki PHPld powinienem podawać jako "root" czy jako podstronę submit.php lub odpowiednik.

    Jeśli było, to przepraszam :) Obiecałem, że przeczytam wątek, ale podjarałem się harvestowaniem i sprawdzaniem katalogów - tak mi zszedł weekend :)

  10. Można ewentualnie delikatnie podkręcać ilość do momentu aż przestanie wyrabiać.

    A po czym poznać, że już nie wyrabia?

    I prośba / sugestia - czy dałoby się samą detekcję dać do osobnego skryptu / zadania crona i tak, by zwracane były przez skrypt jakieś wyniki, choćby poglądowe, że coś się dzieje i ile, a najlepiej co rozpoznał na jakim adresie ??? Motywuję powyższe, że mam wrażenie poruszania się po omacku jako początkujący i wiele kwestii jest dla mnie niejasne. Np. czy adresy PHPld dawać z submit.php na końcu, czy domenę główną, a może skrypt sam sobie z tym radzi ...

    UPDATE - cron_detector.php jest chyba tym o czym myślałem .... I obstawiam, że poznać niewyrabianie można po błędzie 500 Internal Server Error ;)

    UPDATE #2 - wymyśliłem taki patent (pewnie niezbyt oryginalny)

    1) $speed_detector = 1; // ponieważ czasem skrypt mieli bardzo długo na jednym adresie (np. długo czeka na załadowanie czy coś i nawet dla wartości 10 pojawiały się 500-ki)

    2) w Firefoxie dodatek ReloadEvery ustawiony na przeładowanie skryptu cron_detector.php co sekundę (przy czym nie odświeża, dopóki nie załadował)

    UPDATE #3 - wymyśliłem trochę bardziej oryginalny patent. Potrzebne jest jakiekolwiek konto shell + screen + wget + mail. I teraz tworzymy sobie skrypt bash'a o zawartości:

    #!/bin/bash

    while true; do

    date +"%Y-%m-%d %T"

    echo "" > res_cron_detector.txt

    for i in `seq 1 1000`

    do

    echo "Wywolanie skryptu nr $i"

    wget -qO- http://moj-serwer/cron_detector.php >> res_cron_detector.txt

    done

    cat res_cron_detector.txt | mail -s "[DLA] Detekcja katalogow" moj_wlasny@adres_pocztowy.pl

    done

    Następnie odpalamy skrypt w screenie i czekamy na wyniki :) Co 1000 wykonań powinien dotrzeć email z podsumowaniem ...

    I teraz prośba o konsultację do @okazwłoka, w związku z "powielanie będzie powodowało problemy":

    - czy jeśli cron_detector.php chodzi tak odpalony oraz raz na minutę jest odpalony z cron'a po stronie serwera, to coś może się stać złego?

  11. Odnośnie speed.php to ja też bym podpytał - zależy mi na zwiększeniu prędkości detekcji katalogów. Czy można jakoś wyłuskać takie zadanie i znacząco podnieść prędkość rozpoznawania?

    Na razie ustawiłem $speed_detector = 25; ale obstawiam, że to ciągle mało jak dla mnie na chwilę obecną (początki pracy z programem, masa linków do przemielenia). A może powielenie zadań cron'a pomoże?

    Jeśli odpowiedź gdzieś wcześniej się przewinęła, to w weekend będę przewalał wszystkie 240 podstron - prośba o wyrozumiałość ;)

×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue. Terms of Use Privacy Policy