Jump to content

rymasz

Forumowicze
  • Content Count

    15
  • Joined

  • Last visited

Everything posted by rymasz

  1. OK, wiem chyba o co chodzi Wnioski dwa: 1) jak nie powysyłam konkretnych zapytań do firm, to nie dostanę odpowiedzi tego typu, na którym mi zależy 2) każda firma z branży SEO działa tak, jak jej się podoba. W zależności od tego ilu i jakich ma klientów oraz jakie ma moce przerobowe, pozwala sobie z klientami pogrywać tak, albo inaczej Ogólnie chodziło mi o kwestię "dobrych praktyk". Czyli czy są zasady typu np. "renomowane i wiarygodne firmy robią optymalizację w cenie". Ale już rozumiem, że to nie jest ze sobą powiązane i rozrzut jest szeroki.
  2. Jak pisałem, wszelkie opcje są OK. Motywy biznesowe też rozumiem. Potrzebuję tylko ustalić jaki jest ogólny trend na rynku. Jak robi większość w przypadku małych serwisów internetowych? W sumie zawsze mogę porozsyłać zapytania do np. 20 podmiotów o zasady współpracy, ale pomyślałem, że najlepiej będzie zapytać na forum.
  3. Co Ty mnie śledzisz? Ty za darmo pracujesz ? W sumie tak A tak poważniej - to zawsze było dla mnie jasne, że koszt optymalizacji strony jest rozłożony na wielomiesięczną umowę. Natomiast mam wrażenie, że firmy pozycjonujące się wycwaniły i albo ciągną w ten sposób więcej kasy, albo dają niższą cenę usług w stosunku do firm, które optymalizują. Pomijając moją ocenę, to jak postępuje większość firm na naszym rynku? Optymalizują w cenie pozycjonowania, czy nie? Bo tak naprawdę to każdy wariant jest mi biznesowo na rękę, natomiast czegoś się trzeba trzymać.
  4. Chciałem podpytać z ciekawości, jakie zasady współpracy obowiązują aktualnie na polskim rynku SEO/SEM, a konkretnie co jest do roboty po stronie pozycjonerów, a co po stronie właścicieli witryn. Skąd mam ten problem? Z pozycjonowania nie żyję, czasem pomagam w temacie znajomym. Stąd niekoniecznie jestem na bieżąco i trwam w przekonaniu, że po stronie wykonawcy usług rozumianych jak pozycjonowanie jest m.in. "SEO" czyli optymalizacja witryny pod kątem wyszukiwarek. Na nią składają się m.in.: w oparciu o ustalone frazy kluczowe - odpowiednie nasycenie nimi strony, m.in. w znacznikach title, h1.
  5. @dziki_rysio_997 - "depozycjonowanie" takie proste słowo i wszystko jasne. Dzięki @G.Prawda - dzięki za informacje. Po głowie mi nie chodzą takie zachowania, ale za każdym razem jak czytam, by uważać i nieprzeginać z linkowaniem/pingami itp. bo zostanie się uznanym za spammera, to drapię się po głowie, że skoro tak to, ktoś może mi zrobić "niedźwiedzią przysługę". Przy okazji bym podpytał - tak w skrócie o co chodzi z tym, że linki przychodzące szkodzą?
  6. @Paweł i @cinmar - dziękuję za informacje. Tego zdaje się szukałem.
  7. Ale akcję "kretyn" rozumiem jako pozycjonowanie czyjegoś serwisu na hasło, na którym właścicielowi nie zależy (czy wręcz jest niepożądane). Mnie chodzi po głowie, czy w ramach czarnego SEO, są możliwe praktyki osłabiające strony konkurencji na hasła na których im zależy ... Testów na żywym organiźmie przeprowadzać nie będę, bo to raz że niemoralne , dwa nie mam narzędzi do masowego spamowania, trzy nie wyrabiam się czasowo z poważniejszymi rzeczami. Tak chciałem tylko rozwiać swoje wątpliwości ...
  8. Ale to rozumiem działa raczej na zasadzie - "przetestuj wskazane adresy pod kątem danej platformy" i dla każdego typu katalogów trzeba wypełniać [Wyszukiwany ciąg znaków] + [Ciąg znaków do dodania] + wczytać footprinty? Mnie się marzy takie coś, gdzie raz konfiguruje się definicje katalogów (footprinty + najczęstsze adresy podstron + najczęstsza budowa formularza) i później już tylko mieli URL'ami (ewentualnie co jakiś czas te definicje rozbudowuje). Dzięki za informację. Od razu podpytam - Licorne obsługuje tylko footprinty, czy jest "inteligentniejsze"? Jeszcze odnośnie moich marzeń, to
  9. Dziękuję za szybkie info. Żeby nie zawracać Mion'owi niepotrzebnie głowy - z Waszego doświadczenia, USM ogarnia to o czym pisałem powyżej, a czego nie mają wspomnianie przeze mnie platform readery? Zależy mi tylko na bardzo dobrym rozpoznawaniu typu katalogu z podanej przeze mnie listy.
  10. Prośba o dyskusję i podzielenie się doświadczeniami - czy wg Was można "wycinać" konkurencję i jak Google sobie z takimi zachowaniami radzi? Od czasu do czasu czytam o tym, że co za dużo to niezdrowo. Że masowe pingi do wyszukiwarek = spammer. Że spamowanie linkami = spammer. Że linki ze śmieciowych miejsc = spammer. I tak zastanawiam się nad prawdziwością powyższego i tym jak Google to ogarnia. Na ile rozumiem zagadnienie, nic nie stoi przecież na przeszkodzie, by "posiać" trochę konkurencji. I jeśli spamowanie by przynosiło negatywne skutki, to czy taka strategia nie byłaby możliwa - "Jest
  11. Krótko i na temat - szukam desktopowego narzędzia do sprawdzania typów katalogów. Czy możecie coś polecić? Znam "Platform Link Reader" oraz "Sick Platform Reader" - przydatne, ale skuteczność oceniam jako średnią / względną. Próbowałem skorzystać z Google oraz tutejszej wyszukiwarki, ale efekt marny. Marzy mi się soft, który będzie analizował adres pod kątem: 1) słów w HTML'u / footprintów (jak powyższe) 2) istnienia dodatkowych stron/adresów typowych dla danego katalogu 3) analizy strony z formularzem dodawania wpisu 4) z podstawowym sprawdzeniem czy formularz jakkolwiek działa ... i
  12. @blake - odnośnie dupczenia: poznałem kiedyś przypadek akwizycji i wciskania znajomemu usługi pozycjonowania (teraz uwaga) strony, która miała powstać dopiero za jakiś czas (nawet domeny nie było). Oczywiście płatność jako stały abonament, a nie za wyniki, umowa na rok.
  13. Dziękuję. Intuicja mi podpowiadała, że powinno być jak piszesz, natomiast co jest w kodzie i jakie zależności w bazie panują, i jakie pliki tymczasowe są tworzone to już tylko umysł autora ogarnia Przy okazji zapytam: - czy rozpoznawanie katalogów ma jakiś ogólny mechanizm przyjmowania linków do sprawdzenia? W sensie podawać adres strony głównej katalogu / precla, czy może adres formularza dodawania? Np. mam dylemat czy linki PHPld powinienem podawać jako "root" czy jako podstronę submit.php lub odpowiednik. Jeśli było, to przepraszam Obiecałem, że przeczytam wątek, ale podjarałem się ha
  14. A po czym poznać, że już nie wyrabia? I prośba / sugestia - czy dałoby się samą detekcję dać do osobnego skryptu / zadania crona i tak, by zwracane były przez skrypt jakieś wyniki, choćby poglądowe, że coś się dzieje i ile, a najlepiej co rozpoznał na jakim adresie ??? Motywuję powyższe, że mam wrażenie poruszania się po omacku jako początkujący i wiele kwestii jest dla mnie niejasne. Np. czy adresy PHPld dawać z submit.php na końcu, czy domenę główną, a może skrypt sam sobie z tym radzi ... UPDATE - cron_detector.php jest chyba tym o czym myślałem .... I obstawiam, że poznać niewyrabianie m
  15. Odnośnie speed.php to ja też bym podpytał - zależy mi na zwiększeniu prędkości detekcji katalogów. Czy można jakoś wyłuskać takie zadanie i znacząco podnieść prędkość rozpoznawania? Na razie ustawiłem $speed_detector = 25; ale obstawiam, że to ciągle mało jak dla mnie na chwilę obecną (początki pracy z programem, masa linków do przemielenia). A może powielenie zadań cron'a pomoże? Jeśli odpowiedź gdzieś wcześniej się przewinęła, to w weekend będę przewalał wszystkie 240 podstron - prośba o wyrozumiałość
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue. Terms of Use Privacy Policy