Rainmaster

Forumowicze
  • Zawartość

    394
  • Rejestracja

  • Ostatnio

Reputacja

19 Good

Profile Information

  • Gender
    Male

Ostatnio na profilu byli

3641 wyświetleń profilu
  1. Rainmaster

    Propozycje rozwoju LinkTak.pl

    Nieśmiałe przypomnienie się z prośbą o dokończenie funkcjonalności notatek dla grup linków
  2. Rainmaster

    Propozycje rozwoju LinkTak.pl

    Pomysł ciekawy. Zakładam, że na podstronie z takim artykułem tradycyjne linki systemowe nie będą się wyświetlać?
  3. Rainmaster

    Propozycje rozwoju LinkTak.pl

    Jeśli będzie chwila na usprawnienia to zerknij @okazwłoka w temat przydzielania linków do tej samej domeny na tej samej podstronie systemu. Ważne by warunek sprawdzający pilnował nie dokładnego adresu docelowego przydzielanego linku, a samej docelowej domeny by się nie powtarzała - wtedy unikniemy dwóch linków do tej samej strony linkowanej obok siebie gdzie jeden prowadzi do jej głównej a drugi do podstrony, lepiej by ten drugi został wylosowany na innej podstronie czy nawet w miarę wolnych miejsc innej stronie systemowej. Przykład: przydzielenia o id 716442 oraz 716443 - dwa linki prowadzące do dokładnie tej samej domeny (a nawet oba do jej strony głównej, przypadkowo akurat też mają identyczne anchory więc mamy całkiem identyczne dwa linki) trafiły na tą samą podstronę systemową. Są z różnych grup dlatego tak się stało, ale definitywnie trzeba pod to dopisać warunek przy przydzielaniu.
  4. Rainmaster

    Google hejt? Nie mogę wejść do Top100

    Tak, linkować i czekać ale linkować z głową, nie na pałę jak parę lat wstecz jeszcze się dało. Zrób sobie plan wg którego to linkowanie chcesz prowadzić. Mam na myśli zbieranie do kupy tych solidniejszych linków chociażby w arkusz byś wiedział ile ich masz (i sprawdzanie co jakiś czas czy żyją). Są dwa powody dlaczego bez takiego precyzyjnego ogaru dzisiaj ani rusz: - musisz wiedzieć ile tych linków z frazą masz względem innych anchorów, bo jak się okaże że przywaliłeś ich zdecydowanie za dużo to strona wyleci z serpów (a z drugiej strony wciąż musisz ich dokładać bo pozycja sama się nie zrobi) - wszelkie narzędzia od linków firm trzecich pokażą Ci tylko większą lub mniejszą część linków jakie zbudowałeś, zresztą samo google w gsc też wszystkiego nie pokazuje - dlatego by mieć obraz sytuacji musisz o niego zadbać sam a nie oglądać się na to czy jakiś soft pokazał już link który stworzyłeś To są powody przez które sporo ludzi decyduje się inwestować w zaplecza, bo mają kontrolę nad tymi linkami, ich ilością, proporcjami a przede wszystkim ich żywotnością itp. Generalnie opieranie się o zewnętrzne narzędzia w jakimś tam stopniu pomaga by ogólnie orientować się w sytuacji (masz przykład po tych wykresach co wstawiłem wyżej, są raczej tylko do ogólnego poglądu) ale na pewnym etapie to będzie dalej trochę błądzenie we mgle. Zresztą o tym też właśnie wspomina @SzlafRock Powodzenia!
  5. Rainmaster

    Google hejt? Nie mogę wejść do Top100

    @BlackHat Nie mam w garści totalnie wszystkich linków jakie stworzyłeś więc nie patrz na to super dokładnie bo dane mogą być niezbyt aktualne (zwłaszcza jeśli ciągle linków dorzucałeś do dziś), ale na szybki rzut oka na jakiejś tam większej próbce linków z Twojej domeny co zwraca uwagę: 1. To o czym mówił @okazwłoka - https://i.imgur.com/lF4E4Nh.png sporo Twoich linków już wyparowało, trzeba nadrabiać nowymi ile możesz i najlepiej takimi nad jakimi masz kontrolę (by nie wyparowały za parę tygodni) 2. Tu pewnie liczby będą mocno zaniżone ale kilka linków na jakiekolwiek trudniejsze frazy to zdecydowanie będzie za mało - https://i.imgur.com/dtNM2x8.png 3. Jeśli taka mniej więcej proporcja dofollow/nofollow jest także dzisiaj to już wiesz czemu linki nie kopią? https://i.imgur.com/UyQGfSb.png I jeszcze jedno w temacie optymalizacji bo mówisz, że konkurencja by się mogła uczyć - owszem optymalizacja jest ważna i konieczna, bo bez niej nie pojedziesz ale w topy nie wyniesie, jest raczej "pakietem startowym" dla linków Zerknij po stronach z topów na hasła jakie Cię interesują jak oni mają zrobione to i tamto, nasycenie, długość treści itp - skoro są w topach to znaczy, że tyle wystarczy a reszta to linki, dużo linków.
  6. Rainmaster

    Google hejt? Nie mogę wejść do Top100

    Masz na myśli widoczność w google search console? Tym bym się totalnie nie sugerował, to nie działa w czasie rzeczywistym, a nawet po długim czasie i tak nie pokazuje absolutnie wszystkich linków. Blake i tak musiał mieć dobry nastrój, że cokolwiek podpowiedział a raczej w maliny wpuścić Cię nie chciał Wszyscy tu wróżymy trochę, ale może po prostu albo masz totalnie rozjechany proporcjami profil linków albo też zbyt mało tych najważniejszych (jak na trudność fraz jakie atakujesz)?
  7. Rainmaster

    Propozycje rozwoju LinkTak.pl

    Hm, dla mnie ważniejsze jest by system kopał równo po pozycjach będąc efektywnym niż podbijał wartość TF/CF strony docelowej bo mimo wszystko to wskaźniki firmy trzeciej nie mające bezpośredniego wpływu na pozycję w serpach. Problem jest natomiast taki, że bez ukrycia linków ciężko będzie na długo system efektywnym zachować. Finał będzie taki, że przy wyłapaniu stron z systemu i zgłoszeniu ich przez spamraport przez "somsiada" prędzej czy później scenariusze mogą być trzy: - poleci ban na te wyłapane strony co choć napsuje krwi wydawcom przez ogromne straty jak i linkującym przez zerwane transfery to będzie to scenariusz o tyle "wygodny" że będzie widać które strony dostały - polecą swego rodzaju filtry na wyłapane strony i tu wbudowany mechanizm w systemie możliwe że wyłapie które to ale mam wątpliwości bo filtr raczej trafia się na strony linkowane a nie linkujące - linki ze stron systemowych po prostu pod względem mocy będą zerowane przez algo (tak jak zresztą twierdzą że to działa w erze pingwina "live") czyli scenariusz najgorszy, bo i parametry domen będą dalej jak były i banów nie będzie - za to efektywność samego wbijania pozycji poleci łeb na szyję i nikt nie będzie wiedział czemu = spadnie popyt na punkty i system powoli zdechnie Wydawcom/handlarzom na pewno będzie zależało na tym, by ich biznes zabezpieczyć. Linkującym zaś powinno zależeć by w ogóle system działał. W statlinku nie bez powodu roboty były blokowane dla bezpieczeństwa przed życzliwymi, bo jak dobrze pamiętam tam też była swego czasu niezła akcja masowego zbanowania wielu stron. A linktak ma jeszcze gorzej, bo nawet konta nie trzeba w nim zakładać i specjalnie się starać by teraz część linków wyłapać. Także każdemu sugeruję się grubo zastanowić czy ważniejsze jest podbijanie systemem cyferek TF/CF strony docelowej czy jednak wolelibyście by linktak jak najdłużej działał kopiąc w serpach. Linki do podbicia statystyk majestic można kupić w pierwszym lepszym seo sklepie, zaś narzędzi które pozwalają prowadzić wygodne i efektywne linkowanie (i działają!) z domen o zróżnicowanych parametrach od ręki za dużo na naszym rynku nie ma.
  8. Rainmaster

    Propozycje rozwoju LinkTak.pl

    Blokowanie robotów ahrefs/majestic jest wdrażane po to, by linki wychodzące z tych stron (systemowych) nie były widoczne dla ludzi typu "uprzejmie donoszę" (sprawdzając dowolną domenę linkowaną systemem linki z linktaka w majestic się nie pojawią bo robot ich nie zliczy do ich bazy skoro nie ma wstępu). Natomiast wszelkie aktualizowanie parametrów domen i linków do stron systemowych działa wtedy dalej w majestic bez zmian, nie ma to wpływu. Tl;dr - blokada robota MJ ukrywa dla niego linki wychodzące ze strony systemowej, a nie linki do niej prowadzące mające wpływ na jej TR/CF/RD etc.
  9. Rainmaster

    Błędy

    @wedrowiec czy używasz kryterium min/max kosztu przydzieleń dla linków? Został załatany bug który powodował czasami przydzielanie linków o kosztach niższych niż ustalone + dodatkowo jeśli miałeś zaznaczoną podmianę linków przy nie trzymaniu kryteriów to te trochę tańsze niż zadane linki system mógł zacząć lawinowo podmieniać u Ciebie stąd wyższa konsumpcja.
  10. Rainmaster

    Błędy

    Jest mały bug w systemie związany prawdopodobnie z nowymi przydzieleniami dla linków którym edytowano kryteria. Mam wiele linków, które od tygodni stały bez przydzieleń mimo ustawionego dużego przyrostu dziennego i braku ograniczeń co do tagów/kategorii, jedynie wysokie były minimalne kryterium punktów oraz rank więc przez chwilę myślałem, że po prostu nie ma już w systemie takich lepszych, droższych slotów. Jednak - gdy owy link się skopiuje i umieści nawet w tej samej grupie to przydzielenia się do niego pojawiają na dniach, a stary dalej ani drgnie mimo identycznych kryteriów (a skoro lądują w tej samej grupie i nowy działa to wykluczam że funkcja trzymania unikalnych domen w grupie powodowała ten zastój). Wygląda to tak jakby po aktualizacji system próbował przydzielać dalej wg parametrów sprzed edycji ale nie były one spójne z nowymi, może tu jest jakiś konflikt po drodze? Przykłady takich linków które stoją: 4868, 4952, 4743. Temat nie jest pilny, bo obecnie po prostu pamiętam by nie robić zmian a po prostu tworzyć nowy link na bazie starego ze zmienionymi parametrami by tego zastoju uniknąć ale jak ktoś o tym nie wie to może się nie doczekać na nowe przydzielenia.
  11. Rainmaster

    Błędy

    @okazwłoka zerknij proszę na przydzielenia nr 632017 oraz 632147 - mają ten sam url docelowy a system przydzielił je na tą samą stronę obok siebie. Te linki pochodzą z dwóch różnych grup linków w systemie dlatego tutaj funkcja przydzielania unikalnych linków nie zadziałała i to jest zrozumiałe, ale wydaje mi się że gdzieś była mowa o poprawce by system nie wrzucał na tą samą podstronę linków prowadzących do tej samej domeny. Wiadomo chodzi tu o "first link count", to ważne by tak się nie działo nawet jeśli docelowy url nie jest identyczny bo np jeden link prowadzi do głównej a drugi do podstrony, jeśli tylko są do tej samej domeny to system powinien przydzielić drugi gdzie indziej, nawet na tej samej stronie systemowej ale innej jej podstronie.
  12. Rainmaster

    Błędy

    Bardzo dobra sugestia, rzuciło mi się to w oczy też wcześniej. Myślę jednak, że zamiast losowości lepszy byłby rozkład tych linków w zadanym czasie mniej więcej w równych odstępach czasowych. Np. ustawiamy 100 linków na miesiąc to system zakolejkuje to w stylu 100/30 = 3,33 = ~3 linki dziennie (akurat głupi przykład bo tu wygodniej i pewniej byłoby ręcznie ustawić 3 linki dziennie ale wiadomo o co chodzi). Losowość bywa złośliwa i często wypadnie ten rozkład w czasie dziwnie, a tak dodatek losowości będzie i tak z tytułu tego, że nie wszystkie linki google przecież zaindeksuje od razu. Grunt by w ten sposób uniknąć dodania wielu przydzieleń z różnych linków np pierwszego dnia.
  13. Rainmaster

    Błędy

    Fantastycznie, bo patrząc dokładniej po datach przydzieleń część takich zerowych, nieistniejących dla google linków zajmuje przydzielenie od miesięcy, inne zerowe wiszą też od miesięcy na statusie "w kolejce do opublikowania" bez szansy na zmianę tego. Będzie naprawdę super jak ten mechanizm uwzględni oba takie przypadki.
  14. Rainmaster

    Błędy

    Po dłuższym przeglądaniu przydzielonych linków przez system da się zauważyć, że na 100 sztuk kilkanaście a czasem kilkadziesiąt przydzieleń to linki o koszcie zerowym czyli na stronach zwracających 404 lub niezaindeksowanych. Czy opcja dająca wybór co system powinien robić z takimi przydzieleniami dalej jest w planach i pojawi się niebawem? Ułatwiłoby to robotę znacznie gdyby można raz na zawsze ustalić rozwiązanie typu dla naszego konta wszystkie takie przydzielenia byłyby podmieniane na nowe po powiedzmy 3 dniach takiego stanu. Z góry dzięki za interwencję w tym temacie.
  15. Rainmaster

    Propozycje rozwoju LinkTak.pl

    Update: widzę dzisiaj, że linki poza zadanym kryterium zniknęły z listy więc mechanizm chyba ruszył. Zostały jedynie te o zerowym koszcie więc albo by trzeba uwzględnić w odsiewaniu też 0 jako próg minimalny zamiast 1 lub pozostaje czekać na to osobne ustawienie dające wybór co robić z tymi linkami zerowymi. Z tym, że byłoby super gdyby ta opcja usuwająca je działała nawet szybciej niż inne wycofania/podmiany.