Skocz do zawartości

okazwłoka

Oficjalne
  • Postów

    9758
  • Dołączył

  • Wygrane w rankingu

    234

Treść opublikowana przez okazwłoka

  1. Testy wypadły pomyślnie. Na profilach uzyskaliśmy średni wynik 56% (w testowanych wielu paczkach od 50% do 65%) - skuteczność mierzona przez zapytanie cache po około 30 godzinach.
  2. Nowy sposób wygląda obiecująco, jeszcze muszę trochę potestować na ukrytych urlach (do których nic nie linkuje).
  3. Już dzisiaj (do 1-2h) będę rozsyłał instalatory, więc jeszcze proszę o chwilkę cierpliwości
  4. Mam w zanadrzu jeszcze jeden sposób indeksowania stron, ale dawno z niego nie korzystałem, muszę sprawdzić jak ze skutecznością obecnie to wygląda i czy w ogóle się da.
  5. Na razie jest w wersji testowej, w zasadzie od jutra już będę go rozsyłał. Tu jest temat:
  6. SWL BOX - to tak zwany prywatny SWL - panel do zarządzania linkami na swoich stronach. Panel umożliwia podpięcie stron i łatwe wysyłanie/edytowanie/usuwanie linków. Oto najważniejsze cechy: - możliwość podpięcia wielu stron (można je sobie grupować) - automatyczny scraper podstrony (wystarczy dodać stronę, a panel opcjonalnie sam pozbiera podstrony, możliwość wykluczenia url po ciągach znaków) - możliwość tworzenia linków tekstowych - możliwość tworzenia linków graficznych - możliwość tworzenia linków o dowolnym kodzie html - łatwe i szybkie dobieranie miejsc na linki - ustawianie harmonogramu dziennego, tygodniowego, miesięcznego Panel jest na serwer z PHP + mysql (php min 7.2 + ioncube loader, mysql, pdo, zip archive, curl i inne standardowe biblioteki, dostęp do cronjob) Aby można było zarządzać linkami trzeba serwer ze stroną załadować dostarczony skrypt php. Cena uzależniona jest od okresu na jaki wykupiony zostanie panel. PIERWSZY MIESIĄC GRATIS! Więcej informacji razem z cenami na stronie: https://www.i4a.pl/seo/zapleczeseo/swl Na dzień publikacji tego tematu (15-10-2020) jest to wersja testowa BETA. kontakt: seosolutions@i4a.pl Dziękuję za zatwierdzenie tematu Do testów można się zgłaszać zamawiając przez stronę lub po prostu tutaj na PW.
  7. Ale ściemę to niezłą puszczają - "wyłączyliśmy" Choć kto wie, może chcą, żeby wyglądało to na awarię.
  8. Tak, nie tylko ta opcja. Na razie zamykamy możliwość zamawiania nowych pakietów w addurl i gdy już sytuacja się wyjaśni będziemy przedłużać ważność pakietów.
  9. Dzięki za informację, to raczej potwierdza bałagan jaki panuje w Google z indeksowaniem Co dziwne nie ma żadnej informacji w GSC, wręcz przyjmuje do indeksowania bez żadnych problemów:
  10. Patrz post wyżej Ogólnie pracuję od jakiegoś czasu nad skryptem prywatnego SWL i chciałem go wydać już w sierpniu, ale już na dniach powinien być gotowy
  11. Wracam za 8 lat Wszystko co linkuje da się wykorzystać, tylko trzeba z głową to robić. A jak już można we własnym zakresie modyfikować, to bajka.
  12. Dokładnie, SEO to testy testy i testy. Nie wszystko co ludzie piszą działa. Co więcej - często ludzie piszę że nie działa, a działa. Nie spróbujesz, nie przekonasz się.
  13. Podeślij na mail, sprawdzę jak będę miał chwilkę, najpóźniej jutro.
  14. Kiedyś DonLinkage taki był - uruchom i ciesz się pozycjami Ale to było z 7 lat temu, po 7 biednych latach podobno przychodzi 7 tłustych, zobaczymy Wybacz, ale szacowanie daty to nie mój konik delikatnie mówiąc, więc nawet nie podaję przybliżonej daty i nie wyciągaj tego ode mnie Ale postaram się to zrobić dość szybko. Ogólnie bazy nie są zweryfikowane, w Don możesz sobie zbudować bazę sukcesów i wtedy nie tracąc czasu na niedziałające miejscówki jedziesz ze sporą prędkością wiele projektów. Wiem, że DonLinkage aktualnie jest w stanie bez problemu wyciągnąć kilka tysięcy wpisów na publicznych bazach, ale nie znajdziesz chętnego do sprzedaży takiej bazy - bo to wymaga ciągłego harvestu, detekcji - a to zasoby proxy, captcha, serwer. A co głównie będzie w v7: - rozbudowa Premium o nowe skrypty PRIV - rozbudowa Premium o zweryfikowane bazy publiczne - pewnie wszystkie skrypty wezmę pod lupę żeby zwiększyć skuteczność - na pewno będę musiał poprawić logikę działania silników przy captcha - będą zmiany w monitoringu pozycji i harvesterze google Designu nie będę zmieniał, szkoda na to czasu. PS. Dla przykładu świeży projekt, skrypt discuz, skuteczność na bazie zweryfikowanej pod względem skryptu, pierwszy projekt:
  15. W samym premium aktualnie wchodzi ok 2500 adresów (sprawdzone na kilkunastu projektach w ostatnich dniach). 120 wpisów wchodzi na darmowych skryptach Premium (Art 1 i Kat 1).
  16. Wbudowane bazy są słabiutkie, to na pewno. Nie jest to soft, zainstaluj, uruchom i ciesz się topami. Obecnie pracuję nad wersją v7 i tam już będzie dostęp do zweryfikowanych baz, ale ciągle będzie to w Premium. Niestety zbieranie baz wymaga sporych zasobów, czasy się zmieniły i nie ma otwartych miejscówek na pęczki.
  17. A wydawało mi się, że nic nie schrzaniłem Ok, teraz powinno wrócić do normy.
  18. Zasoby mają ogromne, z przechowywaniem na pewno problemów nie mają, problem to przetwarzanie. Na pewno ograniczając/uniemożliwiając odpytywanie wyszukiwarki przez automaty (np. sprawdzanie zindeksowania) moco odciąży przetwarzanie.
  19. Dzisiaj wynik skuteczności bez zmian. Czyli zostaje indeksowanie w ciemno na razie.
  20. To wszystko idzie w jednym kierunku: informacje tylko dla zweryfikowanych domen w GSC. Inaczej być nie może.
  21. G Problemy na pewno mają: Tylko pytanie skąd się im wzięły Pewnie chcieli uciąć jakoś spam, a rykoszetem poszło szeroko - nie pierwszy raz.
  22. Dzięki, każde spostrzeżenie jest ważne. Ale mam i tak wrażenie, że to wciąż bug w Google to całe zawirowanie z indeksowaniem i indekserami. Powinno wrócić do normy za jakiś czas, może się nawet okazać że wszystko nagle wskoczy w indeks, a wtedy będzie dopiero zamieszanie Bo Bot Google pięknie goni po stronach i zczytuje informacje.
  23. O skuteczności po 24h wspomnianej wyżej można sobie w tym momencie pomarzyć, 8 adresów zindeksowanych, to daje 16% skuteczności w tym momencie (ciężko powiedzieć, czy nie jest to naturalny poziom indeksacji). Mam pewnie wnioski, co mogę powiedzieć: po pierwsze google ma problem z pokazywaniem tego, co ma w indeksie (przynajmniej dla nowo zindeksowanych adresów). Nawet jeśli adres jest zindeksowany, to wyszukiwarka tego nie wypluje. Nowe adresy na chwilę pokazują się w SERPach, a po chwili znikają. Obecnie sprawdzanie nowych adresów przez site + inurl nie daje dobrych wyników, lepiej nowe adresy sprawdzać po cache (w wielu przypadkach po site nie ma, po treści nie ma, ale po cache jest w indeksie), co też nie daje dobrych rezultatów w przypadku nowych adresów. Czyli obecnie kuleje zarówno indeksowanie nowych adresów (nawet w przypadku normalnych, wartościowych stron) jak i podglądanie indeksu. To wszystko dotyczy zindeksowania po 24 godzinach, zmierzę skuteczność po kolejnych 24 godzinach. O... sprzedałem za darmo chyba za dużo informacji
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności