Skocz do zawartości

ravau

Forumowicze
  • Postów

    1583
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    5

Ostatnia wygrana ravau w dniu 30 Sierpnia 2022

Użytkownicy przyznają ravau punkty reputacji!

Profile Information

  • Gender
    Male

Ostatnie wizyty

6494 wyświetleń profilu

Osiągnięcia ravau

  1. Witam kolegę po fachu :P

  2. @SzlafRock kłóciłbym się co do semantyki google ma nieskończoną ilość danych, ponieważ zakładając jednostkę czasu 1 sekunda, co sekundę pojawiają się zapytania/frazy, których nikt wcześniej nie użył nigdy
  3. Google ma nieskończoną ilość danych jeżeli w ostatnich latach, w danym języku, używano pewnych przymiotników średnio x razy, a nagle pojawia się ich 10 razy więcej bo AI sobie ubzdurało używanie tego przymiotnika, to google to widzi. Tak samo jak systemy antyplagiatowe na uczelniach - odkąd chat gpt stał się sławny, na uczelniach notuje się wzrost różnych przymiotników polskich, lub zwrotów, których wcześniej studenci nie znali, a to dziwne
  4. zapomnijcie o detekcji AI za pomocą zewnętrznych narzędzi, chat ML'e typu chatgpt, bard itp. zostawiają footprint, który może rozpoznać tool jeśli ZNA ten footprint, zupełnie jak w obrazkach, w których zaszywa się tajne informacje no, ale zewnętrzne toole nie znają , ale np. nie ma technicznego problemu, żeby wyszukiwarka google miała sprzężony footprint barda i rozpoznawała teksty z barda z 100% skutecznością, dlatego tak ważna jest reedycja tekstu z ai, co swoją drogą jest po prostu mądre, i nie wynika z chęci uniknięcia detektora tylko zrobienia coś lepszego niż samo ai i lepszego niż sam człowiek, overall ai super tool dla ludzi z głową
  5. ravau

    Strona do oceny

    nie masz certyfikowanego cmp, ktory bedzie obowiazkowy od konca wrzesnia dla witryn z adsense
  6. Porównanie słabe, ale wiadomo o co chodzi jeśli ktoś zakłada, że szacowane prawie idealne %pareto takich samych wynikow google i yandex (miedzy 60 a 70%) to tylko koincydencja to dość dziwne założenie, a przykład dobierzcie sobie sami z jakiej branży chcecie patrzac na wynik dzialania raczej mało prawdopodobne jest zeby czynniki rankujace yandexa i google bardzo sie roznily, bo te same strony nie moglyby w 60-70% tak samo rankować, wszystko powyzej 50% to nie jest juz coin flip i jednoznacznie zaprzecza stwierdzeniu Zgreda cyt.: "moim zdaniem żadnego. " pozdro!
  7. A moim zdaniem niezerowe, kierujące się ku znacznemu znaczeniu i to z wielu powodów. yandex korzysta z technologii wymyślonych przez google, część open sourcowych, część kopiowane, po prostu risercz ludzi pracujacych w wyszukiwarce bedzie zawsze prowadzil do tych samych wnioskow co powinno rankowac a co nie niezaleznie czy w googlu czy yandexie, tak jak jest w innych branzach, smartphonow, komputerow, itp itd do tego yandex nie żyje w równoległym wszechświecie tylko w tym samym, przyklad z innej branzy - produkując samochód elektryczny zawieszenie musi mieć pewne cechy, które dotyczą całej populacji samochodów spalinowych i elektrycznych także, a nie tylko dla elektrycznych..
  8. Co wy siedliście na nim, wśród kodów wycieku są też konkretne funkcje, nie tylko zmienne, tylko trzeba umieć ich szukać tutaj robota wykonana przez kogoś: z wątku można wiele wyciągnąć, np. ze page rank jest 17tym dopiero z kolei czynnikiem pozytywnym, najbardziej pozytywnym jest zbieżność sylab szukanego wyrażenia i urla docelowego, najbardziej negatywnym czynnikiem są reklamy na stronie przykład "In the "link prioritizer code" they talk about decreasing the priority of links with the same text from the same host. In other words, don't count the links from duplicate content." przykładowe wagi: po ludzku:
  9. Czy i kiedy na mghost.pl będzie obsługa adresów ipv6?
  10. Samokrytyka to jedna z ważniejszych moich cech Nie lubię stwierdzeń, że w Polsce się nie da. Bo się da, za każdym razem jak coś mi nie pasuje to piszę do właściciela shareda w pl i często moje sugestie były wdrażane na poziomie całej infrastruktury. Da się, tylko trzeba chcieć, i nagradzać firmy, które wykazują się innowacją, a wtedy te słabsze będą nadrabiać. Istnieje też coś takiego jak Quic/hhtp3, które rozwiązuje większość problemów wymienionych pod koniec posta Zgreda, używam tej technologii w krajach 3go świata, gdzie są właśnie duże opóźnienia (ponieważ quic jest minimalnie wolniejszy od http2, kiedy masz dobre połaczenie np. w Polsce nie warto), nadal przy quicu obowiązuje zasada 14kb Maxpan, oczywiscie, ze chodzi o wplyw posredni oraz wizerunek marki, a takze po prostu bezpieczenstwo przed podszywaniem sie domeny, a takze o to, ze ta opcja jest darmowa praktycznie wszedzie i wymaga jednego klikniecia w panelu i w przyszlosci bedzie obowiazkiem natomiast tytul tematu dalem "zaczepny" zeby poznac opinie na temat "technicznej nadgorliwosci gorszej od faszyzmu"
  11. Wiedziałem, że większość seowców ma nikłe pojęcie o seo, ale że aż tak.. w sumie mogłem się domyślić po tym płaczu po każdym google updejcie. Wracając do tematu, kolejna ciekawostka, ile z was wie, że strona z krytycznymi zasobami powinna mieć poniżej 14,6 kb wielkości (skompresowana, krytyczny html + css, ew male fotki) https://dev.to/shadowfaxrodeo/why-your-website-should-be-under-14kb-in-size-398n zaraz ktoś wyskoczy i powie, że nadgorliwość jest gorsza od faszyzmu.. ale tak powiedzą tylko osoby co nie prowadziły nigdy serwisu z setkami tysiacami wyswietlen miesiecznie 1 roundtrip w sieci 3g moze byc bardzo długi, zawarcie krytycznych zasobów w jednym tripie 14kb powoduje super ladowanie strony wedlug g. vitalsów, a przy milionach wyświetlen wystarczy sobie dodać ile czasu oszczedzają łącznie userzy strony, a to bezpośrednio przekłada się zamówienia, engagement itd. dodatkowo jest to ważne prowadzac strony w krajach, gdzie net jest naprawde kiepski, mam stronę w dalekiej azji, gdzie moje eksperymenty z "nadgorliwością" spowodowały lepsze retention web appki o kilkadziesiat procent.
  12. Niewiele osób wie, że google umie czytać testamenty..
  13. @s_matysik zatrzymałeś się w 2010 roku chyba, wszystkie techniczne aspekty seo wpływają na pozycje POŚREDNIO ad 1. czynnik niemierzalny, google potrafi oceniać reliability biznesu, więc potencjalnie tak, natomiast seo nie jest najważniejsza a technologia ad 2. nie miałem na myśli wpływu ssl na pozycje, a technicznie rodzaje ssl, certyfikatów ich connectivity, wbrew pozorom zle ustawiony ssl potrafi wiele namieszac, łącznie ze starymi tlsami ad 3. nie mialem na mysli domen najniższego poziomu tylko technologie najniższej warstwy internetu, w domyśle - w tym domeny ad 4. temat rzeka, przykładowo ostatnio zoptymalizowałem perfekcyjnie skrypty i google już nigdy się nie dławi przy indeksacji, takich tematów w sferze konfiguracji serwera sa tysiące, nie mówiąc o takich technologiach jak preloading wynikow wyszukiwania w google, jesli masz system certyfikatów potwierdzających cache strony (nie pamietam nazwy, wynikowo prawie instant ladowanie strony, edit: Automatic Signed Exchanges (SXGs)) koledzy wyżej nie zrozumieliście tamatu w ogóle, trochę mnie to przeraża, a trochę dodaje uczucia dumy
  14. Z ciekawości sprawdzałem top wyników na zapytanie "seo blog". Ku mojemu zaskoczeniu żadna domena z top5 nie ma włączonego dnssec, zazwyczaj darmowa opcja u rejestratora domen. Co prawda dnssec jest najważniejszy, kiedy domena zajmuje się obróbką ważnych danych (banki, giełdy, krypto) to jednak .. ps dodatkowo, tylko jedna w top5 ma w miarę długi czas wygasania domeny (Zgred); dns anycast nie sprawdzałem - polecam też, chociaz z mojego doświadczenia cloudflare ze swoimi technologiami przebija anycasta ps2 co sądzicie o perfekcji technicznej w aspekcie seo? (najniższy poziom - domeny, serwery itp., headery, ssle)
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności