kpt.nemo

Google Update: Frazy Mocno Spamowane

Polecane posty

Jeśli jest tak jak twierdzisz to mamy 2 - 3 miesięcy na przygotowanie się u nas w PL? Troche długo.

Edytowano przez Kejson

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Bo Google nie ma jeszcze wysterowanych wag rankujących - dopiero je ustala na podstawie najbardziej zaspamowanych fraz. I zajmie im to jeszcze trochę czasu.


logosc.png

Nowa odsłona systemu!!! --- Radek Kubera na G+.--- Mój blog: radek.kubera.org

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

10 lat walczą ze spamem to te dodatkowe 3 miechy w sumie nie robią różnicy. Ten ich nowy patent będzie okresowo czy włączą go do sobie do algorytmu?

Jesli ma być skuteczny na spamy powienien być non stop online.

Edytowano przez Kejson

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Przestańcie już bredzić. Słońce w końcu wyszło, może trzeba czymś głowę nakryć?

Potem ta postać porównywana jest z innymi wpisami w cache.

Zastanów się ile podstron średnio ma jedna strona. 100, 1000? Dla każdej takiej podstrony musiałby być zrobiony taki cache i porównany z każdą podstroną innych serwisów. KAŻDA PODSTRONA Z KAŻDĄ PODSTRONĄ. Nie będę nawet próbował tego liczyć, bo jest to liczba kilkunastokrotnie większa od nieskończoności :)


"Ja nie bywam w kuluarach, nie wiem gdzie to jest. Bywam w innych miejscach w innym towarzystwie..." SEO Norris - cytat roku 2014
"Dlatego dużo firm i freelancerów zajęło się pp, nie poradzili sobie z klientami i aktualizacjami algo." Cytat wszech czasów!

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Porównywaniem stron o skopiowanej tresci zajmuje sie juz od dluższego czasu Panda, a musi wykonac podobną ilość operacji. Może już ja nawet zintegrowali z wyszukiwarka.

  • Like 1

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Czy mógłbym się od kogoś w skrócie dowiedzieć, co się stało?


MULTIKONTO

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

@Radek obrosłes w pióra, że hoho,

nie czytałem do końca twojego posta, stąd nie wiem czy była mowa o zabezpieczeniu konkurencji. Google z apriorytet uwaza sobie postronnych ludzi na co M sciemniacz zawsze zwraca uwage. Z 301 walczyli od niepamietnych czasow i nadal dziala, jedynie czasem zeby ud***c konkurencj enalezy mocno cisnac i czekac na to az w koncu profil linkowania "jebutnie".

Jesli Twoje sieci neuronowe mają zastapic profil linkowania to poslucham w jaki sposob google zabezpieczy np. Twoje strony.

Jeszcze zerknalem okiem na Twoje wypociny i nie znalazlem ani slowa o zabezpieczeniu osob trzecich.

Postaraj sie to opisac w kilku zdaniach zanim wysiadiesz z pociagu...

Edytowano przez szfab

O_o

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Na dziś wywodu z tego tematu można podsumować krótko: hipotezy hipotez.

Edytowano przez D_S

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

@D_S i to hipotetycznie rzecz jasna

  • Like 1

- Reklama -

 

Miejsce do wynajęcia. Zainteresowany? Zgłoś się na PW z propozycją :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Desynonimizacja działa w ten sposób, że podczas odwiedzin robota (czyli w zwykłym procesie indeksowania) tworzona jest postać prosta zdesynonimizowana i zapisywana w oddzielnym polu bazy (tworzony jest cache). Potem ta postać porównywana jest z innymi wpisami w cache. Zatem działa to jako standardowy search po bazie a to Google ma opracowane do perfekcji. Może teraz zrozumiecie że nie wymaga to mega mocy przeliczeniowych.

Pozdrawiam z pociągu powrotnego z Katowic

Impreza była super.

Hmm, na pierwszy rzut oka rzeczywiście wygląda to bardzo nieprawdopodobnie, złożoność operacji, konieczność angażowania kosmicznych mocy obliczeniowych, ale jeśli...

...jeśli coś podobnego wdrożono, to z pewnością w oparciu o działający od dawna mechanizm wyszukiwania Duplicate Content. A działa on z grubsza tak:

A) Podczas indeksacji ustalane są najważniejsze dla bieżącego dokumentu słowa kluczowe i frazy.

B) Każde z tych słów i fraz ma unikalną wartość liczbową (haszowanie). Następnie liczy się z nich, według założonego algorytmu, jakąś sumującą wartość (być może jest to wielowymiarowy wektor), która jest zapisywana w hash table. Wartość ta skorelowana jest z adresem url.

C) Teraz wystarczy podczas indeksacji innej strony lub podczas wyliczania rankingu dla wstępnie wybranego zestawu stron, porównać czy wyliczona "hash-wartość" występuje już w tabeli. Jeśli tak, mamy DC. (pewnie zakłada się jakieś marginesy błędu itp.).

Hmm, jeśli opracowano jakikolwiek mechanizm "desynonimizacji", wystarczy wpiąć go pomiędzy A i B... reszta jest prosta.

Ale i tak najbardziej przemawia do mnie analiza struktury linków wychodzących. Reszta tak sobie.

Edytowano przez LSE

Latent Semantic Engineering

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Uwielbiam ludzi takich jak Radek, którzy z jednej strony zgadzają się, że update się jeszcze na dobre nie zaczął, lub ciągle trwa, a już ma gotowe rozwiązania. Czekamy na kolejne szkolenia i książki, nie zapomnij o nich napisać w każdym możliwym wątku i za każdym razem jak się tylko udzielasz :)

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Porównywaniem stron o skopiowanej tresci zajmuje sie juz od dluższego czasu Panda, a musi wykonac podobną ilość operacji. Może już ja nawet zintegrowali z wyszukiwarka.

Jaką podobną ilość operacji ? Porównanie ŻYWCEM PARSOWANYCH TREŚCI ma sie nijak do desynonimizacji o której pisze Radek:

"Desynonimizacja działa w ten sposób, że podczas odwiedzin robota (czyli w zwykłym procesie indeksowania) tworzona jest postać prosta zdesynonimizowana i zapisywana w oddzielnym polu bazy (tworzony jest cache)."

Chodzi bowiem o to ile roboty musiałby wykonać pracy przy samej desynonimizacji. Mieląc sajty po 500k jednej z 50 subdomen domeny... No naprawdę ciemno to widzę :D


SZUKASZ NAPRAWDĘ DOBRYCH I TANICH PROXY ?

Proxy w ilości 70 tys. wymieniane cyklicznie, stabilność anonimowość i nielimitowany transfer:

KLIKNIJ I KUP LUB PORÓWNAJ WSZYSTKIE RODZAJE PROXY

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

@szfab

Przecież wiesz że wielu ludzi z BHS dziś pcha z premedytacją konkurencję w Pingwina nie udawaj blondynki. Nie nie ma mechanizmu zabezpieczającego przed tym tak jak nie ma mechanizmu zabezpieczającego przed wepchnięciem konkurencji w Pingwina przez rozwalenie profilu linków. Opisany mechanizm nie jest zamiast profilu linków a jest uzupełnieniem i rozwinięciem tej koncepcji.


logosc.png

Nowa odsłona systemu!!! --- Radek Kubera na G+.--- Mój blog: radek.kubera.org

Udostępnij ten post


Link to postu
Udostępnij na innych stronach

Bądź aktywny! Zaloguj się lub utwórz konto

Tylko zarejestrowani użytkownicy mogą komentować zawartość tej strony

Utwórz konto

Zarejestruj nowe konto, to proste!

Zarejestruj nowe konto

Zaloguj się

Posiadasz własne konto? Użyj go!

Zaloguj się

  • Kto przegląda   0 użytkowników

    Brak zalogowanych użytkowników przeglądających tę stronę.