kpt.nemo

Google Update: Frazy Mocno Spamowane

Recommended Posts

Jeśli jest tak jak twierdzisz to mamy 2 - 3 miesięcy na przygotowanie się u nas w PL? Troche długo.

Edited by Kejson

Share this post


Link to post
Share on other sites

Bo Google nie ma jeszcze wysterowanych wag rankujących - dopiero je ustala na podstawie najbardziej zaspamowanych fraz. I zajmie im to jeszcze trochę czasu.


logosc.png

Nowa odsłona systemu!!! --- Radek Kubera na G+.--- Mój blog: radek.kubera.org

Share this post


Link to post
Share on other sites

10 lat walczą ze spamem to te dodatkowe 3 miechy w sumie nie robią różnicy. Ten ich nowy patent będzie okresowo czy włączą go do sobie do algorytmu?

Jesli ma być skuteczny na spamy powienien być non stop online.

Edited by Kejson

Share this post


Link to post
Share on other sites

Przestańcie już bredzić. Słońce w końcu wyszło, może trzeba czymś głowę nakryć?

Potem ta postać porównywana jest z innymi wpisami w cache.

Zastanów się ile podstron średnio ma jedna strona. 100, 1000? Dla każdej takiej podstrony musiałby być zrobiony taki cache i porównany z każdą podstroną innych serwisów. KAŻDA PODSTRONA Z KAŻDĄ PODSTRONĄ. Nie będę nawet próbował tego liczyć, bo jest to liczba kilkunastokrotnie większa od nieskończoności :)


"Ja nie bywam w kuluarach, nie wiem gdzie to jest. Bywam w innych miejscach w innym towarzystwie..." SEO Norris - cytat roku 2014
"Dlatego dużo firm i freelancerów zajęło się pp, nie poradzili sobie z klientami i aktualizacjami algo." Cytat wszech czasów!

Share this post


Link to post
Share on other sites

Porównywaniem stron o skopiowanej tresci zajmuje sie juz od dluższego czasu Panda, a musi wykonac podobną ilość operacji. Może już ja nawet zintegrowali z wyszukiwarka.

  • Like 1

Share this post


Link to post
Share on other sites

Czy mógłbym się od kogoś w skrócie dowiedzieć, co się stało?


MULTIKONTO

Share this post


Link to post
Share on other sites

@Radek obrosłes w pióra, że hoho,

nie czytałem do końca twojego posta, stąd nie wiem czy była mowa o zabezpieczeniu konkurencji. Google z apriorytet uwaza sobie postronnych ludzi na co M sciemniacz zawsze zwraca uwage. Z 301 walczyli od niepamietnych czasow i nadal dziala, jedynie czasem zeby ud***c konkurencj enalezy mocno cisnac i czekac na to az w koncu profil linkowania "jebutnie".

Jesli Twoje sieci neuronowe mają zastapic profil linkowania to poslucham w jaki sposob google zabezpieczy np. Twoje strony.

Jeszcze zerknalem okiem na Twoje wypociny i nie znalazlem ani slowa o zabezpieczeniu osob trzecich.

Postaraj sie to opisac w kilku zdaniach zanim wysiadiesz z pociagu...

Edited by szfab

O_o

Share this post


Link to post
Share on other sites

Na dziś wywodu z tego tematu można podsumować krótko: hipotezy hipotez.

Edited by D_S

Share this post


Link to post
Share on other sites

@D_S i to hipotetycznie rzecz jasna

  • Like 1

- Reklama -

 

Miejsce do wynajęcia. Zainteresowany? Zgłoś się na PW z propozycją :)

Share this post


Link to post
Share on other sites

Desynonimizacja działa w ten sposób, że podczas odwiedzin robota (czyli w zwykłym procesie indeksowania) tworzona jest postać prosta zdesynonimizowana i zapisywana w oddzielnym polu bazy (tworzony jest cache). Potem ta postać porównywana jest z innymi wpisami w cache. Zatem działa to jako standardowy search po bazie a to Google ma opracowane do perfekcji. Może teraz zrozumiecie że nie wymaga to mega mocy przeliczeniowych.

Pozdrawiam z pociągu powrotnego z Katowic

Impreza była super.

Hmm, na pierwszy rzut oka rzeczywiście wygląda to bardzo nieprawdopodobnie, złożoność operacji, konieczność angażowania kosmicznych mocy obliczeniowych, ale jeśli...

...jeśli coś podobnego wdrożono, to z pewnością w oparciu o działający od dawna mechanizm wyszukiwania Duplicate Content. A działa on z grubsza tak:

A) Podczas indeksacji ustalane są najważniejsze dla bieżącego dokumentu słowa kluczowe i frazy.

B) Każde z tych słów i fraz ma unikalną wartość liczbową (haszowanie). Następnie liczy się z nich, według założonego algorytmu, jakąś sumującą wartość (być może jest to wielowymiarowy wektor), która jest zapisywana w hash table. Wartość ta skorelowana jest z adresem url.

C) Teraz wystarczy podczas indeksacji innej strony lub podczas wyliczania rankingu dla wstępnie wybranego zestawu stron, porównać czy wyliczona "hash-wartość" występuje już w tabeli. Jeśli tak, mamy DC. (pewnie zakłada się jakieś marginesy błędu itp.).

Hmm, jeśli opracowano jakikolwiek mechanizm "desynonimizacji", wystarczy wpiąć go pomiędzy A i B... reszta jest prosta.

Ale i tak najbardziej przemawia do mnie analiza struktury linków wychodzących. Reszta tak sobie.

Edited by LSE

Latent Semantic Engineering

Share this post


Link to post
Share on other sites

Uwielbiam ludzi takich jak Radek, którzy z jednej strony zgadzają się, że update się jeszcze na dobre nie zaczął, lub ciągle trwa, a już ma gotowe rozwiązania. Czekamy na kolejne szkolenia i książki, nie zapomnij o nich napisać w każdym możliwym wątku i za każdym razem jak się tylko udzielasz :)

Share this post


Link to post
Share on other sites

Porównywaniem stron o skopiowanej tresci zajmuje sie juz od dluższego czasu Panda, a musi wykonac podobną ilość operacji. Może już ja nawet zintegrowali z wyszukiwarka.

Jaką podobną ilość operacji ? Porównanie ŻYWCEM PARSOWANYCH TREŚCI ma sie nijak do desynonimizacji o której pisze Radek:

"Desynonimizacja działa w ten sposób, że podczas odwiedzin robota (czyli w zwykłym procesie indeksowania) tworzona jest postać prosta zdesynonimizowana i zapisywana w oddzielnym polu bazy (tworzony jest cache)."

Chodzi bowiem o to ile roboty musiałby wykonać pracy przy samej desynonimizacji. Mieląc sajty po 500k jednej z 50 subdomen domeny... No naprawdę ciemno to widzę :D


SZUKASZ NAPRAWDĘ DOBRYCH I TANICH PROXY ?

Proxy w ilości 70 tys. wymieniane cyklicznie, stabilność anonimowość i nielimitowany transfer:

KLIKNIJ I KUP LUB PORÓWNAJ WSZYSTKIE RODZAJE PROXY

Share this post


Link to post
Share on other sites

@szfab

Przecież wiesz że wielu ludzi z BHS dziś pcha z premedytacją konkurencję w Pingwina nie udawaj blondynki. Nie nie ma mechanizmu zabezpieczającego przed tym tak jak nie ma mechanizmu zabezpieczającego przed wepchnięciem konkurencji w Pingwina przez rozwalenie profilu linków. Opisany mechanizm nie jest zamiast profilu linków a jest uzupełnieniem i rozwinięciem tej koncepcji.


logosc.png

Nowa odsłona systemu!!! --- Radek Kubera na G+.--- Mój blog: radek.kubera.org

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Recently Browsing   0 members

    No registered users viewing this page.