Xann Opublikowano 9 Lutego 2009 Udostępnij Opublikowano 9 Lutego 2009 No to zobacz jak to wygląda u uświadomionych internautów https://www.forum.optymalizacja.com/index.p...4&hl=chrome Marketing internetowy dla firm Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
SMYS Opublikowano 9 Lutego 2009 Udostępnij Opublikowano 9 Lutego 2009 Akurat tej grupie teorie spiskowe i strach przed odnalezieniem ich tajnych spamów nie pozwalają na przesiadkę Ale reasumując, bo się gubię, Google przechodzi na Ajax po to by: - popularyzować silnik swojej przeglądarki ? - utrudnić SEOwcą sprawdzanie pozycji ? - utrudnić sprawdzanie referrer i popularyzować Analytics (który pewnie będzie sobie z tym radził bez problemu) ? Myślę, że 2 ostatnie punkty nie są żadnym problemem więc, albo coś przegapiłem albo pozostaje pkt 1. Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Trotyl Opublikowano 9 Lutego 2009 Udostępnij Opublikowano 9 Lutego 2009 - popularyzować silnik swojej przeglądarki ? Zastanawiam się czy wersja dla userów bez js będzie taka jak jest teraz czy może zamiast niej będzie "pobierz google chrome". - utrudnić SEOwcą sprawdzanie pozycji ? Skoro przeglądarki będą wyświetlać takie wyniki to i sprawdzarki poradzą sobie z tym. - utrudnić sprawdzanie referrer i popularyzować Analytics (który pewnie będzie sobie z tym radził bez problemu) ? No właśnie jak sprawdzić w takim wypadku? Co do Analytics to będzie coś więcej niż tylko popularyzacja nihil fit sine causa Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
General_Depet Opublikowano 9 Lutego 2009 Udostępnij Opublikowano 9 Lutego 2009 - utrudnić SEOwcą sprawdzanie pozycji ? Skoro przeglądarki będą wyświetlać takie wyniki to i sprawdzarki poradzą sobie z tym. Desktopowe "sprawdzarki" na bazie przeglądarki TAK ale o automatycznym sprawdzaniu za pomocą zwykłego serwerowego crona+curl+preg_replace zapomnij. iDir - skrypt na katalog stron lub firm - następca projektu SEOKatalog, dostosowany do dzisiejszych standardów, w pełni responsywny, na nowoczesnym frameworku. Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Trotyl Opublikowano 9 Lutego 2009 Udostępnij Opublikowano 9 Lutego 2009 zwykłego serwerowego crona+curl+preg_replace zapomnij A to czemu? Curl + preg_match_all + obsługa przesyłanych danych (parser) w php (tak jak w js). Nie widzę przeszkód, tylko trzeba będzie trochę pogrzebać Pewnie zanim bym wykombinował jak to zrobić to w sieci pojawiło by się mnóstwo gotowych rozwiązań. E: Zresztą jest dużo darmowych bibliotek obsługujących js Świat się nie kończy na PHP nihil fit sine causa Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
General_Depet Opublikowano 9 Lutego 2009 Udostępnij Opublikowano 9 Lutego 2009 A to czemu? Cron + preg_match_all + obsługa przesyłanych danych (parser) w php (tak jak w js). No właśnie nie. Spójrz na fotki które zamieściłem w swoim wcześniejszym poście. Curl() jak również file_get...() czy fopen() jako funkcje php po stronie serwera pobierają zawartość źródła strony - ajax jako skoligacony z javascript działa po stronie usera - czyli to przelądarka wysyła żądanie wyświetlenia się danej zawartości strony i to właśnie to żądanie obrabiane jest przez te funkcje jakie widzisz w źródle. Naturalnie wynik procesu ajaxa ponownie wysyłany jest bezpośrednio do przeglądarki - NIE zapisuje się w źródle . Używając więc tradycyjnego curla PO STRONIE SERWERA pobierzesz po prostu bezwartościowe funkcje ajaxa zawarte w źródle... - rozwiązaniem moim zdaniem jest przechwycenie zawartości strony wypuszczonej przez ajaxa do przeglądarki ale do tego niestety trzeba już sprzężyć jakąś aplikację - curl po stronie serwera nią niestety nie jest :/ iDir - skrypt na katalog stron lub firm - następca projektu SEOKatalog, dostosowany do dzisiejszych standardów, w pełni responsywny, na nowoczesnym frameworku. Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Trotyl Opublikowano 9 Lutego 2009 Udostępnij Opublikowano 9 Lutego 2009 danej zawartości strony i to właśnie to żądanie obrabiane jest przez te funkcje Ja cały czas pisze o wysłaniu tego żądania curlem i przemieleniu go w php zamiast ajaxowymi funkcjami E: Zobaczymy jak to będzie wyglądać i wtedy będziemy kombinować. Polak potrafi E2: Minie najbardziej martwi to że prawdopodobnie przez jakiś czas jedyną możliwością śledzenia (kosztów/konwersji itd) kampanii SEO będzie analytics nihil fit sine causa Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
k3rn3l Opublikowano 9 Lutego 2009 Udostępnij Opublikowano 9 Lutego 2009 Poczekamy zobaczymy i na pewno coś wykombinujemy... Marketing w sieci - da się ? Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
SMYS Opublikowano 9 Lutego 2009 Udostępnij Opublikowano 9 Lutego 2009 No właśnie nie. Spójrz na fotki które zamieściłem w swoim wcześniejszym poście. Curl() jak również file_get...() czy fopen() jako funkcje php po stronie serwera pobierają zawartość źródła strony - ajax jako skoligacony z javascript działa po stronie usera - czyli to przelądarka wysyła żądanie wyświetlenia się danej zawartości strony i to właśnie to żądanie obrabiane jest przez te funkcje jakie widzisz w źródle. Naturalnie wynik procesu ajaxa ponownie wysyłany jest bezpośrednio do przeglądarki - NIE zapisuje się w źródle . Używając więc tradycyjnego curla PO STRONIE SERWERA pobierzesz po prostu bezwartościowe funkcje ajaxa zawarte w źródle... - rozwiązaniem moim zdaniem jest przechwycenie zawartości strony wypuszczonej przez ajaxa do przeglądarki ale do tego niestety trzeba już sprzężyć jakąś aplikację - curl po stronie serwera nią niestety nie jest :/ Ajax to pobieranie strony i wyświetleniu jej w elemencie na innej stronie, ale to co pobierasz, czyli w tym przypadku SERP ma swój adres URL i pobierzesz go PHPem tak samo jak każdą inną stronę w sieci. Adresu tej strony trzeba po prostu szukać w skrypcie js i to cała różnica. Uważam że będzie nawet łatwiej, bo w zwrotnym dostaniesz same SERPy bez bzdetnego logo itp Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
yavaho Opublikowano 9 Lutego 2009 Udostępnij Opublikowano 9 Lutego 2009 ... czyli to przelądarka wysyła żądanie wyświetlenia się danej zawartości strony i to właśnie to żądanie obrabiane jest przez te funkcje jakie widzisz w źródle ...A inny program niz przeglądarka nie jest w stanie wysłać takiego żądania i potem odebrać dane?W przypadku ajax przeglądarka robi to w sposób dwu etapowy. Po co pobierać dane z pierwszego żądania (w ktorym wiekszość to kod JS) jak można pobrać tylko to co sie chce. . Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
General_Depet Opublikowano 9 Lutego 2009 Udostępnij Opublikowano 9 Lutego 2009 czyli w tym przypadku SERP ma swój adres URL i pobierzesz go PHPem tak samo jak każdą inną stronę w sieci. Adresu tej strony trzeba po prostu szukać w skrypcie js i to cała różnica. Jasne że może tak być ale wcale nie musi - zmienne zanim zostaną przesłane do skryptu php mogą zostać przez ajax w prosty sposób zaszyfrowane - nikt nie powiedział że w tych funkcjach w źródle musi być prosty i bezpośredni url do skryptu w php A inny program niz przeglądarka nie jest w stanie wysłać takiego żądania i potem odebrać dane? Oczywiście że może ale ja pisałam i piszę cały czas o automatycznym sprawdzaniu poprzez dzisiejszy cron+np. curl+preg_replace które dostępne są praktycznie w każdym hostingu za kilka złotych iDir - skrypt na katalog stron lub firm - następca projektu SEOKatalog, dostosowany do dzisiejszych standardów, w pełni responsywny, na nowoczesnym frameworku. Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
shad Opublikowano 9 Lutego 2009 Udostępnij Opublikowano 9 Lutego 2009 Jeżeli guugiel się postara to będzie ciężej, wystarczy dane uzupełniać o losowy identyfikator lub kodować losowymi parametrami. W sumie prostę rozwiążania a mogą trochę utrudnić życie. Więc wyjdzie w praniu .... Aplikacje internetowe, systemy wspomagające SEO, programy pod Windows i Linux, info na https://shad.net.pl - dopisz się do Katalogu Firm Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
SMYS Opublikowano 9 Lutego 2009 Udostępnij Opublikowano 9 Lutego 2009 Myślę, że jeśli IE sobie z tym poradzi, to my tym bardziej Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
MMP Opublikowano 9 Lutego 2009 Udostępnij Opublikowano 9 Lutego 2009 > - nikt nie powiedział że w tych funkcjach w źródle musi być prosty i bezpośredni url do skryptu w php smile.gif Wszystko jest w nagłówkach.. a że dane będą pewnie w formie json to analiza ich będzie 10x łatwiejsza niż teraz stopka usunieta z wpoodu wirusa na stronie docelowej Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Rekomendowane odpowiedzi
Zarchiwizowany
Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.