Maximus Marius Opublikowano 15 Czerwca 2009 Udostępnij Opublikowano 15 Czerwca 2009 Oczywiście że ma. To tak jak by ktoś miał wątpliwości Ktoś może widział jakieś wyniki badań , ewentualnie wpisy na blogu które by pokazywały ile potencjalny kl;ient naszej strony może czekać/wytrzymać na załadowanie się strony. Przy okazji czym można by to zmierzyć ? Firebug pokazuje czas ładowania poszczególnych elementów strony ale może ktoś zna coś lepszego. Zamiast pozycjonowania gram na gitarze i polecam kurs gitarowy Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
idolw Opublikowano 15 Czerwca 2009 Udostępnij Opublikowano 15 Czerwca 2009 Mierzenie za pomoca stopera ma sredni sens. Ponizej linki do dwoch narzedzi opartych na Firebugu https://code.google.com/speed/page-speed/ https://developer.yahoo.com/yslow/ polish suicide flew 48 successful missions Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
sleaquit Opublikowano 15 Czerwca 2009 Udostępnij Opublikowano 15 Czerwca 2009 mialem kiedys problem na jednej ero stronie, strona byla w tabelce a w tabelce bylo odwolanie do statystyki (tylko na stronie glownej) ktora sie z jakis powodow zepsula, skrypt czekal ok 30sek na zaladowanie po czym do przegladarki wczytywala sie strona, mimo ze przez te 30 sec mimo pobrania (mozna bylo obejzec zrodlo) ladowala sie tylko biala strona, w footerze poza tabela glowna mialem dodany ga nie mam pojecia ile czasu trwal problem - kilka min czy kilka dni, jednak ga w liczbie odslon podstron nie zanotowal specjalnego spadku - wszystko bylo w granicach normalnych wachan przy zalozeniu ze problem trwal kilka min to mozna powiedziec ze go nie bylo jednak przy zalozeniu ze problem trwal kilka dni to by wychodzily ze ludzie szukajacy porno czekaja 30 sekund na zaladowanie strony JA: Miał Pan już nie pisać - tak trudno to zrozumieć, nie życzę sobie już od Pana mailiKLIENT: to po co Pan odpisuje? lubi Pan miec pewnie ostatnie zdanie ..ja również Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
chutu82 Opublikowano 15 Czerwca 2009 Udostępnij Opublikowano 15 Czerwca 2009 odświeżam... 8 narzędzi ulotki plakaty papier firmowy Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Kamil Beniuk Opublikowano 11 Lipca 2009 Udostępnij Opublikowano 11 Lipca 2009 ja uzywam do tego narzędzia z https://www.widexl.com/seo/metatag-analyzer.html do przebadania meta tagów. a ma to znaczenie. ile czasu wytrwasz przy stronie która sie długo ładuje? https://www.mprojekty.com - Profesjonalne Strony Internetowe - Zobacz przestawienie oferty na youtube Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
kilas88 Opublikowano 11 Lipca 2009 Udostępnij Opublikowano 11 Lipca 2009 W większości przypadków warto kompresować stronę (m.in. mod_deflate), dzięki czemu możemy mieć stronkę o jakieś 80% lżejszą Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
grab Opublikowano 11 Lipca 2009 Udostępnij Opublikowano 11 Lipca 2009 na pozycję w wyszukwarkach - oczywiście że nie ma pianka folia piotrek harasimowicz folia bąbelkowa tworzywa sztuczne Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Mion Opublikowano 11 Lipca 2009 Udostępnij Opublikowano 11 Lipca 2009 Nie był bym tego taki pewien, ale tyczy się to raczej stron o długim "ładowaniu". Jak wiemy robota interesuje tylko sam kod, a nie grafiki wchodzące w skład strony, ale ten kod musi zostać przez niego pobrany w całości. Osobiście uważam, że roboty czyli klienci mają z określony czas od żądania dokumentu na jego pobranie i jeśli serwer w tym czasie nie odpowie, lub nie dostarczy całego dokumentu pobieranie jest przerywane. Takie ograniczenia wynikają z ilości stron jakie roboty muszą "odwiedzić by być na bieżąco" stąd właśnie powyższy wniosek. HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
grab Opublikowano 11 Lipca 2009 Udostępnij Opublikowano 11 Lipca 2009 hm, moim zdaniem nie ma takiego limitu, robot ma wejść i zaciągnąć stronę, jeżeli robot tego nie zrobi to user też tego nie zrobi. Czy dana strona ładuje się szybciej czy wolniej - nie ma to wpływu na pozycję w wyszukiwarkach. pianka folia piotrek harasimowicz folia bąbelkowa tworzywa sztuczne Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Mion Opublikowano 11 Lipca 2009 Udostępnij Opublikowano 11 Lipca 2009 hm, moim zdaniem nie ma takiego limitu, robot ma wejść i zaciągnąć stronę, jeżeli robot tego nie zrobi to user też tego nie zrobi.Napisałeś kiedyś jakiś program który opiera się na efektywnych żądaniach HTTP ? wątpię, bo gdyby tak było zrozumiał byś o co mi chodzi Jeśli pojedyncze żądanie HTTP trwało by tylko 1 sekundę klient bota w ciągu godziny był by w stanie "pobrać" tylko 3600 stron, a co z pozostałymi z niezliczonych pokładów internetu np: Wyniki 1 - 10 spośród około 19,400,000 dla zapytania pozycjonowanie. Wyniki 1 - 10 spośród około 721,000,000 dla zapytania sex. itd... Rozumiesz teraz na czym polega istota tego zagadnienia... Więc jeśli boot nie pobierze całości w określonym dla niego interwale czasowym inny bot nie dokona jej analizy co za tym idzie będzie miało to wpływ na SERP'y. HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
SirZooro Opublikowano 11 Lipca 2009 Udostępnij Opublikowano 11 Lipca 2009 Fakt, szybkość ładowania się strony jest bardzo ważna. Ostatnio przeniosłem jedną stronę z webd (średni czas pobierania wg google był ok. 5-6 sek) na prohost (ok 1 sek) i efekty widać - wcześniej miałem średnio jeden nowy komentarz na miesiąc, teraz na dzień Ostatnio Google stworzyło też stronę (na razie tylko po angielsku) poświęconą optymalizacji szybkości: https://code.google.com/speed/ Polecam moje pluginy do WordPress'a: WyPiekacz, Meta SEO Pack, User Locker, Google Integration Toolkit i wiele innych Poradnik Webmastera ‰ Ostatnio na blogu: Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
breja Opublikowano 12 Lipca 2009 Udostępnij Opublikowano 12 Lipca 2009 Napisałeś kiedyś jakiś program który opiera się na efektywnych żądaniach HTTP ? wątpię, bo gdyby tak było zrozumiał byś o co mi chodzi Jeśli pojedyncze żądanie HTTP trwało by tylko 1 sekundę klient bota w ciągu godziny był by w stanie "pobrać" tylko 3600 stron, a co z pozostałymi z niezliczonych pokładów internetu Hmm chyba przekombinowales nie ma wiekszego znaczenia czy puszcza 100botow ktore beda czytaly po 10s kazda strone czy puszcza 1000botow ktore beda czytaly po 1s nie maja przeciez limitu botow moga odpalac tysiace watkow na kazdej maszynie kontrolujac tylko ile uciagnie maszynka czyli jak strony sie wolno laduja to odpala wiecej watkow jak szybko to mniej. Pozdrawiam, breja Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Mion Opublikowano 12 Lipca 2009 Udostępnij Opublikowano 12 Lipca 2009 nie maja przeciez limitu botow moga odpalac tysiace watkow na kazdej maszynie kontrolujac Tak samo jak nie ma limitu baz na hostingach, limitu transferu i wielu innych nie istniejących w teorii lecz występujących w praktyce limitów Przy tak ogromnej i stale rosnącej ilości stron do odwiedzenia czas czas realizacji żądania HTTP nabiera całkiem innego wymiaru. Zresztą z punktu widzenia docelowego usera czas w jakim otrzyma pełny dokument jest też ważny. Wiec dlaczego wyszukiwarki nie mają za to przydzielać dodatkowej punktacji. Jeśli na szali znajdą się strony o porównywalnym "oczyma bootów" poziomie wartości w SERPA'ch wyżej może pojawić się serwis którego pobranie kodu HTML o wielkości 20 KB zajmuje 500 ms, a nie 10 sekund. --- co wiecej---- Czas ładowania strony na 100% ma wpływ na komfort usera czego żywym przykładem był serwis NK w czasach łańcuchowo rosnącej popularności HTTP 200 usługi IT -> Dariusz Janicki | Realizacja serwisów www oraz oprogramowania w PHP / C# / Golang / Node.js / MySQL/ Laravel Komory normobaryczne - normobaria.tech Wykonawca montażu i instalacji komory normobarii Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
zoreander Opublikowano 12 Lipca 2009 Udostępnij Opublikowano 12 Lipca 2009 Hmm chyba przekombinowales wink.gif nie ma wiekszego znaczenia czy puszcza 100botow ktore beda czytaly po 10s kazda strone czy puszcza 1000botow ktore beda czytaly po 1s smile.gif Idąc tym tokiem rozumowania im wolniej chodzi mi strona, tym więcej botów mnie odwiedza, co jest nie logiczne i mija się z praktyką. Wychodziłoby na to, że np. G. zamiast indeksować dobre, wczytujące się szybko strony poświęca większość zasobów na wczytujące się powoli lub chodzące na za słabych serwerach serwisy.. ... Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
breja Opublikowano 13 Lipca 2009 Udostępnij Opublikowano 13 Lipca 2009 Tak samo jak nie ma limitu baz na hostingach, limitu transferu i wielu innych nie istniejących w teorii lecz występujących w praktyce limitów google ma tysiace botow a nie jednego dlatego obstawiam ze nie ma znaczenia dla jednej maszyny czy wysylaja 100botowe ktore ciagna XY Mb/s czy 1000 ktore tez ciagna XY Mb/s liczba botow w tym wypadku nie jest limitem a szybkosc zapisu do bazy! Gdyby mieli jedna maszyne to bym sie zgodzil ze az tak by sie przejmowali predkoscia pobierania. Przy tak ogromnej i stale rosnącej ilości stron do odwiedzenia czas czas realizacji żądania HTTP nabiera całkiem innego wymiaru. Przy tak ogromnej i stale rosnącej ilości serwerów do odwiedzenia czas czas realizacji żądania HTTP nabiera całkiem innego wymiaru. Myle sie? Zresztą z punktu widzenia docelowego usera czas w jakim otrzyma pełny dokument jest też ważny. Zgadzam sie nawet byly testy ze jezeli w ciagu 5s strona sie nei zaladuje to wiekszosc odwiedzajacych przchodzi na inna strone. Wiec dlaczego wyszukiwarki nie mają za to przydzielać dodatkowej punktacji. Pewnie i przyznaja tylko ja bym obstawial ze ujemne w przypadku naprawde zle dzialajacych stron Idąc tym tokiem rozumowania im wolniej chodzi mi strona, tym więcej botów mnie odwiedza, co jest nie logiczne i mija się z praktyką. Jeszcze raz przeczytaj co pisalem zakladamy ze google chce zassac twoja strone w tepie 1000podstron na godzine wysyla 10 botow ale widzi ze tepo jest zbyt male i dosyla kolejnych. To nie jest tak ze czym wiecej botow tym lepiej bo one i tak tyle samo roboty odwalaja Wychodziłoby na to, że np. G. zamiast indeksować dobre, wczytujące się szybko strony poświęca większość zasobów na wczytujące się powoli lub chodzące na za słabych serwerach serwisy.. Nie wiesz ile maja zasobow wiec twoje pretesje sa wyssane z palca Przeciez slabych/nowych/duzych stron nie indexuja w calosci wiec maja mechanizm optymalizujacy Pozdrawiam, breja Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Rekomendowane odpowiedzi
Zarchiwizowany
Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.