statystyczny internauta Opublikowano 23 Kwietnia 2006 Udostępnij Opublikowano 23 Kwietnia 2006 Mam na stronie trochę tekstów - chciałbym je w miarę szybko dodawać, ale niestety zawierają formatowanie (czasem trzeba coś pogrubić, powiększyć, itd.) - dostaję je w .doc i przerabiam ręcznie. Czy ktoś z Was ma może doświadczenie jeśli chodzi o indeksowanie/pozycjonowanie w Google stron, które zawierają nieczytelny kod z jakichś generatorów (tzn. eytorów WYSIWYG on-line, do których można wkleić sformatowany tekst) - powiedzmy: https://republika.pl/statystyczny/kod1.html. Kod tu jest okropny, czy Google go zrozumie i wyciągnie coś z niego? Czy choćby uzna, że słowa pogrubione są ważniejsze, itd.? Oczywiście zakładam, że nagłówki i inne części strony będą wyglądały normalnie, taki kod dotyczył będzie tylko głównego tekstu. Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
MariuszT Opublikowano 23 Kwietnia 2006 Udostępnij Opublikowano 23 Kwietnia 2006 Moze troche nie na temat bo pytasz o cos innego ale mysle, ze pomoge - w php sa klasy, ktore maja za zadanie czyscic jakas tresc z, za przeproszeniem, gowna, ktore dodaje np. word Poszukaj dobrze na www.phpclasses.org a na pewno cos znajdziesz i nie bedziesz sie musial zastanawiac jak Cie potraktuje google. A jak juz mam odpowiedziec na pytanie to moim zdaniem, gdy google wpadnie na cos czego nie zrozumie to po prostu to oleje i strona moze na tym tylko stracic. Pytanie tylko na ile google jest inteligentne, tzn. gdzie jest ta granica kiedy bedziemy mogli powiedziec, ze kod jest nieczytelny dla robota google. Raczej trudno odpowiedziec na to pytanie, nie widze mozliwosci przeprowadzania tutaj testow bo nie pracujemy nad jakas konkretna materia. A wgladu do kodow zrodlowych google tez raczej nie posiadamy Dlatego polecam rozwiazanie przedstawione na samej gorze. Sprzedam artykuły, 1 grosz za 5000 znaków! https://www.forum.optymalizacja.com/index.p...howtopic=126817 Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
EDDY Opublikowano 23 Kwietnia 2006 Udostępnij Opublikowano 23 Kwietnia 2006 https://pl.php.net/strip_tags Polecam linki stałe w Seomatik.pl oraz dopalacz stron Gotlink.pl. Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
MariuszT Opublikowano 24 Kwietnia 2006 Udostępnij Opublikowano 24 Kwietnia 2006 https://pl.php.net/strip_tags strip_tags usuwa CALY html, zrobilby sie z tego jeden ciag znakow a raczej nie o to chodzi.. Dlatego proponowalem koledze uzycia specjalnej klasy, ktora wie co ma wywalic (jakies bzdury, ktore dodaje np. word) ale zeby zostawil chociazby pogrubienia, linki itd. Dopisek po paru minutach Tak, wiem, ze w strip_tags mozna podac tagi, ktore maja zostac pominiete podczas usuwania ale i tak zostana bzdurne style i inne parametry dla tych tagow. Tu trzeba bardziej zaawansowanego narzedzia. Sprzedam artykuły, 1 grosz za 5000 znaków! https://www.forum.optymalizacja.com/index.p...howtopic=126817 Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
jez Opublikowano 24 Kwietnia 2006 Udostępnij Opublikowano 24 Kwietnia 2006 Szczerze? Trąbi się o standardach, przejrzystym kodzie, pięknym, gołym strict xhtml, a tymczasem i poprawny kod i brzydkie, naśmiecone tabelkami paszkwile mają zbliżone szanse w Google. Indeksacja? Wszystko zależy od konstrukcji strony. Możesz zbudować tą samą konstrukcję korzystając ze standardów, możesz zbudować ją też przy wykorzystaniu zwykłych koderskich śmieci. Te drugie, przynajmniej, dają mniejsze ryzyko duplicate content. Pozdrawiam, J. Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
sir nimek Opublikowano 24 Kwietnia 2006 Udostępnij Opublikowano 24 Kwietnia 2006 jeżu ma rację. Kod może być nieprzejrzysty a Google i tak go łyknie. Więc czyszczenie ręczne kodu to imho strata czasu lepiej zbieraj BL. https://www.forum.optymalizacja.com/index.p...st&p=424261 Irek Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
EDDY Opublikowano 24 Kwietnia 2006 Udostępnij Opublikowano 24 Kwietnia 2006 Tak, wiem, ze w strip_tags mozna podac tagi, ktore maja zostac pominiete podczas usuwania ale i tak zostana bzdurne style i inne parametry dla tych tagow. Tu trzeba bardziej zaawansowanego narzedzia. https://www.phpclasses.org/browse/package/1020.html Polecam linki stałe w Seomatik.pl oraz dopalacz stron Gotlink.pl. Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
anas Opublikowano 24 Kwietnia 2006 Udostępnij Opublikowano 24 Kwietnia 2006 Hej. Odnośnie samego języka php i oczyszczania kodu, możesz korzystać z biblioteki Tidy - tutaj artykuł na ten temat: https://www.zend.com/php5/articles/php5-tidy.php A tutaj opis funkcji w manualu PHP: https://pl.php.net/tidy Jeśli chodzi o edytory WYSWIG - możeszs skorzystać z KUPU - to prosty edytor WYSWIG na www, który trzyma się standardu XHTML i można pod niego podpiąć własnego CSS'a. pozdrówka anas ---------------------------------------------------------------------------- Tadam Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
AdamD Opublikowano 24 Kwietnia 2006 Udostępnij Opublikowano 24 Kwietnia 2006 A ja podejdę do sprawy od drugiej strony ... bo co by nie mówić o produktach M$, to opcja wyszukaj i zamień w Wordzie daje całkiem potężne możliwości - i nie ma specjalnego problemu żeby pozamieniać ^p w <p />, ^l w <br />, pogrubienia w <strong /> czy italiki w <em />. I to wszystko praktycznie bezwysiłkowo w ciągu kilku chwil. Swojego czasu dostawałem do wrzucenia na WWW dokumenty w PDF, z których należało wyciągnąć treść, obrobić ją i zamieścić jako czysty tekst. No i Word tu był niezastąpiony, po pogodzeniu się z tym narzędziem wszystko robiło się "samo". Pozdrawiam, AdamD PS: oczywiście jeśli dostajesz do obrobienia pięć tysięcy dokumentów tygodniowo, a nie pięć w miesiącu, to to nie będzie gra warta świeczki. Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
MariuszT Opublikowano 24 Kwietnia 2006 Udostępnij Opublikowano 24 Kwietnia 2006 A ja podejdę do sprawy od drugiej strony ... itd. Bez obrazy ale glupoty piszesz kolego Otworz sobie jakis dokument w Wordzie a potem w menu plik wyszukaj opcje, ktora sie nazywa bodajze Zapisz jako strone Web i sprawdz zrodlo tejze strony. Widzisz ta mase bezuzytecznych smieci w kodzie? Jak chcialbys zamienic to narzedziem Znajdz/zamien skoro te znaczniki nie wyswietlaja sie w Wordzie? No chyba, ze chcesz otworzyc dokument w wordzie, zapisac go jako strone www, potem wejsc w zrodlo i skopiowac je ponownie do worda ale mam cicha nadzieje, ze nikt nie ma takich pomyslow Swoja droga, nawet gdyby sie dalo zamienic od razu w wordzie, to jak lepiej - bawic sie w worda czy skorzystac z gotowego skryptu w php, ktory obrobi wszystko w ulamek sekundy? EDDY wyszukal gotowa klase, anas polecil tidy i popieram wlasnie takie rozwiazania BTW Faktycznie jaki kod by nie bylo to google i tak odczyta wszystko. Ale nigdy nie bedziemy mieli pewnosci czy strona z kodem z Worda nie traci, chociazby minimalnie, w oczach google. Nie ma za bardzo jak to sprawdzic niestety. Ale trzymanie sie standardow nikomu nie zaszkodzi Sprzedam artykuły, 1 grosz za 5000 znaków! https://www.forum.optymalizacja.com/index.p...howtopic=126817 Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
statystyczny internauta Opublikowano 24 Kwietnia 2006 Autor Udostępnij Opublikowano 24 Kwietnia 2006 Moze troche nie na temat bo pytasz o cos innego ale mysle, ze pomoge - w php sa klasy, ktore maja za zadanie czyscic jakas tresc z, za przeproszeniem, gowna, ktore dodaje np. word Poszukaj dobrze na www.phpclasses.org a na pewno cos znajdziesz i nie bedziesz sie musial zastanawiac jak Cie potraktuje google. Dzięki za info. Nie miałem pojęcia, że istnieją takie klasy, sprawdzę to https://pl.php.net/strip_tags To jednak trochę za mało jak dla mnie - wyciąć wszystkie to za dużo, wyciąć część - za mało, bo tam są np. znaczniki, które tylko w niektórych miejscach kodu są potrzebne, a w innych to bezużyteczne śmieci. Trąbi się o standardach, przejrzystym kodzie, pięknym, gołym strict xhtml, a tymczasem i poprawny kod i brzydkie, naśmiecone tabelkami paszkwile mają zbliżone szanse w Google. Ale ładny kod to dodatkowo mniejsza waga strony, co (poprawcie mnie, jeśli się mylę ) też ma znaczenie dla Google (a już na pewno przy większych stronach przekłada się na mniejsze zużycie transferu). Tyle, że w moim przypadku trudno mówić o ładnym kodzie, bo chcę mieć po prostu poprawnie zaindeksowane strony - chyba zaryzykuję Mam alternatywę: albo mniej tekstów o ładnym kodzie, albo więcej tekstów (=podstron, słów kluczowych) z brzydkim kodem. Odnośnie samego języka php i oczyszczania kodu, możesz korzystać z biblioteki Tidy - tutaj artykuł na ten temat: https://www.zend.com/php5/articles/php5-tidy.php Wygląda zachęcająco, ale niestety będę musiał skorzystać z klasy w PHP - bo wygląda na to, że pójdzie toto tylko na PHP5 (a mam 4.x.x), zresztą i tak nie ma szans namówienia administratora serwera na doinstalowanie tego. A ja podejdę do sprawy od drugiej strony ... bo co by nie mówić o produktach M$, to opcja wyszukaj i zamień w Wordzie daje całkiem potężne możliwości - i nie ma specjalnego problemu żeby pozamieniać ^p w <p />, ^l w <br />, pogrubienia w <strong /> czy italiki w <em />. I to wszystko praktycznie bezwysiłkowo w ciągu kilku chwil. Właściwie masz rację - na Wordzie się nie znam, ale pewnie możnaby napisać makro do tego i automatycznie wszystko przerobić. Pomyślę o tym, chociaż i tak pozostaje problem tekstów, które być może w przyszłości będą dodawać sami odwiedzający. Dzięki wszystkim za rady Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
jez Opublikowano 25 Kwietnia 2006 Udostępnij Opublikowano 25 Kwietnia 2006 Ale ładny kod to dodatkowo mniejsza waga strony, co (poprawcie mnie, jeśli się mylę ) też ma znaczenie dla Google (a już na pewno przy większych stronach przekłada się na mniejsze zużycie transferu). Tyle, że w moim przypadku trudno mówić o ładnym kodzie, bo chcę mieć po prostu poprawnie zaindeksowane strony - chyba zaryzykuję Mam alternatywę: albo mniej tekstów o ładnym kodzie, albo więcej tekstów (=podstron, słów kluczowych) z brzydkim kodem. Zgadza się. Korzyścią z ładnego i maksymalnie krótkiego kodu (a chyba najkrótszy kod daje css + strict xhtml) jest mniejsze zużycie transferu, ale - powiedzmy sobie szczerze - w świecie w którym za drobne paręset złotych miesięcznie można kupić dedyka z 3TB miesięcznego transferu, transfer jest trzeciorzędną kwestią. Jeżeli masz serwis z paroma setkami FAKTYCZNYCH stron (bez indeksowania każdej możliwej kolejności sortowania i innych smutnych tricków, dających skutek odwrotny od zamierzonego), to to czy strona ma 20kB kodu czy 50kB, nie ma większego znaczenia. Oczywiście, jeżeli miałoby to oddźwięk w szybkości ładowania się strony, a zatem i obniżałoby jej CTR/CR, to jest sens ją odchudzać, ale tylko i wyłącznie dla szybkości ładowania strony/komfortu odwiedzających (których w stronach dla żywych userów a nie dla robotów, jest 1000 razy więcej niż robotów). Indeksacja strony lub jej brak nie zależy od długości kodu strony (w granicach rozsądku). Piszę "w granicach rozsądku", bo już jakiś czas temu obalono ok. rok temu prawdziwą tezę, że Google indeksuje tylko pierwsze 100kB kodu każdej podstrony. Teraz są indeksowane strony o wiele większe. Oczywiście nie polecam tworzenia stron o wiele większych. Pozdrawiam, J. Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
anas Opublikowano 25 Kwietnia 2006 Udostępnij Opublikowano 25 Kwietnia 2006 @Jez: odnosnie tego transferu zalezy to od liczby odwiedzajacych Twoj serwis - jezeli bedzie to serwis ktory ma okolo 10 000 U / dobe to wtedy roznica miedzy 30 a 50 KB jest znaczna - przy zalozeniu ze jeden user wyklika nam średnio 15 odsłon to: przy 50 KB =~ 215 GB / mc przy 30 KB =~ 128 GB / mc przekaluluj to sobie dla powiedzmy 50 000 lub 100 000 userow dziennie. - wtedy to ma znaczenie. Patrzac dalej nie kazdego stac przy mniejszych serwisach na serwer dedykowany - a jak wiemy transfery na serwerach wirtualnych nie siegaja takich szczytow jak podales w przypadku dedyka - wiec tutaj mozna spokojnie zaoszczedzic pieniadze, przechodzac na layout w XHTML + CSS (dobrze zrobiony oczywiscie). Jeżeli chodzi o prędkość ładowania to nie jest ona kluczowa w przypadku prostego kodu w XHTML + CSS, a raczej skraca się czas renderowania strony przez przeglądarkę (tym samym użytkownicy słabszego sprzętu po pobraniu strony zobaczą ją dużo szybciej, niż serwis z masą zagnieżdzonych tabel), idąc dalej witryna przygotowana na tabelach jest nieczytelna dla osób niewidomych, nie jest czytelna dla przeglądarek tekstowych, nie jest czytelna dla urządzeń mobilnych - w przypadku dobrego kodu XHTML(który mówi tylko o strukturze dokumentu nie jego wyglądzie) możemy podmienić styl dla konkretnego agenta(przeglądarki) i np. serwować jeden dokument dla komputerów PC, do wydruku, na ekran tv, na komórke, etc. Myślę że to są ważniejsze zalety stosowania XHTML + CSS, a nie prędkość ładowania strony. pozdrowka anas ---------------------------------------------------------------------------- Tadam Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
mrtn Opublikowano 25 Kwietnia 2006 Udostępnij Opublikowano 25 Kwietnia 2006 ALe czytość kodu to nie tylko problem transferu. A parsowanie danych ? przy 2-krtonie większej objętości kodu parsowanie może być nawet 4-krtonie wolniejsze Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
burzam Opublikowano 27 Kwietnia 2006 Udostępnij Opublikowano 27 Kwietnia 2006 Zapominacie o jednym.. indeksowanie/przejrzystosc kodu to jedno - a automatyzacja skryptow to drugie Niestety ja mam ten problem, ze tworze narzedzia do aktualizacji 14 duzych i srednich sklepow internetowych - promocje, porady, artykuly, newsy itp. - ktos musi to pisac, uaktualniac a teksty musza byc ladnie sformatowane... Czym sformatowane ? - oczywiscie htmlarea - bo taka osoba dbajaca o kontent nie ma zielonego pojecia o html`u - a chec wytlumaczenia jak podlinkowac fraze za pomoca "<a href..." konczy sie pytaniem co 5 min: "a jak to bylo?". I wszystko byloby pieknie i ladnie - gdyby nie edytory WYSIWYG - ktore NIEPRAWIDLOWO uzywane mieszaja w kodzie html/css - moze nie tak jak word, ale zawsze znajdzie sie pare warningow. I co mam zrobic ? zaciachac sie z paroma setkami podstron, zeby na kazdej kod byl poprawny ? Bzdura! Rezygnuje z tego na rzecz przejrzystosci czytanych przez odwiedzajacych tekstow (a te nie sa krotkie) i automatyzacji calego procesu ich dodawania. A zaden algorytm nie posprzata po moich kolegach - "specjalistach" od kontentu. (hehe - jak zagladam w ich kod z htmlarea to nie wiem czy plakac czy sie smiac) WNIOSKI POD WZGLEDEM POZYCJONOWANIA: (mamy dziesiatki czolowych pozycji w googlu od dawna) Wazniejszy jest sam tekst i jego tresc niz przesadna czystosc kodu (dopuszczam pare warning`ow tidy`ego, error`ow nie toleruje) - a strony pozycjonuja sie dobrze, ba.. nawet b. dobrze. Notebooki | AGD RTV Odnośnik do komentarza Udostępnij na innych stronach Więcej opcji udostępniania...
Rekomendowane odpowiedzi
Zarchiwizowany
Ten temat przebywa obecnie w archiwum. Dodawanie nowych odpowiedzi zostało zablokowane.