Jump to content

jolan

Forumowicze
  • Content Count

    183
  • Joined

  • Last visited

Community Reputation

8 Neutral
  1. @ucho_od_sledzia to nie ma większego znaczenia... jak zaczynam od // tzn. że nie wybieram protokołu w jakim zostanie mi zwrócone zapytanie jak jest https:// tzn. że chcę po SSLu. Ale mniejsza o to i tak i tak OSM zwraca mi obrazki po http np. http://c.tile.openstreetmap.org/17/73185/43158.png co ciekawe jeden zwraca po https a mianowicie marker: https://openlayers.org/api/img/marker.png Ma ktoś pomysł jak "wymusić" na OSM https?
  2. To nie takie proste. W HEAD ładuję .js script src="https://openlayers.org/api/OpenLayers.js" /script a w body mam mapę z przykładu na https://wiki.openstreetmap.org/wiki/OpenLayers_Simple_Example i zwraca mi mapę po http. A jak Wy robicie, że macie po https?
  3. Dzięki, ale dopytam jeszcze raz: czy w google webmaster tools trzeba usuwać konto i zakładać nowe z adresem z https:// ?? Poprzednie konto było na http i teraz ścieżki (np. sprawdź jako google) pokazuje http. Oczywiście jest przekierowanie, ale czy nie lepsze jest założenie nowego konta z adresem zaczynającym się od https? Zauważyłem właśnie, że podpięcie pod strony mapy openstreetmaps powoduje, że certyfikat wyświetla się z ostrzeżeniem, że strona jest niezabezpieczona. Chodzi o to, że openstreetmaps wysyła obrazki z mapy po http a przeglądarka traktuje taką stronę jako "niepewną". Skoro na każdej stronie jest mapka z OSM co powoduje generowanie takiego komunikatu to chyba wykorzystanie SSLa jest wątliwie zasadne? A może można jakoś pobierać OSM po https'ie?
  4. > Masz 100 000 stron www, czy 100k podtsron w jednej stronie www? 100k stron w jednej domenie więc przemielenie przez G trochę by potrwało. Zwłaszcza, że musiałem trochę go przekonywać żeby zechciał je zindexować :) Strony nie mają żadnych danych, formularzy więc teoretycznie https jest zbędne jednak "wszyscy" mają więc chyba nie ma od tego odwrotu. Mam tu procedurę czy czegoś nie pominąłem? 1. ustawienie certyfikatu 2. ustawienie przekierowania w .htaccess #przekierowanie na https RewriteCond %{HTTPS} !=on RewriteRule ^ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301] 3. zmiana z http:// na https:// w adresach na wszystkich stronach 4. zmiana z http:// na https:// w sitemap.xml I jeszcze jedno czy w google webmaster tools trzeba usuwać konto i zakładać nowe z adresem z https:// ?? Pytam bo np. ścieżki np. do sprawdzania urla (np. sprawdź nako google) zaczynają się od http:// więc potem może być jakiś problem??
  5. Żeby nie zaczynać od nowa tematu - czy Let-s encrypt (darmowe certyfikaty) sprawdzają się czy jednak lepiej się w to nie bawić? Czy przejście na https wiązało się u Was ze spadkiem pozycji, a jeśli tak to na jak długo? Mam ok. 100 k stron czy opłaca się przechodzić na https? Obawiam się , że G długo takiej ilości linków nie łyknie.
  6. @Mion używam np. tego: https://github.com/lukapusic/twitter-bot po uruchomieniu wracają komunikaty o poprawnym wysłaniu. I potem jak wchodzę na konto "normalnie" to wywala mi komunikat, że ktoś nieautoryzowany próbował wejść mi na konto... niestety tweeta też nie ma. @dudekm nie chcę korzystać z API, bo nie wiem czy to nie będzie/już jest płatne. Teraz jest tak, że dają coś na jakiś czas za darmo, a potem nagle "z partyzanta" każą sobie płacić
  7. Próbowałem wysłać tweeta przy pomocy curla, z wiersza poleceń i w PHP i jedyne co uzyskałem to blokada konta. Czy twitter całkowicie zablokował możliwość dodawania wpisów przez curla, czy ja coś źle robię? Wiem, że jest API, ale wolałbym go uniknąć.
  8. Na różnych stronach np. z ogłoszeniami zaobserwowałem, że link do wersji strony w pliku pdf jest dofollow. Czy to nie jest błąd? Czy w ten sposób strona nie pozbywa się "mocy" do strony, z której ta "moc" już do serwisu nie wróci? W dodatku w wersji strony pdf znajduje się ta sama treść co na stronie odsyłającej więc w grę może wchodzić DC.
  9. Wrzucam wpis do np. katalogu firm. Sprawdzam czy url się zaindeksował przez site:adres.urla Czy jeśli w taki sposób w G przez powiedzmy tydzień strona wciąż się nie pokazuje tzn. że ten katalog jest kiepski czy powody mogą być inne?
  10. Mam niewielką ilość stron z linkiem do mojej strony. W bingu jest mozliwość zgłoszenia pojedyńczych stron do indeksowania. W G też takie coś było i zniknęło i teraz trzeba zakładać konto GWT. Jest jakaś alternatywa do zaindeksowania niewielkiej ilości adresów w G bez wykupywnia usług?
  11. Próbowałem uzyskać jak najlepszy wynik na stronie: developers.google.com/speed/pagespeed narobiłem się jak dziki i po miesiącu widzę, że wyniki ani drgnęły, co więcej patrząc na strony z topów widzę, że większość np. w komórkach ma "poor" w granicach 40-50 pkt. (forum ma 50 pkt.) Pytanie czy w takiej sytuacji staranie się o jak najlepszy wynik ma jakikolwiek sens?
  12. Nie pamiętam źródeł, ale tak jakoś mi zostało po przeczytaniu iluśtam opinii, że słowa kluczowe w adresie mają największą "moc" potem w title, a keywords już jest nie trendy. Dotyczyło to chyba pozycjonowania lokalnego, gdzie istotne było żeby nazwa miasta była i w adresie (najlepiej na początku) i w title. Może jednak coś pomyliłem... Jeśli faktycznie to nie ma większego znaczenia to nie ma problemu.
  13. Słowa kluczowe warto wpisywać w URLu, a największą wartość mają te na początku adresu. Co jednak jeśli z pewnej logiki tworzenia URLa najistotniejsze słowo powinno znaleźć się na końcu adresu, czy można je użyć dwa razy - raz na początku, a drugi raz na jego właściwym miejscu?
  14. Szukałem bezskutecznie na stronach banków informacji o oferowanych kredytach, ale w jakieś ustandaryzowanej formie w np. pliku xml. Są strony wydawców, którzy oferują gotowe całe strony strony z ofertami, porównywarki itp. ale ja szukam pure info. Na tą chwilę mogę albo hasać po stronach banków i ręcznie przepisywać ich oferty, albo skorzystać z pośrednictwa jakiegoś wydawcy, ale to tylko w ramach współpracy (reklamowanie usług). Ja jednak potrzebuje tych danych wyłącznie do prezentowania info, bez przekierowań na strony banków itp. Może ktoś poradzić skąd takie czyste dane można zassać?
  15. Czasami jest tak, że lepiej jak strona nie jest dostępna w cache Googla. Czyli w wynikach wyszukiwania nie klikniemy w trójkącik żeby zobaczyć stronę bez wchodzenia na nią lub nie zobaczymy jej przez wpisanie cache:adres.tld Uzyskamy to przez dodanie meta tagu meta name="robots" content="noarchive" Pytanie tylko czy nie wpłynie to na pozycję strony?
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue. Terms of Use Privacy Policy