Jump to content

tkobosz

Nowi Forumowicze
  • Content Count

    13
  • Joined

  • Last visited

Community Reputation

0 Neutral
  1. A może tak? header("X-Robots-Tag: noindex", true); header("HTTP/1.1 301 Moved Permanently"); header("Location: " . 'http://www.glowna.pl/',TRUE,301); Dzięki.
  2. To już chyba zostanę przy 301, tylko z robots.txt usunę te strony, bo z tego co wyczytałem, google bot może mieć trudności z dotarciem tam i może bardzo długo minąć zanim to "301" ujrzy.
  3. Póki co mam tam cały czas tylko przekierowanie 301, ale nie odnosi to skutku, tzn. stary adres cały czas siedzi w indeksie. Co co można dać po nagłówku 404, aby robot zrozumiał, że strona ma wypaść z indeksu, a człowiek został przekierowany na stronę główną? Dzięki, Tomek
  4. Może to głupie, ale mam obawy, że taki zapis: <?php header("HTTP/1.1 404 Not Found"); header("Location: " . 'http://www.strona.glowna.pl/'); exit; ?> lub jego wersja z header('X-Robots-Tag: noindex,nofollow'); spowoduje, że z indeksu będzie usunięta strona na którą idzie przekierowania (w tym przypadku główna), a nie (tylko) tak, w której jest ono ustawione. Skąd te obawy? A stąd, że jak ustawiłem proste przekierowanie z pewnych podstron na zewnętrzny serwis, to w wynikach wyszukiwania (po słowach zawartych na starej stronie) pokazywały się dziwne rzeczy - np. tytuł starej strony, ale z dopisaną (w tytule) nazwą tej zewnętrznej, na którą szło przekierowanie. Z kolei doczytałem, że standardowy robots.txt nie spowoduje wyindeksowania, jeśli do strony prowadzą linki z zewnątrz. Dzięki.
  5. A które lepiej, dla stron, które mają zniknąć całkiem? header("HTTP/1.0 404 Not Found"); czy header('X-Robots-Tag: noindex,nofollow'); O tym pierwszym był post, ale chyba usunięto go (widzę w powiadomieniu mailowym, że takie coś było). Dzieki.
  6. Witam, Próbuję usunąć z indexu google kilka grup podstron, ale najwyraźniej robię to źle, bo mija 2 tygodnie, a efektów brak. Być może zastosowałem za dużo metod na raz i jakoś się "gryzą"? Podstrony, które chcę wyindeksować (w sumie jest ich ze 40 tysięcy) mają wszystkie podobny adres wg wzoru: www.domena.pl/niechciane.php?news=[liczba] Ponieważ mają one w ogóle zniknąć (tak jakby zostały fizycznie skasowane) zrobiłem tak: Na początku skryptu niechciane.php wstawiłem (lekkomyślnie): header("Location: " . 'http://www.domena.pl/'); Potem dowiedziałam się o "301" i zmieniłem to na: header("HTTP/1.1 301 Moved Permanently"); header("Location: " . 'http://www.domena.pl/'); Jednocześnie do robots.txt wstawiłem: Disallow: /niechciane.php ale nie wiem, czy to w ogóle działa bez gwiazdki na końcu, tzn. czy uwzględnia każdy adres (z parametrami query). W Webmaster Tools zgłosiłem do usunięcia z indeksu adres http://www.domena.pl/niechciane.php - również bez żadnej gwiazdki na końcu. I tak sobie teraz myślę, że to wszystko razem nie ma sensu. Po pierwsze - w takiej sytuacji chyba nie stosuje się "301", bo podstrona nie jest przenoszona ale de-facto likwidowana (choć fizycznie jest na serwerze, z przekierowaniem do strony głównej). Po drugie - jeśli w robots.txt jest zakaz (o ile działa) indeksowania tych podstron, to jeśli robot w ogóle na nie nie wchodzi, to skąd ma wiedzieć, że strona została przekierowana na stronę główną? Nie wiem też dlaczego nie zadziałało zgłoszenie usunięcia w Webmaster Tools. Jak to wszystko ogarnąć i zrobić skutecznie? I drugi problem, podobny (także zbyt długie oczekiwanie na usunięcie z indeksu), ale nieco inny, bo ta podstrona ma być dla ludzi cały czas dostępna, przez link ze strony głównej. Jeśli w nagłówku tej podstrony wstawiłem: <meta name="ROBOTS" CONTENT="NOINDEX, FOLLOW"> to chyba z pliku robots.txt powinienem usunąć - wstawioną tam kilkanaście dni wcześniej - linię Disallow: /jakastamstrona.php Dzięki, Tomek
  7. tkobosz

    Witam

    Dzięki za miłe powitanie
  8. Witam, Czy w artykułach/newsach na pozycjonowanej stronie warto umieszczać linki do stron typu Wikipedia? Co to konkretnie daje? Czy takie linki powinno się zamieszczać pod słowami, które się pozycjonuje, czy wręcz przeciwnie? Dzięki, Tomek
  9. Witam, Czy to jest normalne, że gdy w pliku robots.txt mam: User-agent: * Disallow: /strona.php to robot google i tak wchodzi na tę stronę przez adresy z parametrami na końcu: www.mojadomenna.pl/strona.php?x=1 Kiedy dałem tam tak: User-agent: * Disallow: /strona.php* to walidator plików robots.txt krzyczał, że tak nie wolno. Ale może jest tak, że pomimo zakazu w robots.txt Googlebot i tak sobie tam wchodzi, choć tych stron nie indeksuje? Dziękuję, Tomek
  10. Dzięki. Żaden to tam "projekt", to tylko test w ramach poznawania dziedziny SEO. Postawiłem dziś tego bloga i zobaczymy jak szybko pojawią się jakieś wpisy (googlebot już go widział). A jaka może być siła pozycjonowanie czegoś tam z jednego (słownie: 1) bloga? Chyba bliska zeru? Moje pytanie nie było pisane pod kątem finansowym. Po prostu zastanawiałem się - takich stron z preclami jest przecież bardzo dużo, ich jakość raczej marna, no ale fizycznie ktoś je gdzieś tam utrzymuje, więc pewnie ma to jakieś plusy i sens (dla utrzymującego). Jeszcze jedno pytanie. Mam pewną stronę, dość statyczną, ale obszerną tekstowo, jej PageRank=5. Załóżmy, że strona działa pod adresem www.mojastrona.pl Jeśli ten preclowy blog założę pod adresem www.mojastrona.pl/seo to: 1. Czy www.mojastrona.pl/seo też ma PR=5? 2. Czy jak mi pozycjonerzy zapełnią te precle z jakością przeciętną, to spadnie PR? Czy spadnie dla domeny głownej też? No to może jeszcze jedno pytanie, czysto teoretyczne. Załóżmy, że mam kilka takich blogów z preclami, moderuję je starannie i wykorzystuję do pozycjonowania jakiejś konkretnej strony na konkretny temat, powiedzmy o znaczkach pocztowych. Jak na siłę mojego pozycjonowania tej strony wpłynie wpuszczanie na te precle innych użytkowników z ich wpisami? Czy dobrze myślę: dopóki ich wpisy nie są na temat znaczków pocztowych, to mi nie zaszkodzą (pod warunkiem, że nie są ogólnie marnej jakości). A może jest odwrotnie? Im więcej na tych preclo-blogach wpisaów na temat znaczków pocztowych, tym lepiej dla mnie, nawet jesli wpisy innych linkują do stron konkurenyjnych? Dziękuję. latet.
  11. Witam, Jakie korzyści (nie koniecznie materialne) można mieć z otwartego blogu np. na Wordpressie na precle, które inni mogą tam zamieszczać? Dzięki, Tomek
  12. Nie, żaden marketing. Może źle, że tak sformułowałem temat wątku, ale chciałem kierować pytania do osób, które ten program znają i są w stanie coś doradzić. Jestem początkujący w SEO, właściciel strony wykupił sobie abonement akurat na Addera na parę miesięcy i przez ten czas będę go używać, potem zobaczymy, zależnie o efektów. Tymczasem po prostu dmucham na zimne bo przede wszystkim nie chcę zaszkodzić pozycjonowanym stronom, a wiem, że teoretycznie można, np. dodając za dużo wpisów, tylko że nie wiem ile to dokładnie w praktyce jest „za dużo”, zwłaszcza w przypadku podejrzenia, że znaczna część niby-dokonywanych przez program wpisów niczego nigdzie nie zamieszcza. Dzięki, Tomek
  13. Witam, Konfigurator Addera sugeruje ustawienie wykonania od 5 do 20 wpisów do katalogów dziennie. Staram się obecnie pozycjonować 2 strony - jedna całkiem nowa, szybko rosnąca, druga bardzo stara, już nie rosnąca, ale dość obszerna w tekstowe treści. Dla tego nowej wpisałem wartość 10, dla starej 20. Jednak z tego co widzę w codziennych raportach Addera, to większość (na oko z 70%) prób dodania - mimo komunikatu "dodano pomyślnie" chyba nie dodaje niczego, w każdym razie niczego dodanego tam nie widzę. Czy w związku z tym mógłbym zwiększyć ten parametr, aby program rzeczywiście dodawał dziennie te kilkanaście wpisów i precli? Z góry dziękuję, Tomek
  14. tkobosz

    Witam

    Cześć, Nazywam się Tomek. Zaczynam przygodę z SEO. Mam wykupiony abonament do Adder 8. Bardzo sie boję się, że coś skaszanię i zaszkodzę swoim stronom, zamiast im pomóc. Zadam niebawem parę pytań w dziale dla początkujących. Pozdrawiam.
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue. Terms of Use Privacy Policy