Jump to content

Seo student

Forumowicze
  • Content Count

    69
  • Joined

  • Last visited

Everything posted by Seo student

  1. Dziękuję wszystkim za pomoc i informacje. @Lexy sprawdziłem przekierowania na jednej ze stron, który były podane w artykule. Rozumiem, że to nie jest normalne, jeśli niektóre rodzaje adresów są przekierowywane 4-krotnie? Co może być przyczyną i jak można zidentyfikować winowajcę?
  2. Witam po pewnym czasie. Temat został odłożony ze względu na inne ważne sprawy. Chciałem was podpytać jeszcze o kilka istotnych kwestii: 1. W GSC dodałem https://xyz123.pl i https://www.xyz123.pl. Oczywiście w GSC mam ustawiony preferowany adres bez www. I teraz pytania odnośnie działań w GSC: a) Czy należy dodać nową mapę strony - w zasadzie jest to ta sama mapa strony, co wcześniej z tym, że pod domeną https://xyz123.pl? Rozumiem, że pod wariantami http://www.xyz123.pl oraz https://www.xyz123.pl nie dodajemy map strony w GSC? b) Po wykonaniu a) tak na dobrą sprawę to w 2 z 4 dodanych wariantów domen podczepione będą mapy stron, tj. pod http://xyz123.pl (była już wcześniej przed dodaniem certyfikatu SSL) oraz https://xyz123.pl (świeżo dodana mapa strony - bliźniacza do tej z przed SSL). Czy tak to właśnie ma funkcjonować? Czy mapę strony dla adresu http://xyz123.pl (bez SSL) należy jakoś "usunąć"? 2. Ustawiłem na poziomie cms-a adres z https i włączyłem go dla całej domeny (a nie tylko dla stron z logowaniem, płatnościami itp.). Dodatkowo dodałem w .htaccess następujące zapisy (przekierowanie na https oraz bez www): RewriteCond %{HTTPS} !=on RewriteRule ^ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301] RewriteCond %{HTTP_HOST} ^www.(.*)$ [NC] RewriteRule ^(.*)$ http://%1/$1 [R=301,L] a) Czy tak może wyglądać ten zapis w .htaccess? b) Czy jeśli certyfikat SSL jest włączony na poziomie cms-a + dodatkowo jw. na poziomie .htaccess to nie spowoduje to jakiegoś podwójnego przekierowania etc.? Przy okazji tego dopytam - jak sprawdzić ewentualne wielokrotne przekierowania? Jakieś narzędzia? Dzięki i pozdrawiam.
  3. Czy XNEO można zainstalować na lokalnym kompie? Jeśli tak to czy przez takie podejście XNEO może mi zainfekować kompa? Przecież biega po różnych stronach, więc chyba jest takie realne ryzyko? Jak to się ma do instalacji XNEO i antywirusa z firewallem na jednym kompie? Potrafią ze sobą żyć? Jestem, ale zauważ, że w 2011 roku założyłem tylko konto, a to nie jest tożsame z aktywnością na forum To tylko potwierdza, że kiedyś interesowałem się SEO, co jest prawdą, ale to już zamierzchłe czasy... Odnośnie tego, co piszesz o moim problemie z pozyskiwaniem linków to jest to prawda - co nie jest zresztą tajemnicą, bo przecież podpytuję o to w różnych wątkach Jak wiadomo linki można pozyskiwać w różny sposób. Ja mam problem z tematem ich pozyskiwania za pośrednictwem zewnętrznych programów (takich, jak np. XNEO). Mam kilka niewiadomych/pytań, na które do teraz nie potrafię znaleźć odpowiedzi, a szukam wytrwale i będę dalej szukał. Na szkoleniach i kursach słyszy się podstawy podstaw i teksty w stylu, że "linki nie są już tak ważne, jak kiedyś", bo "content is the king". Jeśli uzyskam te absolutne podstawy (które są niezbędne do dalszego rozwoju) to będę mógł je samodzielnie rozwijać, bo do mistrzostwa w tej dziedzinie wiedzy droga jest daleka, a ja nie jestem osobą leniwą. Lubię testować, kombinować, ale utknąłem w martwym punkcie, a rozumiem, że nikt nie chce tego wytłumaczyć, bo o to się rozchodzi, by ta wiedza pozostała dla nielicznych... EDIT: Czy ZennoProxyChecker można połączyć z XNEO? Czy to się sprawdzi w praktyce?
  4. Witam, Szybkie pytanie - kiedy można uznać, że domena nie jest świeżynką? Czy po półtorej roku w sieci można mówić już o pewnej "dojrzałości" domeny? Kolejna kwestia - jeśli domena była zarejestrowana kilka lat (przy czym część tego czasu stał tam serwis oparty na WP, a część wisiała jako "strona w trakcie budowy), a następnie była wolna przez kilka miesięcy to, czy taka domena wa jakąś wartość? Dodam, że domena miała kiepski ruch i nie została zaspamowana. Czy kilkumiesięczny status jako "niezarejestrowana" mocno obniża jej wartość? Dzięki i pozdrawiam.
  5. Cześć, Przez jakiś czas byłem nieobecny, a potem nadganiałem zaległości. Przepraszam za milczenie i dzięki za odpowiedzi W tym czasie tylko delikatnie - dosłownie na palcach jednej ręki można by liczyć pozyskane linki zwrotne. Raczej nie miało to znaczenia. Myślisz o działaniach konkurencji itp.? Strona na tamtą chwilę nie stanowiła realnej konkurencji. Tak, ja napisałem - spokojnie rosła sobie w siłę. Odnośnie robots.txt to tak - sprawdziłem. Nie ma tam niczego niepokojącego raptem kilka standardowych linijek. GWT??? W sensie Google Webmaster Tools? Nic tam nie kombinowałem, a przynajmniej nie kojarzę. Dodaliśmy tylko mapę strony, po zmianie wtyczki odpowiadającej za SEO i tutaj upatruję winowajcę, ale muszę jeszcze trochę przetestować pewne kwestie. Jeśli chodzi o modyfikacje strony to było ich sporo. Trzeba by wszystko brać pod uwagę. Błędy 404 to tylko kilka wystąpiło i to nawet nie w tym czasie, w którym odnotowałem tę niekorzystną zmianę. W tamtym czasie nagle ponad 1500 stron, które były uprzednio zaindeksowane zmieniło swój status na "Strona zeskanowana, ale jeszcze nie zaindeksowana". To jest właśnie mój problem. Za tym poszedł nagły spadek ruchu i to spory, więc były to istotne podstrony. Tak właśnie zrobiłem. Zobaczymy, co będzie się dalej działo. Gdybym odkrył coś istotnego (a mam nadzieję, że tak będzie) to tutaj to opiszę - może komuś się przyda. A jeszcze moje pytanie z pierwszego posta - czy można jakoś masowo zgłaszać strony do ponownego zaindeksowania? Czy niestety trzeba klikać w każdy link z poziomu GSC i czekać kilkadziesiąt sekund? Rozumiem, że jedyną alternatywą jest ponowne wczytanie mapy strony?
  6. Cześć Mam do Was kilka pytań. Czy jeśli w GSC nie ma śladu po danej miejscówce to znaczy, że ona nie ma żadnego oddziaływania na stronę? Jeśli dana podstrona z miejscówki nie wyświetla się w wynikach wyszukiwania to rozumiem, że jest podobnie jak wyżej - nie ma ona żadnego sensu? Jak to jest na chwilę obecną? Gdzieś czytałem (chyba nawet oficjalne stanowisko kogoś od Googla), że obecnie algorytm potrafi już zlekceważyć kiepskie linki i po prostu ich nie brać pod uwagę w kontekście rankingu, ale z drugiej strony przecież za słabej jakości linki można wciąż dostać jakąś karę, prawda? Rozumiem, że jeśli jedno i drugie ma zastosowanie w praktyce to brane są też pod uwagę nieco inne czynniki, jak np. wiek domeny, popularność itp., tak? Jeśli dodajemy linki do jakiejkolwiek miejscówki, by ją wzmocnić to tak na dobrą sprawę dopalamy wszystkie linki, które znajdują się na danej podstronie (łącznie z menu etc.), tak? Dzięki i pozdrawiam.
  7. Cześć, Zastanawiam się nad tym, czy warto stosować Yandex Metrica zamiast Google Analytics? Z tego, co wiem to niektórzy stosują oba rozwiązania naraz. Ponoć każde z nich ma swoje wady i zalety. Wiem też, że warto stosować Yandex na zapleczach, by "nie wpuszczać" na strony Googla, a jednocześnie mieć jakieś pojęcie co do ruchu i innych bardziej szczegółowych danych analitycznych, których nie zapewniają nam proste mechanizmy analityczne po stronie serwera. Ale przede wszystkim zastanawiam mnie jeden fakt. Nie chce mi się wierzyć, że Google nie bierze pod uwagę w kwestiach rankingowych danych, które otrzymuje dzięki zainstalowanemu na stronie GA Jeśli tak jest to zastanawiam się też nad tym, czy możemy otrzymać jakieś "niepisane" negatywne konsekwencje wynikające z faktu, że np. zaprzyjaźnimy się z Yandex Metrica i jednocześnie "zamkniemy przed Google drzwi". Oczywiście pisząc o rozwiązaniach alternatywnych wobec GA mam też na myśli nie osadzanie kodu GSC, bo inaczej w powyższym kontekście nie miałoby to żadnego sensu. Co o tym myślicie? A może macie jakieś doświadczenia poparte testami?
  8. @Aleksiejs Rozumiem. Mnie w zasadzie - tak, jak już zresztą pisałem - nie zależy (tzn. chciałbym, ale wiem, że to nierealne ) na tym, żeby ktoś mi zdradzał swoje patenty, ale bardziej na odpowiedzi nie na pytanie w stylu "jak znaleźć jednorożce", tylko czy można znaleźć jednorożce". Zatem z tego, co piszesz wnioskuję, że takim zaawansowanym softem, jak np. Xneolinks, wykorzystując odpowiednią wiedzę i doświadczenie oraz będąc cierpliwym i wytrwałym można odnajdywać dobre miejscówki pośród gąszczu tych o słabej jakości, tak? Więc cała sztuka polega na tym, żeby zapuścić ileś tam różnych zaawansowanych konfiguracji, nie licząc tutaj na tysiące miejsc, lecz na np. dziesiątki miejsc, które mają sens z perspektywy SEO. Czy teraz dobrze to pojąłem? Do tego z kontekstu też rozumiem, że na tym forum, do którego dostajemy dostęp można znaleźć przydatne informacje, które pomogą przyspieszyć proces uczenia się - oczywiście nie piszę tutaj o podaniu wszystkiego na tacy. Czy może na to też nie mamy za bardzo liczyć?
  9. Jasne - zgadzam się z tym, że nie testując czegoś w praktyce, nie można wiedzieć czegoś na pewno. Aczkolwiek czytając wnikliwie forum, a w szczególności najbardziej zaawansowanych użytkowników (subiektywna ocena ich wiedzy) można dojść do wniosku, czego oni używają. Zakładam też, że wszyscy nie są endorserami danych softów i nie robią lokowania produktu Idąc dalej tym tropem - skoro coś używają to chyba przynosi to zamierzone efekty. Taka praselekcja... Na tym to polega, a reszta to tak, jak piszesz czas i pieniądz... Nie da się tego obejść. Jeszcze mam do Was pytanie - najwyżej zchejtujcie mnie, a co mi tam Już zadawałem je w różnych wątkach - tak przy okazji głównego tematu, ale nigdzie nie dostałem sensownej odpowiedzi. Tutaj zapytam szczegółowo, no bo chyba mogę wiedzieć, co zamierzam kupić, co nie? Jeśli sensowne precle i katalogi już nie istnieją praktycznie (poza płatnymi) to, co ja mogą osiągnąć za pośrednictwem Xneolinksa? Fora? Profile? Komentarze? Księgi gości? Przecież to wszystko ma ograniczoną wartość, bo stosunkowo łatwo to pozyskać. Najtrudniej znaleźć dobre miejscówki, gdzie można jeszcze zapodać linki z anchorami z dofollow, bo o to się tutaj cały czas rozchodzi, prawda? Reszta to uzupełnienie profilu linków, by stworzyć odpowiednią różnorodność, no i ilość. Ja wiem, że możemy wejść we współpracę z influencerami, właścicielami dobrych zapleczy lub stworzyć własne, ale to nie jest temat dla Xneolinksa. Widzę, że on jest bardzo zaawansowany i tak, jak napisałem skoro korzystają z niego zaawansowani użytkownicy to pewnie jest dobry, ale nie chciałbym kupować takiego drogiego narzędzia (ocena subiektywna - jak ktoś ma kupę hajsu to może dla niego to tyle, co dla mnie zakup hamburgera), by dowiedzieć się, co potrafi, jeśli chodzi o linki. Kiedyś było inaczej - wiemy, o czym piszę - z pozyskaniem linków. Dziś potrafię je pozyskiwać z różnych źródeł i na różny sposób, ale nie wykorzystuję do tego możliwości, jakie dają automaty, więc jeszcze spory potencjał mi ucieka... No właśnie - jaki potencjał? Chciałbym zrozumieć, bo przecież nie pytam o jakiejś super hiper tajne tricki i mega zaawansowane ustawienia Xneolinksa, które każdy SEOwiec chroni, trzymając je w sejfie. Chciałbym tylko jakieś przykłady (powszechne), jak Xneolinks może mi pomóc pozyskać linki z anchorami? Czyli te najbardziej pożądane. Może odpowiedź na to pytanie przyda się także innym osobom, które chcą zrozumieć to zagadnienie. Nie sądzę, żebym tylko ja drapał się po głowie i zastanawiał, jaka jest na nie odpowiedź.
  10. To prawda - nie rozumiem dobrze tych zagadnień i różnic z nich wynikających. Wyrobiłem sobie już pewną opinię na temat dostępnego na rynku softu, ale nie będę o tym pisał na forum publicznym, bo to nie o to chodzi.
  11. Cześć, Pytanie do użytkowników Zennopostera. Wydaje się on być najpotężniejszym narzędziem, ponieważ nie ustępuje innym topowym seo softom, a do tego jest najwszechstronniejszy, bo możliwości są praktycznie nieograniczone - wybiegające znacznie poza zastosowanie SEO. Jednakże to, co mnie przeraża to fakt, że inne softy dedykowane pod SEO (celowo nie podaję nazw, żeby nie tworzyć złej atmosfery) mają ukierunkowane funkcjonalności, a co za tym idzie ich obsługa jest zdecydowanie prostsza i bardziej intuicyjna. Wydaje mi się, że mając program, który potrafi nawet ugotować obiad mogę zostać z niczym (pomimo projektanta) lub na łąsce twórców gotowców, co w zasadzie mija się z celem. Czy tego softu można się dość szybko sensownie nauczyć, jeśli się zaangażujemy? Czy może rzeczywiście jest on tak rozbudowany, że trzeba baaardzo dużo przy nim przesiedzieć?
  12. Co masz tutaj na myśli? Na stronie Xneolinksa nie ma jakiejś wyraźnego rozdzielenia różnic. Jest informacja o dostępie do forum, większej ilości wątków oraz możliwości odpalenia softu na 2 kompach dla użytkowników premium. Czy są jeszcze jakieś inne istotne różnice? Rozumiem, że premium mają też dodatkowe bonusy na forum, czyli można tam skorzystać z czegoś więcej, niż z dodatkowej wiedzy? Wywnioskowałem to po postach z pierwszych stron wątku. Co się dzieje, gdy ktoś nie korzysta np. przez kilka miesięcy z Xneolinka? Wówczas po prostu nie płaci się abonamentu i nie można korzystać z program, a po opłaceniu abonamentu miesięcznego program się odblokowuje? Czy może wiąże się to z utratą licencji?
  13. To wiem - tylko zastanawiam się, czy to nie jest tak, że Google sobie to przestawia jak chce, aczkolwiek może to, jak my "redagujemy" title i tak ma znaczenie, tj. w jakiej kolejności? Muszę przyjrzeć się wielu serwisom i wyciągnąć wnioski na przyszłość - dzięki
  14. @okazwłoka cały czas wczytuję się w informacje na Twojej stronie i na tym forum a propos DonLinkage'a. Trafiłem między innymi na taką informację: http://donlinkage.i4a.pl/bazy-adresow-i-silnikow/dlaczego-mam-malo-dodan-na-katalogach-i-preclach-wordpress/ To tak pokrótce, co linkuje DonLinkage? Katalogi nie, precle nie... Zostają fora, komentarze i profile? Ale to wszystko raczej nofollow. Rozumiem, że sens ma Premium i ewentualne harvestowanie, które zapewne jest pewną sztuką samą w sobie wynikającą ze sprytu i doświadczenia? Dobrze to wszystko rozumiem? Jeśli nie to proszę - skoryguj mnie.
  15. Co się dzieje w sytuacji, w której przestaję korzystać z premium? Mam blokowany dostęp? Jeśli tak to do czego? Do listy? Czy możesz polecić jakiegoś sensownego OCR-a, który dobrze współgra z DonLinkagem? Jak działa indeksacja? Nie pytam tutaj o Twoje "tajemnice" ukryte w kodzie - tylko o jawne informacje Czy premium zawiera sporo miejscówek, w których można umieścić linki dofollow z anchorami? Nie pytam, co do sztuki tylko szacunkowo Czy te miejscówki są jakieś sensowne jakościowo? Domyślam się, że za tę cenę nie dostanę Ferrari, bo to by Ci się nie opłacało, ale pytam o to, czy znajdują się tam także "interesujące" miejsca? Dobrze to wiedzieć Pozdrawiam
  16. W zasadzie to tak - dzieje się tak głównie, gdy wpisuje w Googlach frazę brandową Dzięki panowie za sugestie. @Grey Ronin Przetestuję to w praktyce. Dzięki. Ciekawi mnie też to, co napisałeś odnośnie odwrotnej kolejności - brand na początku, a frazę na końcu. Czy to nie jest tak, że to, na co chcemy się pozycjonować powinno się raczej znajdować na samym początku (title, h1 itd.)? Oczywiście tak, jak wspominasz - w nieco bardziej "naturalnej" formie.
  17. Panie i Panowie - jak w tytule wątku, mamy pewien problem. Chodzi o to, że staram się "pomóc" pewnej stronie rosnąć w SERPach. Ustawiłem title serwisu jako: Fraza lokalna - Nazwa brandu a Google swoje... : Nazwa brandu Co robić? Jak żyć? Dodam, że w kodzie wszystko jest ładnie i pięknie - mam tutaj na myśli <title> itd. Treść i h1 jest zgodny z tym, co "urywa" z title Google. Po załadowaniu się strony w title pojawia się treść, która powinna się znaleźć też w SERP-ach. Wiem, że Google potrafi sobie przebudować tytuł strony, bo doświadczyłem tego m.in. w taki sposób: Tytuł podstrony - Nazwa brandu A Google na to: Nazwa brandu: Tytuł podstrony Ale do tej pory nie doświadczyłem jeszcze tego, że urywało mi ważne frazy kluczowe. Więc jeszcze raz: jak żyć?
  18. Ja się z tym zgadzam - w kontekście teraz. Zastanawiam się, jak to będzie w niedalekiej przyszłości przyglądając się temu trendowi - to tylko czysto subiektywna ocena Wiem, wiem - równowaga i różnorodność... Mówisz o ukrywaniu przed robotami znanych programów / skryptów seo? Ale takie ukrywanie nie jest chyba idealnym mechanizmem? To jest jeszcze tyle miejsc (nie mówię o drogich, jednostkowych miejscówkach), że można automatami jechać na polskich internetach i liczyć to w setkach lub tysiącach? Cytując Lady Pank - Mniej niż zero Zawsze się tego obawiałem, bo jeśli jakieś linki występują zgrupowane w stopkach, sidebarach i zbyt często się rotują to dla mnie była to wysoce ryzykowna sprawa. Ja bym to porównał z machlojkami. Jeśli Cię nie przyłapią to zyskujesz i jesteś gość. Jednak, jeśli wielki brat coś wywęszy to tracisz. Tak wiem - można testować na "testowych stronach" i samemu wyciągnąć wnioski, ale zawsze może się coś zmienić w algorytmie, a pewne rzeczy trzeba klasyfikować "na oko" / "na czuja". Może przez to tracę, ale obawiam się spadków na stronie, z której się utrzymuję. Wolę być żółwiem, niż zającem - powołując się na znaną bajkę A Ty jakie masz doświadczenia? Podzielisz się? To sarkazm - czy Ty piszesz serio? Co masz na myśli, pisząc o kasie? Jeśli nie mają zapleczy i nie ukrywają linków to zapewne chodzi Ci o to, że inwestują w dobre i drogie linki, tak? A odnośnie tego, co pisałem w poprzednim poście - ja weryfikowałem raczej hasła lokalne lub usługowe - nieco bardziej niszowe. Nie były to słowa kluczowe należące najwyższego poziomu. Obserwuję niektóre strony i dziwie się, bo są kiepsko zoptymalizowane - stary html, brak mobile'a, kiepskie nagłówki i content, brak altów itp.... domeny mają podobne parametry - łącznie z wiekiem... I w linkach "tych" kiepskich stron nie widać nic nadzwyczajnego... Linki i ich profil z tego, co sprawdziłem w różnych "narzędziach" jest zbliżony, a mimo to ta hipotetycznie lepsza strona jest kilka pozycji niżej w SERP-ach.
  19. Pierwsze słyszę / czytam - skąd takie wnioski? Interesujące... Panowie - dziękuję Wam za zaangażowanie - problem się rozwiązał. Odruchowo pobrałem i zrenderowałem dla desktopu. Gdy ponowiłem ten proces dla mobile'a okazało się, że Google nie widzi tych elementów. Sprawdziłem ustawienia modułów dla pewności i wszystko było ok - włączone na wszystkich urządzeniach, więc zastosowałem starą, jak świat metodę i przeinstalowałem moduły. Następnie znowu pobierz i renderuj dla mobile'a = sukces Poprosiłem Google'a o ponowne zindeksowanie i dzisiaj rano zerknąłem na kopię - widać wszystko
  20. Podsumowałem sobie pewne kategorie źródeł dla linków (nie wymieniam ich wg żadnej hierarchii): - zaplecza własne, - blogi - oficjalne, - media społecznościowe, - katalog firm, - artykuły sponsorowane na stronach osób/firm trzecich, - współpraca z influencerami (poniekąd zawiera się to w niektórych z powyższych pozycji, ale tutaj nacisk jest na markę osobistą, a do tego często mowa o kilku kanałach jednocześnie), - przemyślana wymiana linkami - mam tutaj na myśli jednostkowe akcje. Przy czym tak na dobrą sprawę jest już bardzo niewiele możliwości pozyskania linków z anchorami, bo większość możliwości to już przeszłość: - precle - praktycznie się skończyły, - katalogi firm - w większości zrezygnowały z możliwości zamieszczania anchorów, - SWL-e - chyba nie trzeba komentować, - faszerowanie własnych stron linkami wewnętrznymi. Oczywiście zawsze da się coś jeszcze znaleźć z kategorii wymienionych powyżej (szczególnie mowa o zadbanych katalogach i zadbanych WP z niezbyt dużą ilością linków wychodzących przy względnie dobrze napisanym contencie), ale jest tego już chyba mniej, niż więcej W zasadzie to można dość skutecznie pozyskiwać linki naturalnie wyglądające - bez anchorów - a te z anchorami są już dość ryzykowne i chyba będzie ich coraz mniej pośród linków zwrotnych. I nie piszę tutaj tylko o kwestii różnorodności - bo oczywiście należy ją zachowywać. Przeprowadziłem kilka analiz różnych (trochę przypadkowych stron) w różnych branżach, które siedzą na dobre słowa kluczowe w top 1, i co? Okazuje się, że jest naprawdę bardzo niewiele linków z anchorami. Wniosek jest z tego taki, że linki z anchorami wystarczą w bardzo niewielkich ilościach, towarzysząc różnorodnym linkom "naturalnym" pozyskanym z różnych źródeł + optymalizacja on-site i dobrze przemyślany content. A wracając jeszcze do tematu automatów to ciekawe jest to, że nie zauważyłem żadnej strony, do której prowadzą tysiące linków zwrotnych. Czyżby żadne z narzędzi nie widziało tych linków? Czy może tego typu automatów używa się rzeczywiście do podbijania w górę prywatnych zapleczy? Wydaje mi się, że linki z anchorami będą z czasem miały coraz mniejsze znaczenie, bo Google coraz mocniej będzie cisnąć, a pozycjonerzy coraz bardziej będą się bali. W przyszłości raczej ważna będzie różnorodność i naturalność (choć pozorna) tych linków. Przy czym dofollow i nofollow wciąż będzie istotne. A teraz drodzy bardziej doświadczeni koleżanki i koledzy poprawcie proszę to, co jest niezgodne z prawdą To nie jest sarkazm - piszę serio
  21. @Aleksiejs bo to strona główna serwisu i choć może zmieniają się produkty wyświetlane w sekcji nowości etc. to treści, których "nie widać" nie ruszałem od wielu miesięcy. Skąd wniosek? Klikam w SERP-ach w "kopia" (jest z 15 marca) i nie ma tam wspominanych treści, a jak widać po pierwszym poście w tym wątku, temat zauważyłem już kilka ładnych dni temu.
  22. @Aleksiejs zrobiłem, jak napisałeś i na podglądzie jest wszystko tak, jak być powinno. Co radzisz? Co mogę zrobić, żeby naprawić ten stan?
  23. Cześć @okazwłoka, Od pewnego czasu przyglądam się tematowi automatów. Brałem pod uwagę też progam Xneolinks, ale jest dość drogi, a kilka dni temu trafiłem na DonLinkage'a. Nie chciałbym tutaj wywoływać niezręcznej dyskusji, więc tego nie róbmy, ale chciałbym w kontekście Xneolinksa zapytać, czy DonLinkage w zasadzie z grubsza ma te same funkcjonalności, które posiada ten pierwszy? DonLinkage jest znacznie tańszy - zastanawiam się, czy za tym idzie tez kwestia np. funkcjonalności, zaawansowania technicznego softu, czy może po prostu polityki sprzedażowej? Pozostałe pytania: 1. Jaki "zestaw startowy" polecasz? Jakie dodatkowe usługi powinienem posiadać, by skutecznie zwiększyć liczbę linków zwrotnych z przynajmniej średnich jakościowo miejscówek? - czytaj: z takich, które mają jakąkolwiek wartość (nie zaspamowanych). 2. Czy wystarczy dobry serwer współdzielony? Czy Raczej VPS jest koniecznością? Jeśli wystarczy współdzielony, to czy Twój skrypt go nie przeciąży w taki sposób, że za chwile dostanę maila z pretensjami od admina? Dobrze mi tam gdzie jestem i nie chciałbym sobie nagrabić A jeśli VPS to konieczność to czy możesz zarekomendować jakiś z niższej półki, który z doświadczenia Ci się sprawdza? 3. Jakie skrypty na chwilę obecną ładnie się sprawdzają do zdobywaniu linków za pomocą DonLinkage'a? Wyczytałem w poprzednich postach, że miejscówki oparte na Wordpress-ach już zbytnio nie działają z automatu. 4. Dane premium - co oznacza prywatne miejscówki skoro na stronie jest dopisek świadczący o tym, że tysiące klientów z nich korzysta? Chodzi mi o to, że jeśli z danych stron wychodzi tysiące linków to chyba już nie są takie fajne? Na tej podstronie jest zestawienie z Xneolinksem i GSA (o którym wcześniej tez nie słyszałem, ale już mu się w międzyczasie przyjrzałem). Z tego co rozumiem to DonLinkage ma najmniejsze możliwości, a co za tym idzie najmniej skorzysta z dobrodziejstw bazy premium, tak? Czy źle to pojmuję? 5. Jeśli wykupię DonLinkage + Premium, czy mogę liczyć na jakieś dodatkowe konsultacje, jako klient? Telefoniczne? Mailowe? Nie chodzi mi o zasypywanie Was tysiącami pytań, ale sytuacje, w których nazbierają mi się jakieś niejasności, przez które będę stał w miejscu. Z góry dziękuję za odpowiedzi.
  24. Tak, część treści ze strony głównej nie jest zindeksowana - jakby jej nie było. W GSC są rzeczywiście jakieś dziwne błędy, których nie rozumiem. Jeden z nich dotyczy ewidentnie treści, która znikła - a w zasadzie jednej z nich, bo nie pokazuje się też slider, choć akurat to jest problem mniejszego kalibru. Wybrałem w GSC "Sprawdzenie adresu url", wpisałem adres url sklepu (strona główna), a następnie "Wyświetl zindeksowaną stronę" i w sekcji "Więcej informacji" jeden z błędów jest oznaczony jako "Inny błąd", "Grafika" i zaczyna się tak: "https://www.google-analytics.com/r/collect?v (...)" Później wplecione są treści, które się nie pokazują, a poszczególne litery oddzielone są dziwnymi znakami, ale da się odczytać, że to właśnie brakująca treść. Czy coś się Wam nasuwa na myśl? To nie jest ani tab, ani accordian. Zwykły moduł tekstowy w Prestashop (Własny blok informacyjny CMS). Dodam, że jest on standardowo w podstawowej instalacji. Zresztą to w ogóle jest modyfikacja standardowego szablonu. A żeby było jeszcze śmieszniej to klon (chodzi o szablon) dwóch innych sklepów testowych, które mam i tam te treści się indeksują, a tutaj nie... Z tego, co widzę to nie - ale mogę się mylić. Dodam, że zależy mi tutaj na tym, żeby ten wątek był prowadzony w kontekście ogólnym - jakie mogą być przyczyny pominięcia przez Google jakichś treści - a nie w kontekście Prestashop.
  25. @Aleksiejs ja wiem, że nie wszyscy. Ja też należę do tego grona, ale zawsze podchodziłem z dużym dystansem do pozyskiwania sporej ilości linków z ogólnodostępnych miejscówek w krótkim okresie czasu. Ten wątek mnie zaciekawił i dlatego chciałbym prosić, żeby ktokolwiek, kto stosuje takie podejście choć trochę się w tym temacie wypowiedział. Wiem, że nikt nie zdradzi swoich patentów i szczegółów, ale chociaż jakieś podstawy, by lepiej zrozumieć ten temat. Algorytmy Google są bardzo skomplikowane - co jest oczywiste - i do tego ciągle ewaluują. Jak to możliwe, że jeśli roboty Google zidentyfikują potężny skok w ilości linków przychodzących z zewnątrz, nie kończy się to karą dla takiej strony? Z tego, co wiem jest też w Google jakaś specjalna "komórka" - nie pamiętam nazwy - która pewne szczególne sytuacje weryfikuje ręcznie. Jeśli jakaś strona ma np. 57 linków do niej prowadzących i nagle okazuje się, że po miesiącu posiada tych linków 4928 to albo zadziałała jakaś kampania promocyjna, viral lub mówimy o jawnej manipulacji. Tę ostatnią można zidentyfikować w ciągu kilku minut (w większości sytuacji), bo jeśli linki nagle zaczęły masowo pojawiać się w preclach, stopkach na forach oraz katalogach firm to chyba nie jest to nic "naturalnego". Co jest ciekawe, mam też wrażenie, że po zmianach w algorytmach Google najbardziej dostają strony sztucznie dopompowane (choć oczywiście nie wszystkie - i tutaj pytanie: dlaczego?). Te, które są spokojnie pozycjonowane, a linki zwrotne buduje się stopniowo z rozwagą, wykazują większą stabilność. Jeśli mówimy o firmie, która na pozycjonowaniu organicznym opiera cały swój biznes (główny kanał pozyskiwania klientów) to taka niestabilność stanowi dla niej nie mały problem, bo przez agresywną technikę pozycjonowania trzeba się liczyć z pewnymi stratami. Z drugiej strony obserwuję też wiele autorytetów z tego forum i wnioskuję po tym, co piszą, że rzeczywiście stosują tego typu podejście podczepiając (zapewne z głową i odpowiednią wiedzą wynikającą z doświadczenia) automaty pod dane projekty. Zakładam, że nie robią tego od tak sobie, lecz dlatego, że to po prostu działa.
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue. Terms of Use Privacy Policy