Jump to content

Paq

Forumowicze
  • Content Count

    1,619
  • Joined

  • Last visited

  • Days Won

    23

Paq last won the day on March 13

Paq had the most liked content!

Community Reputation

501 Excellent

About Paq

  • Birthday 05/01/1990

Contact Methods

  • Website URL
    http://paq-studio.com

Profile Information

  • Gender
    Male
  • Location
    Koszalin

Recent Profile Visitors

11,956 profile views
  1. To, jaka jest różnica między subdomeną, a katalogiem, to było to wielokrotnie wałkowane. Subdomena nie dziedziczy wartości po domenie matce, w której jest osadzona. I odwrotnie - w katalogu dziedziczy wszystkie wartości. A w związku z tym - implikuje to mnóstwo okoliczności. Jako, że forum jest podatne na włamy i na indeksowanie jakichś dziwnych kombinacji URL, query stringów, a nawet na niekontrolowane linki wychodzące (generowane przez użytkowników), to jeśli forum ma być tylko dodatkiem, a nie corowym elementem składowym, to tylko w subdomenie. Słabsze pozycje wyjściowe, ale większe bezpieczeństwo długoterminowo. PS. IMO nie ma szans na zbudowanie mocnej społeczności wokół forum dyskusyjnego w 2019 r.
  2. Paq

    Dziwne backlinki?

    Są na pewno niemile widziane.
  3. Po roku użytkowania, to pewnie 1/3 kodu systemowego jest podmieniona w wyniku bieżących update'ów.
  4. Ja bym w ogóle zastanowił, się czy semantycznie istnieje powiązanie między "nauka pływania Warszawa", a "nauka pływania dla dorosłych", bo za pewnie nie i trzeba byłoby zacząć, że masz architekturę do przebudowy.
  5. My zmigrowaliśmy ze sharedów kylos.pl na madhosting.pl - prowadzi to nasz partner i naprawdę dają radę; ich oferta to tak na dobrą sprawę VPS pod e-commerce z obsługą administracyjną. Sporo klientów z Woo i Prestą już tam przenieśliśmy i wszyscy są zadowoleni. Na plus na pewno bezobsługowość, bo Ty na froncie nadal masz zwykły panel, a nie konsolę, a zasoby sprzętowe obsługa dokłada po zleconych testach. My sami na madhosting.pl uciekliśmy z jednym ze sklepów spółki, tj. motogar.pl, bo przy 5-6 tys. produktów Presta już nawet nie zapisywała danych na sharedzie (nie żeby shared kylos.pl był słaby, po prostu shared już przy dużym ruchu i takiej liczby produktów nie nadaje się do obsługi). Żadne krypto, po prostu jesteśmy naprawdę szczerze z nich mega zadowoleni. Pozdrawiam, Paq
  6. @kwk9k O mocy zaplecza decyduje jego profil linków, a nie CMS, na jakim stoi. Tak, jak napisał @Aleksiejs - bez znaczenia.
  7. @Parsi Ja bym sobie zadał zasadniczo jedno pytanie - po co miałbyś wpinać wpinać zaplecze w SC?
  8. Tak, jak widzisz - każdy z nas ma swoją mechanikę na to. My z kolei na paginacji stosuję noindex'y + follow, ale jednocześnie upewniając się, że w architekturze istnieją inne ścieżki dotarcia do linków wewnętrznych (np. wpisów w przypadku WP, albo produktów w przypadku Presty), jakie z tej paginacji pochodzą. Żeby się wiesz nie okazało, że np. masz 500 produktów w sklepie, albo 500 wpisów i jedyne linki wewnętrzne, jakie do nich prowadzą, pochodzą z noindex, follow. Z kolei wyżej chłopaki sugerują canonicala i to też jest pewnie okej. My canonicala używamy w ostateczności, bo jest dyrektywą warunkową i czasami różnie to działa. Zrobisz, jak uważasz. A wypisy z paginacji przecież możesz w kodzie wyciąć, tj. strona pierwotna (matka) kategorii może mieć linki wewnętrzne z wypisami, ale na paginacji już nie musisz ich eksponować.
  9. Osoby, które mają dobre zaplecze, nie sprzedają na nim linków (bo wiedzą czym się to kończy; jak wpuścisz kogoś na miejscówkę, to krótkoterminowo na tym zarobisz, ale co typowe - po jakimś czasie zaczyna się dopalanie jakimś syfem z zewnątrz linków na tym zapleczu itd.).
  10. 1. Pojęcie względne. Są branże, gdzie jeśli nie masz "śmieciowych" linków z XRumer'a, to w TOP'ie nigdy nie będziesz. Ten sam link szkodzi w przypadku zapytania, branży X, a buduje wartość w przypadku zapytania, branży Y. Liczy się kontekst, dlatego np. odtwarzanie profilu linków domeny z TOP'ów w branży nieruchomości, nie działa w przypadku zapytania "pieców na pellet" i odwrotnie. Wpisz w Google "kamagra", przejrzyj TOP i zobacz, co siedzi w organiku. Tutaj domena, która ma tylko 9% linków z polskich domen i siedzi ładnie w TOP 10. Obserwuj linki, jakie są w konkretnych branżach. Jeśli w TOP masz jakieś domeny popychane sponsorowanymi z Onet'ów itd., to Ty prawdopodobnie będziesz musiał ten proces powtórzyć i nie ma co się łudzić, że wyrównasz ten volumen setkami NAP'ów. 2. Jak masz śmieciowe zaplecze, to masz śmieciowe linki. Jak masz dobre zaplecze, to masz dobre linki. Auto może mieć silnik 0.8 Turbo albo 6.0 W12. Samo pojęcie zaplecza nie ma tu nic do rzeczy. Jak dbasz, tak masz. 3. Inwestować to można w swoją nieruchomość, a nie mieszkanie, które wynajmujesz. 4. Nie rozumiem ocb. 5. Masz jeszcze Linkhouse'a. 6. Unikaj przede wszystkim serwisów, które w aktualnościach mają same publikacje z wszytymi linkami (brak własnego contentu), szybko się wyeksploatowują. Ale to, co możesz - zdobywaj sam. Z tych platform korzysta pół rynku, a dobrze byłoby mieć te lokalizacje, które są trudne do odtworzenia dla konkurencji. W przypadku platform, jedyną barierą jest kapitał. A jak zdobędziesz link sam z miejsca, których nie ma w tych platformach, to jesteś zawsze krok do przodu (nie żeby top'owe serwisy tam były słabe, ale jak zbudujesz swój profil BL, to jego odtworzenie dla większego konkurenta nie jest takie proste, bo poza "sypaniem" kasy, będzie musiał znaleźć kogoś, kto np. zbuduje relację z blogerami/wydawcami, a to czasami jest najtrudniejsze w procesowaniu).
  11. Usunąć i 301 na właściwą stronę główną.
  12. Tak, noindex w meta tagu wystarczy i takie rozwiązanie może zostać.
  13. Myślę, że nie bardzo rozumiesz mechaniki, tj. co z czego wynika. Nie wiem, co ma zablokowanie przez robots.txt wpisu, którego fragment wyświetla się na stronie głównej. Skoro masz taki problem, że na stronie głównej wyświetla Ci się cała zawartość ostatnio opublikowanego wpisu, to powinieneś zrobić tak: https://www.youtube.com/watch?v=8TbAdvGMQxA No chyba, że to działanie celowe, tj. chcesz wyświetlać zawartość całego wpisu na stronie głównej, a nie chcesz indeksować go pod właściwym URL'em (co jednak wydaje się kuriozalnym pomysłem), to wtedy do zablokowania robota wykorzystaj noindex w meta tagu, bo przypominam, że robots.txt nie rozwiązuje duplikacji wewnętrznej: https://paq-studio.com/blog/czy-robots-txt-rozwiazuje-problem-duplikacji-wewnetrznej/ - wrzucam link, bo cały czas ten temat cały czas wraca.
  14. 1. To, co jest po kotwicy (#) nie jest indeksowalne dla robota tak długo, jak po kotwicy (#) nie występuje wykrzyknik (!) Czyli taka składnia: /strona-główna/kategoria/nazwa-produktu#121-rozmiar-040_x_10_mm nie jest indeksowalna i problem w kontekście SEO nie istnieje ale taka: strona-główna/kategoria/nazwa-produktu#!121-rozmiar-040_x_10_mm już może być indeksowana i (jeśli źle użyta), będzie generowała duplikację. Oczywiście ekspozycja kotwic (#) w URL'ach dla kombinacji produktowych w sklepie to wątpliwa praktyka UX'owa (bo umówmy się, taki URL wygląda, jak krzak), ale tylko tyle. Nie masz się czym martwić, nic nie musisz blokować i wycinać. Słabo wygląda, ale to tyle. Kotwice (#) powstały pierwotnie, jako mechanika do scrollowania stron (np. co typowe - na landing page'ach) do 1. dzielenia się fragmentami treści i/lub 2. scrollowania obrazu w browserze. 2. Jeszcze podpowiem, że gdybyś kiedyś chciał stosować canonicala do eliminowania duplikacji wewnętrznej, to pamiętaj tylko, że jest to dyrektywa warunkowa i czasami różne śmieci i tak latają po SERP'ie. Nie mówię,, żeby z canonicala nie korzystać, ale mieć do niego ograniczone zaufanie. A jeszcze a propos pomysłów @Przemoo to wyprostuję, że: Blokada w robota.txt jest zalecana. Nie ma sensu żeby robot miał dostęp do bezwartosciowych dla niego stron. Robots.txt nie rozwiązuje problemów z duplikacją wewnętrzną. Robots.txt ukrywa wybrane zasoby (które określisz w pliku) w wyniku organicznym, ale nadal je crawluje, a co za tym idzie - uwzględnia w budowie autorytetu domeny. Oznacza to, że jak będziesz miał duplikację wewnętrzną, to może nie zobaczysz jej w SERP'ie, ale i tak będzie obciążała Ci domenę. Z niewiadomego powodu robots.txt jest błędnie wykorzystywany jako substytut noindex'u w meta tagu, a tylko ten drugi doprawdy chroni przez duplikacją. Możesz sobie uzupełniająco poczytać mój art.: Czy robots.txt rozwiązuje problem duplikacji wewnętrznej? tutaj https://paq-studio.com/blog/czy-robots-txt-rozwiazuje-problem-duplikacji-wewnetrznej/
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue. Terms of Use Privacy Policy