Paq

Forumowicze
  • Zawartość

    1355
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    10

Paq wygrał w dniu 12 Maj

Paq posiada najczęściej lubianą zawartość!

Reputacja

358 Excellent

O Paq

  • Urodziny 01.05.1990

Contact Methods

  • Website URL
    http://paq-studio.com
  • GooglePlus
    +AdrianPakulski

Profile Information

  • Gender
    Male
  • Location
    Koszalin

Ostatnie wizyty

8162 wyświetleń profilu
  1. Dzięki @Ptaq!
  2. A może żaden? Czysty HTML to brak bazy, w zasadzie zerowe obciążenie dla serwera, brak włamów nawet jak nie będziesz pilnował aktualizacji. Wiadomo, jak to uzupełniać w nowe treści, to idzie sobie wygryźć wargi, ale jak nie będziesz ładował się w pomysł na bloga, tylko na coś innego, co nie musi wyglądać na zaktualizowane (czyt. format bloga), to stawiasz to raz, potem linkujesz cały czas i tyle.
  3. Dokładnie tak, jak napisał @dpx Po pierwsze tytuł ma odzwierciedlać zapytania w Google, więc wrzuć sobie nasiona poziomek do Keyword Tool i pogrzeb, a będziesz miał odpowiedź. Po drugie, w tytule zawieraj tylko te parametry, które odpowiadają zapytaniom użytkowników, bo Google nadaje wagi poszczególnym słowom, na które składają się frazy. W takim mega dużym skrócie mamy np. masz produkt: Biała czapka Alpinestars Wagi układają się następująco: Przykład A :Biała (waga: 50%) czapka (waga: 30%) Alpinestars (waga: 20%) Gdybyś dodał dodatkowy parametr np. Przykład B: Biała (waga: 40%) czapka (waga: 20%) Alpinestars (waga: 20%) biała (waga: 15%) fullcap (waga: 5%) Wagi oznaczają w dużym uproszczeniu potencjał - moc poszczególnych słów we frazie. I teraz opcja A będzie się lepiej pozycjonowała na: Biała czapka Alpinestars, ale niechętnie będzie wchodziła w wyniki jeśli ktoś dopisze do zapytania w Google pozycję - biała - (co jest oczywiste). Z kolei opcja B będzie łatwo wchodziła na dodatkowe parametry (czyli biała i lub/ fullcap), ale ze względu na rozmydlenie wag poszczególnych słów we frazie, będzie miała niższy potencjał na pozycjonowanie się na frazę skróconą do samego - Biała czapka Alpinestars. I teraz to jak ułożysz tytuł produktu zależy przede wszystkim od intencji. Jeśli chcesz zagospodarować tylko główną frazę A, bo powiedzmy ona ma 500 zapytań do wyszukiwarki, to zostawiasz samo - Biała czapka Alpinestars -, ale jeśli jesteś w stanie solidnie dopalić ten produkt w sklepie, to wtedy dajesz - Biała czapka Alpinestars biała fullcap - i najpierw szybko wbijasz się w długi ogon, ale będziesz musiał więcej się napocić żeby zdobyć frazę główną skróconą do samego - Biała czapka Alpinestars. Skala wag jest oczywiście różna w zależności od otoczenia konkurencyjnego, bo jak konkurencja jest słaba, to nawet jak dasz długi tytuł produktu, rozmydlisz wagi, to i tak nie odczujesz żeby dłuższy tytuł słabiej wchodził od krótkiego (w kontekście frazy krótkiej). Mam nadzieję, że to + - zrozumiałe. To na koniec powiem tak. Napisałem artykuł: https://seo.zgred.pl/pozycjonowanie-samodzielnie-zapomnij-twojej-firmy-na-to-nie-stac-4427 I teraz gdybym nadał mu tytuł krótki, czyli tylko skrócił go do: Pozycjonowanie samodzielnie to taki artykuł wylądowałby nie w TOP 7, a np. w TOP 3 na frazę "pozycjonowanie samodzielnie" Ale dlatego, że tytuł jest mega długi, wagi się rozmywają i potencjał na starcie jest nieco gorszy. No, ale coś kosztem czegoś. User jest też ostatecznie ważny w tym wszystkim. Sztuka kompromisów. Pozdrawiam
  4. @genju2 Chyba oczywistym jest, że jeśli domena podlinkowana nie jest, to sama żadnej reputacji nie ma i tej reputacji przekazać dalej nie może. Bo z pustego w próżne. Zaplecze może mieć i miliard podstron i równie dobrze być nie zaindeksowane, więc nie masz co robić testów. Poziom indeksacji, layout, technologia wykonania, logo i wszystko inne nie determinują tego, jak bardzo takie zaplecze kopie. Mam kilka 8-letnich stron (mówię o ciągłości, że pod domeną X stoi serwis od 8 lat), które stoją na jakichś rozjeżdżających się tabelach klepanych na Front Page 2007, w ogóle to do mobilek ani do niczego dziś już nie jest przystosowane, a jak coś z tego podlinkować, to żre.
  5. Firma została zamknięta, więc w czym problem? Co innego gdybyś ładował się w jakąś markę zastrzeżoną, a co innego w nieistniejący podmiot. Ja mam opory tylko przy domenach ze znakami, markami zastrzeżonymi. I tak mi się ostatnio przypomniało, że jakiś rok, dwa lata temu odpuściłem sobie domenę snickersmobile.pl, a teraz widzę, że ktoś postawił na tym mięsistego spama. Jak widać, da się.
  6. Otwierasz Search Controle i dalej idziesz tak: Indeksowanie » Parametry w URL-ach » Szukasz tutaj tego parametru wspólnego dla tych wyników wyszukiwania. To będzie pewnie category_type albo listing I tutaj wybierasz sobie ten konkretny parametr i zmieniasz pozycję aktualną z - Googlebot podejmie decyzję - na "Dzieli na podstrony" (coś takiego) i wtedy dajesz Żadne adresy URL.
  7. Widzę problem, ale nadal nie napisałeś, dlaczego w ogóle robot widzi kody błędów 404? Co stało się z tymi podstronami? Zmieniłeś adresy URL? Piszesz, że 404 Ci indeksuje. Na pewno? Bo to, że na te strony błędów wchodzi to nie jest to tożsame z ich indeksowaniem. Jak indeksuje, to możesz parametrami to wszystko wykluczyć od ręki.
  8. A w jaki sposób robot trafia na te wyniki wyszukiwania? Indeksuje je, czy po nich chodzi? Serio masz w indeksie świeże podstrony z błędami 404? To wyniki wyszukiwania, czy 404? Wyniki możesz usunąć ręcznie przez Search Controle. Czy to ma duże znaczenie? Jeśli tych błędów nie ma w jakichś patologicznych ilościach to nie. Ale jest tutaj dużo ale, trudno wróżyć z fusów.
  9. 1. Mówisz o lokalizacjach, którym ręcznie przypisano powiadomienie o nienaturalnych linkach wychodzących, tak? Zmierzyć się tego jednoznacznie chyba nie da, bo sam mam kilka domen, które dostały takie powiadomienia, ale ich widoczność w wynikach nie spadła i to w perspektywie roku, dwóch lat. Czy mogą potencjalnie szkodzić domenom, do których linkują? To prawdopodobne, ale testów nie robiłem, bo zawsze prewencyjnie zdejmowałem linki wychodzące z [1] takich stron. 2. Myślę sobie, że większe ryzyko generuje domena, która została wielokrotnie dodana przez rycerzy SEO do disavow tool. Tyle tylko, że nie sposób ocenić, czy domena została dodana do disavow tool. Disavow tool to tylko informacja dla algorytmu, który zbiera informacje na temat lokalizacji i jeśli takich sygnałów z disavow tool jest dużo, to algorytm prawdopodobnie ocenia, że jest to miejscówka o niskim autorytecie i oznacza ją jako toksyczną. Ale na pytanie, czy domenie, która wielokrotnie została dodana do disavow tool, Google przycina widoczność odpowiedzi nie znam. Trzeba byłoby samemu sobie strzelać disavow i to sprawdzić na dużej próbce. 3. IMO nie ma co tego rozkminiać na czynniki pierwsze. Jeśli domena ma w ch*j linków wychodzących, a jej historyczna widoczność w Google leci na łeb, to pewnie taką lokalizację sobie można odpuścić w kontekście pytania - czy pozyskać link z takiej strony, czy też nie. Ale to też nie jest taki jednoznaczny sygnał, bo mam kilka precli, które lata temu przepaliłem na frazy (tak, pozycjonowałem precla!), ich widoczność na poziomie algorytmicznym została przycięta, a kopią. Czyli tych domen w zasadzie w ogóle nie widać w wynikach, a żrą. Dużo ale. [1] Anyway, dziś takich powiadomień dużo już nie wchodzi, bo one dotąd były rozdawane ręcznie. Generalnie odkąd odpadł Matt, ograniczyli liczbę (IMO) pracowników SQT, oni takie rzeczy próbują na poziomie algorytmicznym załatwić.
  10. @Mion Mogę tylko przypuszczać, że @JaK_666 pisząc o dedykowanym CMS'ie nie miał na myśli dedyka pisanego od podstaw tylko to, że nie będzie robił tej dodatkowej strony firmowej w oparciu o samą Prestę tylko zainstaluje pewnie WP albo Drupala jako "dedykowane" rozwiązanie do nowej strony.
  11. W Search Controle będziesz miał powiadomienie o malware - jeśli domena jest czysta to wystarczy wysłać wiadomość, że zagrożenia już nie ma i w ciągu 1-2 dni zdejmą ten komunikat.
  12. Wyindeksujesz to w Search Console w ciągu 5 minut. Indeks Google » Tymczasowo ukryj
  13. Szablon graficzny nie ma w praktyce nic do samego silnika WP.
  14. @gieral Samo założenie w tej książce jest błędne, bo o czyjej etyce mówimy? Pozycjonera? Albo coś jest u góry, albo nie, a pamiętaj, że absolutnie każde działanie, które podejmuje pozycjoner jest niezgodne z regulaminem wyszukiwarki - nawet sama optymalizacja strony w treści, grafikę etc. ma na celu zmanipulowanie algorytmu; nie trzeba tego dalej rozwijać. Ale pracę dyplomową opisz tak, jak w książkach - na uczelniach nie mają o tym pojęcia, a tym bardziej na informatyce, więc w treści może być cokolwiek. I tak nie będziesz miał nikogo kto będzie w stanie merytorycznie ocenić pracę skoro SEO nie robi na co dzień. A ta książka to żadna wykładnia. W polskiej literaturze mylenie np. SEM z PCC jest na porządku dziennym, więc bez większego zaskoczenia.