Paq

Forumowicze
  • Zawartość

    1403
  • Rejestracja

  • Ostatnio

  • Wygrane dni

    14

Paq wygrał w ostatnim dniu 15 Wrzesień

Paq ma najbardziej lubianą zawartość!

Reputacja

380 Excellent

O Paq

  • Urodziny 01.05.1990

Contact Methods

  • Website URL
    http://paq-studio.com
  • GooglePlus
    +AdrianPakulski

Profile Information

  • Gender
    Male
  • Location
    Koszalin

Ostatnio na profilu byli

8747 wyświetleń profilu
  1. Budowanie zaplecza

    @Marudny To jest już problem algorytmu, który nie nadąża za trendami. Z jednej strony zmuszają nas do nadprodukcji treści pisanej, z drugiej chcą karać za jej ukrywanie, a sprawą oczywistą jest, że jeśli konkurencja ma 5 tys. znaków na kategorii, to dobrym tekstem na 500 znaków nic nie idzie ugrać. Braki w optymalizacji można nadrabiać backlinkami, ale dzisiaj BL jest znacznie droższy w produkcji niż content.
  2. Bo słabo wygląda, bo ma dużo reklam (żeby inaczej tego nie napisać), zero normalnej treści, skopiowane foty. Strony z quizami to (bez obrazy) żadna wartość dodana, stąd pewnie taka ocena.
  3. Budowanie zaplecza

    Jest, ale można założyć, że wszystko, co jest pod ukrytym layerem ma albo mieć będzie zdewaluowaną wartość. Już teraz mówi się, że treści ukryte w CSS pod klawiszem "Pokaż więcej" działają słabiej od zwykłych. Nie wiem tego na pewno, bo testów jeszcze nie robiłem, ale scenariusz wydaje się prawdopodobny.
  4. Duck Duck Go

    @jimmi A wiesz, mam polubiony fanpage DuckDuckGo, subskrypcję wszystkich treści na FB i jakiś czas temi naszła mnie refleksja, że chłopaki mimo chociaż cisną ostro, krzyczą z całych sił o tej anonimowości, to już teraz wiadomo, że z tego ich silnika nigdy nic nie będzie. Brak śledzenia kwestii behawioralnych jest spisany na porażkę. Internet jest coraz bardziej spersonalizowany czy tego chcemy, czy nie. Stawanie okoniem przeciw trendowi sprzedawania danych to próba odwrócenia biegu Wisły saperką. To już się stało i się nie odstanie. Nokia też zaklinała rzeczywistość, że tylko Symbian, a scenariusz jaki był, dobrze wszyscy znamy. Nikon zresztą też. DuckDuckGo będzie kolejnym do worka jak sądzę.
  5. Duck Duck Go

    A dzięki, miło słyszeć
  6. Duck Duck Go

    Pozwolę sobie zostawić link do krótkiego felietonu na moim blogu na temat tego, dlaczego DuckDuckGo nie wbił się i pewnie nie wbije się do mainstreamu. http://paq-studio.com/blog/duckduckgo-sromotnie-przegralo-z-google-sny-o-internecie-wolnym-od-szpiegowskich-praktyk-to-zwykla-mrzonka/
  7. Link postrzegany jako 302

    To jest zwykły link, żadne 302, więc to błąd crawlera.
  8. Pozycjonowanie strony

    @Toto Wiesz, gdyby tematyczność była rozumiana przez algorytm tak szczegółowo jak piszesz, to linki z takiego Onet'u byłyby słabe, a wszyscy wiemy, jak jest. Może powtarzam to jak mantrę, ale o mocy miejscówki i tak decyduje jej szeroko pojęty profil linków. Na poziomie algorytmicznym robot nie ma pojęcia, że link ze strony o oponach mózgowych na serwisie o oponach samochodowych to niekoniecznie to, czego szukał.
  9. Pozycjonowanie strony

    Tematyczność linku należy rozumieć jako jego otoczenie kontekstowe. Czyli jeśli w treści pojawiają się słowa pochodne do anchora, to algorytm prawdopodobnie interpretuje te dane za spójne. Tematyczność miejscówki IMO nie istnieje. A jeśli w ogóle jest przyjmowana, to dotyczy konkretnych podstron, a nie całych domen. Gdyby tematyczność domen istniała, to linki z profili na forach nie działałyby. Katalogi, księgi gości i wszystko dookoła też nie.
  10. Nie mogą mieć, tylko mają. Zleć zredagowanie treści copywriterowi SEO i tyle. Nie ma co rozkminiać. 3 strony to nie 3 sklepy internetowe, z których każdy ma po 5.000 produktów. Najlepiej jeśli każda będzie na innej templatce. Zdjęcia mogą być te same, choć nie da się ukryć, że unikalne fotki, to też ważny czynnik rankingowy i miło gdyby były inne.
  11. Linki na stronach klientów

    Mało która agencja tak robi. Im mniej widać, tym lepiej.
  12. Nie. Odpisałem na Twój post tylko po to, żeby nabić post do licznika. Mówię - wejdź do SC, tam masz parametry URL i kilkoma kliknięciami wytniesz z wyników np. wszystkie adresy URL zawierające parametr "search" i podobne. Przecież wyżej Ci napisałem, co powinieneś zrobić. A jeśli nie chcesz z jakichś powodów robić tego przez robots.txt, to dostęp do folderu możesz ograniczyć sobie przez .htaccess do swojego IP.
  13. Budowanie zaplecza

    Nie będziesz chyba sprawdzał wątków sprzed 11 lat, kiedy synonimem dobrego zaplecza były kopie DMOZ'u na darmowych hostach, right? Wystarczy, że przeczytasz posty z ostatniego roku.
  14. Jak to nie możesz? Wchodzisz do SC, wbijasz w indeksowanie, potem parametry w URL-ach i wycinasz co chcesz. A skąd mamy wiedzieć o jaki CMS chodzi? Wszystkie Open Source'owe CMS'y pewnie go tworzą. A co do robots.txt, to foldery blokujesz np. w taki sposób: Disallow: /wp-includes/
  15. Stwórz taki opis produktu, który chciałbyś sam przeczytać i nie wierć sobie głowy keyword stuffingiem. Jeśli opis będzie miał ręce i nogi, to jeśli kilka razy pojawią się te same słowa kluczowe, to nic się nie stanie.