Skocz do zawartości

aleksiej

Nowi Forumowicze
  • Postów

    8
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    3

Treść opublikowana przez aleksiej

  1. Czyli te które tu były omawiane jak OVH vps albo Seohost już byś nie polecał? Raczej kierunek lokoz albo neteasy tak? Co do cloudflare to jak byś oceniał tą opcje? Bo nie korzystałem do stron zapleczowych w sumie, zawsze irytowało mnie to wgrywanie i oczekiwanie na załadowanie strony. Czy to nie ma gorszych wyników jakości ?
  2. Pozwolę sobie trochę odgrzebać temat. Co byście teraz polecali do stawiania zaplecz? Zaplecza będę stawiał w miarę gołe pod względem kodu, sporo podstron, prosty CMS, żaden wordpress czy joomla.
  3. aleksiej

    Witam!

    Cześć, masz podobnie do mnie, jak chodzi o forum optymalizacja. Wydaje mi się, że przydałoby się lekko poprawić wygląd twojej strony. Na szybko poniżej masz mały kod który usprawni wygląd forum na stronie głównej. Jakbyś potrzebował więcej pomocy, napisz pw. /* Ogólne resetowanie i czcionka */ body { font-family: 'Segoe UI', Tahoma, Geneva, Verdana, sans-serif; background-color: #f3f4f6; color: #333; padding: 20px; } /* Stylizacja tabeli */ table { width: 100%; border-collapse: collapse; background-color: white; box-shadow: 0 4px 10px rgba(0, 0, 0, 0.1); border-radius: 8px; overflow: hidden; } /* Nagłówki tabeli */ thead { background-color: #1e3a8a; color: white; } thead th { padding: 16px 12px; text-align: left; font-weight: bold; font-size: 14px; text-transform: uppercase; } /* Wiersze tabeli */ tbody tr { border-bottom: 1px solid #e5e7eb; } tbody tr:hover { background-color: #f0f4ff; transition: background-color 0.2s ease-in-out; } /* Komórki tabeli */ td { padding: 14px 12px; vertical-align: top; font-size: 15px; } /* Linki */ td a { color: #1e40af; font-weight: 600; text-decoration: none; } td a:hover { text-decoration: underline; } /* Opisy pod tytułami */ td p { font-size: 13px; color: #6b7280; margin-top: 4px; } /* Wiersze z colspan (działy główne) */ td[colspan="4"] { background-color: #e0e7ff; font-weight: bold; font-size: 16px; } /* Stylowanie użytkownika i czasu */ td span { color: #374151; font-size: 13px; } /* Wcięcie dla podfor */ .indent { padding-left: 20px; } /* Styl dla "Brak nowych wpisów" - ukryj, bo jest redundantne */ .visually-hidden { display: none; }
  4. Dobre pytanie – szczególnie w kontekście nowszych wersji XRumera z podpiętym AI i bardziej „ludzkim” footprintem. Na dziś najskuteczniejsze i jednocześnie mało inwazyjne sposoby to: Cloudflare z ustawionym JS Challenge + Bot Fight Mode – sporo botów XR nawet z Xevil polega na wstępie. WAF z regułami na typowe patterny URLa i user-agenty – o dziwo wielu nadal używa defaultowych ustawień. Honeypoty w formularzach – prosty, a skuteczny mechanizm, który użytkownika nie dotyka. Ukryte pola CSS + opóźnienia JS dla przycisków submit – działają szczególnie dobrze na auto-submity. Ogranicz CAPTCHA tylko do wybranych przypadków (np. po czasie reakcji, UA, IP, itp.) – to daje dobry balans między UX a ochroną. Z ciekawostek – niektóre nowsze boty próbują symulować realnych userów przez zewnętrzne API (np. przez Selenium i proxy). Dlatego coraz częściej skuteczność daje analiza behawioralna (np. session time, flow, mouse movement) – choć tu wchodzi już grubszy kaliber. Jak ktoś ma więcej przykładów, to też chętnie posłucham.
  5. Wszystko jasne. Ale co z tego, że będę miał stronę brandową skoro będzie na pozycji 6 za EMD ? Mi chodzi o zgarnięcie ruchu. Zgadzam się z Tobą w pewnym stopniu zgred, że EMD nie będzie nigdy najlepszym sposobem na rozwój brandu. Ja widzę jednak pewne możliwości powiązania z brandem, np. spójna identyfikacja graficzna - czy to za mało ?
  6. Mi w tym temacie głównie chodzi właśnie o frazy mało i średnio konkurencyjne, które wcześniej spokojnie się pozycjonowało longtailem z głównej domeny do top3. Analizując widzę jednak że "lepsze domeny" które posiadają podstrony kontekstowe nie trafiają już do topek na longtail lokalny. W serpach często obsadzone jest top3 domenami jak to Harry słusznie nazwał EMD trafiającymi w frazę kluczową jak w przypadku który opisałem, zajmując top 1,2 i 4 czyli zapewne 80-90% kliknięć. Fakt faktem, takie domeny nie mają wartości "marki", ale mimo wszystko zgarniają użytkowników. Sam jestem ciekaw, stworzyłem na test taką stronę EMD, stworzę subdomenę i podstronę na stronie brandowej. Podlinkuje podobnie, zobaczymy jaki będzie efekt.
  7. Cześć, ostatnio wróciłem trochę bardziej do SEO i zauważyłem, że bardzo dobrze rankują domeny które są tworzone typowo pod frazę kluczową i daną lokalizacje. Mam pytanie do ekspertów. Czy warto tworzyć takie strony czy lepiej jedną główną domenę rozszerzyć i powalczyć o pozycje na wszystkie frazy lokalne? Albo może tworzyć po prostu subdomeny w ramach głównej domeny w których zawrzemy frazę kluczową lub jej składową? Podam przykład, by zobrazować. Oczywiście to są takie moje pierwsze testy po powrocie, ale może ktoś z forum już to przetestował i ma odpowiedź. Jest sobie fraza kluczowa lubiana przez handlarzy samochodów - "skup aut". Na główna fraza "skup aut Warszawa" rankują głównie firmy i strony brandowe. Ale gdy już pójdziemy w okoliczne miasta to zauważymy, że w wynikach w TOP10 pojawia się sporo domen typowo dopasowanych do frazy. Jeden z bardziej jaskrawych przypadków jest dla frazy "skup aut Piaseczno" skup aut Piaseczno (dodaje bez .pl) 1 pozycja - skup-aut-piaseczno 2 pozycja - skupautpiaseczno 4 pozycja - skup-samochodow-piaseczno 6 pozycja - piaseczno.pl-auto-zlom(subdomena) Daje mi to do myślenia.
  8. Cześć wszystkim. Pamiętam, że dekadę temu była tu kopalnia wiedzy. Wylogowałem się na dłuższy okres, bo osobiście przestałem zajmować się tak intensywnie pozycjonowaniem. Ale najwyższy czas powrócić na podwórko. Świetnie, że forum jeszcze żyje i wciąż można tutaj wyczytać ciekawe odpowiedzi i analizy stałych bywalców. Wystarczyło, że kliknąłem w kilka postów by odświeżyć sobie ogrom wiedzy który tu zawsze płynął. Mam nadzieję, że dzięki Wam wrócę do formy z SEO. Pozdrowienia i do usłyszenia!
  9. W mojej ocenie masowe tworzenie podstron pod miasta z identycznym tekstem i jedynie zmienioną lokalizacją to ryzykowna strategia, która w dłuższej perspektywie może bardziej zaszkodzić niż pomóc. Google od dawna jasno komunikuje, że doorway pages (czyli strony stworzone wyłącznie po to, aby pozycjonować się na konkretne frazy lokalne, bez realnej wartości dodanej) są niezgodne z wytycznymi i mogą skutkować wyindeksowaniem. Zamiast iść w kierunku niskiej jakości skalowania, lepszym podejściem będzie: Stworzenie unikalnych treści dla wybranych miast – nie tylko przez zmianę nazwy miejscowości, ale przez dodanie np. case study z danego regionu, specyficznych problemów klientów z danego obszaru, lokalnych zdjęć, opinii, itp. Rozwijanie sekcji realizacji / portfolio, gdzie każdy wpis można naturalnie zoptymalizować pod daną lokalizację – to świetny sposób na lokalne SEO z zachowaniem autentyczności i bez ryzyka duplicate contentu. Stworzenie mocnej strony głównej + ofertowej, która łapie główne i długie ogony w ujęciu ogólnopolskim, a dopiero na dalszym planie – rozsądnie rozbudowane strony lokalne, jeśli faktycznie wspierają działania sprzedażowe czy komunikacyjne (np. osobne zespoły, placówki, realizacje, oddziały, itp.). Nie chodzi o to, by nie pozycjonować się lokalnie – wręcz przeciwnie – ale trzeba to robić z głową. Jeśli dla 20 miast tekst różni się wyłącznie nazwą lokalizacji, to ani użytkownik, ani Google nie mają z tego realnej wartości. A takie strony działają tylko do czasu. Dobrze ujęte zostało wyżej, że wielu graczy działa z „lufą przy skroni”. Dziś są w TOP3, jutro mogą zniknąć z wyników – i bez ostrzeżenia.
  10. Dla mnie to nie jest koniec SEO – to reset. Świetnie to opisał Harry i podpisuje się pod jego opinią. Zamiast patrzeć na AI jako zagrożenie, warto zrozumieć, że mamy do czynienia z kolejnym etapem rozwoju wyszukiwania i konsumpcji treści. Czy klasyczne SEO oparte na keyword stuffing, tanich linkach i spinnerach umiera? Tak. Ale SEO jako całość? Absolutnie nie. Zgadzam się z tym, co padło wyżej – AI zmienia reguły gry, ale nie samą grę. Kiedyś trzeba było zrozumieć Googleboty, dziś trzeba zrozumieć modele językowe, intencje użytkownika i kontekst. Nadal można zdobywać ruch i konwersje – tylko trzeba robić to mądrzej. Treści muszą być nie tylko „SEO-friendly”, ale też „AI-readable”.LLM-y to nie wyrok – to narzędzie. Trzeba dostosować content i strukturę strony tak, żeby była „zjadliwa” nie tylko dla bota indeksującego, ale też dla modeli generujących AI Overviews. Kto to zrozumie pierwszy – zyska. A jeśli chodzi o ruch – też u mnie leci w dół z Google, ale wzrost z Binga czy DuckDuckGo pokazuje, że dywersyfikacja źródeł to dziś must-have. No i warto pamiętać o podstawowej zasadzie: SEO zawsze było dla tych, którzy potrafią adaptować się szybciej niż konkurencja. Kto stoi w miejscu – ten zostaje w tyle.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności