Skocz do zawartości

Harry

Forumowicze
  • Postów

    258
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    22

Treść opublikowana przez Harry

  1. Ostatnio trafiłem na ciekawe badanie mówiące o tym jak doświadczeni użytkownicy LLM'ów lepiej radzą sobie z identyfikacją treści stworzonych przez AI, nawet po tym jak tekst jest "zamaskowany" lub humanizowany. Link dla potomnych: https://arxiv.org/pdf/2501.15654 Co do tematu, faktycznie trochu ejaju tam jest
  2. Cześć @kokus U mnie również działa. RankMath czasem wypluwa błąd i podgląd mapy nie działa. jednak gdy wejdziesz w źródło (CTRL + U), to powinieneś zobaczyć sitemap - jeśli widzisz, nie ma problemu. Możesz też próbować naprawić: Odświeżanie permalinków: Ustawienia -> Bezpośrednie odnośniki -> Zapisz Zmiana ilości wyświetlanych linków w sitemapie. U mnie oraz u klientów problem pojawiał się przy bardzo dużej ilości. Domyślnie 200 jest wystarczające Profilaktycznie możesz wykluczyć sitemapę z cache. Dodaj ten kod do functions.php (najlepiej motywu potomnego aka child theme) albo przy wykorzystaniu wtyczek typu "insert code". add_filter( 'rank_math/sitemap/enable_caching', '__return_false'); Sprawdź w trybie incognito, być może przeglądarka trzyma cache. Wtedy naciśnij CTRL + F5 by odświeżyć cache w przeglądarce. Następnym razem też będzie miło gdy napiszesz dokładnie, co się wyświetla, np. żółta / biała strona Pozdrawiam
  3. Nie każdy daje taką "sanityzację", dla przykładu ja bardzo sobie chwalę plusiki i wykorzystuję praktycznie na 90% stron ponieważ chcę wiedzieć, czy mój mail został sprzedany lub ukradziony
  4. Cześć @dudekm Zapowiada się fajne narzędzie. Osobiście nie skorzystam, bo tymczasowego gmaila nie zablokujesz a jeśli tak, to spory odsetek będzie false-positive. W związku z tym mam pytania: jak wykrywasz tymczasowe maile? Własna baza, zewnętrzna lista, heurestyka, a może wszystko na raz? czy robiłeś już testy na false-positive? Pozdrawiam
  5. Panowie, bo widzę że was strasznie męczy temat niepotrzebnego html z czata. Zawsze można wykorzystać narzędzia typu: https://www.htmlwasher.com/ https://html-cleaner.com/ Wystarczy zrobić kopiuj -> wklej -> wyczyścić -> opublikować Pozdrawiam
  6. Sprawdź: Mistral, Gemini Claude
  7. Dokładnie tak! Ogólnie rzecz biorąc uważam, że większość seowców jest 10 lat do tyłu od tego co Google prezentuje. Gdyby nie boom na AI zapoczątkowany przez ChatGPT, to jestem przekonany, że niektórzy do tej pory nie znali by takich pojęć jak NLP, cosinus podobieństwa czy embeddingi z czego te 2 ostatnie są najpopularniejsze, a to są fundamenty narzędzi do analizy treści. Dlatego uważam, że aby zrozumieć sens obecnego SEO, to najważniejszą rzeczą jaką można zrobić, to zrozumienie podstaw wektorów semantycznych i optymalizowania treści z wykorzystaniem NLP. W przyszłości to zaprocentuje gdy Google będzie miał armię agentów AI do wszystkiego - wtedy najlepiej dopasowane teksty będą najczęściej cytowane ( imo ). Dorzućmy do tego jeszcze "potencjalną heatmapę" - skoro teraz mamy "potencjalne kliknięcie" - co jest jak najbardziej realne. Z resztą, nie ma co ukrywać, Google w semantykę inwestuje od kilkunastu lat i sukcesywnie przesuwa akcent na właśnie rozumienie semantyki i intencji użytkownika (przykłady: RankBrain, BERT, MUM). Niektórzy liczą cosinusy porównując tekst <-> tekst, a moim zdaniem Google analizuje podobieństwa na poziomie tekst -> strona lub nawet strona <-> strona, bo ma pełny kontekst dokumentu, historii, intencji, zachowań użytkowników... i sam Google wie co jeszcze. To już jest poziom semantycznych przestrzeni dokumentów (tzw. "Semantic Document Space"), a nie zwykłe dopasowanie keywordów, linków i próby zgadywania intencji usera. btw są jeszcze niewidzialne znaki, nie zawsze czat je wrzuca ale przeważnie wskazują na wygenerowaną treść Pozdrawiam
  8. Cześć @anna_buser Jak mniemam chodzi o sprawdzanie tekstów AI. Tutaj odpowiedziałem użytkownikowi w połowie drugiego postu. Zacytuję szczątkowo Chyba że masz na myśli szukanie, który robot skanuje stronę to: Logi serwera Wtyczka Redirection dla WordPress
  9. Słuszna uwaga - nie doprecyzowałem. Tak, chodzi mi o linkowanie zewnętrzne
  10. Fajna inicjatywa, krótko i na temat. Rzucam od siebie propozycje: Link z anchorem, czy link w obrazku z altem? - tutaj jestem ciekawy twojego zdania @zgred a reszta wedle uznania jako forma edukacyjna Kiedy warto i na jakie strony używać noindex? Dlaczego (nie)warto robić SEO z ChatGPT Co robić, gdy konkurencja cię spamuje? Jak często aktualizować treści na stronie?
  11. Google ma do dyspozycji kilkanaście tysięcy innych czynników rankingowych. Uważasz, że 3-4 literki na końcu adresu mają wpływ na pozycjonowaną stronę? Pomyśl logicznie... co innego adres typu .pl/?id=120943823, a co innego .pl/adres-z-twoim-keywordem. Obecnie zajmujesz się tylko i wyłącznie samą kosmetyką imo
  12. @pumpernikiel wyjaśnisz o co chodzi z tym twierdzeniem? PHP działa po stronie serwera i efektem tego jest, że przeglądarka (użytkownik czy robot) i tak widzą HTML. Chyba, że miałeś na myśli przeniesienie strony z czystego HTML, na PHP ale to nadal nic nie zmienia - poza prawdopodobnie wygodą - ponieważ efekt końcowy jest nadal taki sam = przeglądarka pokazuje kod HTML. Analogiczna sytuacja z rozszerzeniami jak htm, html, php - w kontekście pozycjonowania strony nie ma to żadnego znaczenia. To tylko i wyłącznie końcówka. btw CMS: https://pl.wikipedia.org/wiki/System_zarządzania_treścią .htaccess: https://pl.wikipedia.org/wiki/.htaccess
  13. Cześć Whitepress i linkhouse w zupełności wystarczą, to największe kolosy. Poza tym możesz na grupie seo (facebook) pytać ludzi, to też rzucą linkiem i / lub kontaktem do siebie "Kilka" osób nie wrzuca tam swoich stron, tylko pozyskuje właśnie klientów z grup i kontaktów prywatnych. Możesz też bezpośrednio napisać do Michała Woronieckiego (facebook / linkedin), który ma 100+ własnych portali. Sposobów jest wiele, kombinuj! Wbrew pozorom te ogólniki są dobre, co ci z linków jeśli na stronie masz (strzelam) 20+ artykułów? Kogo chcesz tym zachęcić - googlebota, usera? Przyjdą, zobaczą kolejną z pośród miliona identyczną stronę i pójdą dalej. Z twojej wypowiedzi wnioskuję, że nie za bardzo znasz się na seo, wiec skąd ten pomysł? btw Psychologiem nie jestem i nawet nie jestem blisko podobnego problemu, ale proponuję ustawić canonical na jedną osobowość - tak po prostu będzie łatwiej wszystkim dookoła Pozdrawiam
  14. @Lars namawiam cię do założenia globalnego ruchu oporu. Wystarczy tylko przekonać właścicieli 60 milionów stron zaindeksowanych w Google, żeby je zablokowali. Proste, prawda? Powodzenia, masz mój głos!
  15. Rozszerzenie dokumentu (końcówka php), a kod PHP nie są tym samym - więc nie, nie pisałeś zanim odpowiedziałem Brawo, no to teraz leć na (S)FTP i wprowadź zmiany
  16. @pumpernikiel PHP, a .htaccess to całkowicie dwa odrębne byty. Do tej pory rozmawialiśmy cały czas o .htaccess, nie mam pojęcia skąd wziąłeś nagle PHP Pisałem z pamięci, mogłem się pomylić. Spróbuj może z czatem wygenerować odpowiednią dyrektywę do .htaccess albo dać mu moją do poprawy - kombinuj. Kiedyś nie było tyle narzędzi i człowiek dawał sobie rady. Teraz ma multum, a i tak nie potrafi wykorzystać
  17. Wydaje mi się, że twój kod robi przekierowanie na php czyli /strona/ -> /strona.php Spróbuj tego RewriteCond %{THE_REQUEST} \s/([^\s]+)\.php[\s?] [NC] RewriteRule ^ %1 [R=301,L] strona.php -> /strona/
  18. Ustawiłeś Disallow: /*.php$ więc Googlebot nie ma dostępu do tej strony, co skutkuje tym że nawet jej nie wyindeksuje. Zamiast tego ustaw 301 z *.php i nigdy nie usuwaj - tyle wystarczy Tak, masz rację. To są 2 różne adresy z tą samą treścią ale dopóki masz disallow, to Googlebot nie widzi treści na *.php, dlatego ustaw 301, a następnie usuń disallow.
  19. Zgadzam się w 100% z @MaxPan Dopóki AI nie będzie miało czegoś na wzór fact-checku połączonego z knowledge graph i mechanizmem oceny wiarygodności (confidence score), dopóty będzie problem z jakością generowanych odpowiedzi. Pojedynczo google ma już takie systemy ale mam wrażenie, że nie zostały spiete w całość. Być może integracja jest o wiele bardziej złożona. W takim razie często wygląda to tak, że AI po prostu bierze fragmenty z różnych stron - czasem jedno zdanie, czasem kilka słów - które pasują kontekstowo do generowanej wypowiedzi, co bezpośrednio prowadzi do błędów. Wyciągnięty "cytat" może być wyrwany z kontekstu ale spięte z wypowiedzią AI może być "logiczne" - kurde, czytam to i nie wiem czy dobrze przekazałem myśl
  20. @Mion Visual Studio Code + Copilot robi robotę
  21. @Xenobi skoro przypominasz się na grupkach fejsa (https://www.facebook.com/groups/496083163758299), to ja również ...a jakby tak zrobić coś dobrego dla internetu i całkowicie za friko napisać plugin do WordPress o nazwie "Antyspamer Xenobi", który automatycznie aktualizował czarną listę o IP, maila i ksywe?
  22. @ZnajdeFirme.pl skup się na linkowaniu wewnętrznym. Nawet najlepsze techniki nie pomogą, jeśli wewnętrznie masz uchybienia Nie ma innych lepszych rankingów. Każdy scoring, to wymysł nie mający żadnego powiązania z Google. Chociaż spam score od MOZ jest całkiem fajny Tak, pod warunkiem, ze te odiwedziny są bezpośrednio z Google, a nie innych stron (np. tych spamowych). W Google różne interakcje użytkownika (kliknięcie, a nawet skupienie uwagi przez najechanie kursorem) mają wpływ. Tak samo jak szybki powrót z twojej strony do wyników wyszukiwania (pogo sticking), a te interakcje są wykorzystywane do określania wyniku popularności powiązanego ze stroną. Wynik popularności może wpływać na to, jaką strona ma pozycje (oczywiście to tylko jeden z tysięcy potencjalnych czynników). W skrócie: systemy oceny i modele zachowania użytkowników - takie jak model CAS (Clicks, Attention and Satisfaction) - wykorzystują kliknięcia jako sygnały. Pozdrawiam
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności