Ranking


Popularna zawartość

Wyświetla najczęściej polubioną zawartość od 25.02.2016 uwzględniając wszystkie działy

  1. 19 polubień
    Koledzy statystyki z dnia trzydziestego były takie same jak z dwudziestu dziewiątego. Test uważam za zamknięty. Podsumowanie : Test pokazał, że 4 polskie indeksery działają mniej więcej na tym samym poziomie, indekser Oka nie co gorzej ale i cena jest niżej. Jak widzieliście nie było wypadania linków z indeksu i nie wrócenia, a było wahanie takie same w każdym indekserze i powrót do poziomu stabilnego był taki sam u wszystkich. Indekser Oka na ok 1 dzień później przemielił paczkę ( wrzucona byla jednocześnie ze wszystkimi) dla tego i jego reakcja byla spóźniona na 1 dzień. Test pokazał również, że nawet publiczną ( udostępniona dawno temu dla każdego użytkownika softu) zajechaną setkami blastow bazę można zindeksować do poziomu ok 50% samym indekserem. Bez wątpienia test udowodnił że samoczynnie linki z takich baz nigdy nie będą indeksować się do poziomu 50%. Jaki ma to wpływ na rankowanie? to już inna historia i założenia do innego testu. Dziękuję czytającym i obserwującym ten temat za poświęcony czas.
  2. 15 polubień
    Tak jak ostatnio właściciele ( osoby reprezentujące właścicieli) indeskerów ścigają się w oskarżaniu się na wzajem, że jednym dziala a innym nie działa, że testy ustawione, inne postanowiłem własnoręcznie zrobić test. Założenia testu Linki: Publiczna baza dostępna z softem Xneolinks ( stara, upubliczniona miesiąc temu, już zajechana więc nikt nie powie, że sama indeksuje się na poziomie 60%). Ponad 100 CMSów, różne typy linków ( profile, artykuły, komentarze, inne). Linki zostaną dodane do tej samej bazy na 4 strony docelowe ( strony nie moje). Tak aby profil linków i miejscówki w każdej paczce którą dostanie każdy indekser był identyczny ( może różnić się 1-10 miejscówkami bo to nie apteka i na tą ilość to margines błędu.). Paczki zostaną dodane do 4 Polskich indekserów. Recz jasna właściciele indeksów nie będą wiedzieć które to linki bo konta w indekserach nie moje a ilość tych blastów na publicznej bazie wrzucana do indekserów jest tak duża, że nie wyłapią które moje. Konta kupione już dawno temu na dane prywatne kolegi ( ja z indekserów nie korzystam). Sprawdzać indeksację będę każdych 24h przez 30 dni od pierwszego pomiaru softem od @Młodego (Adam) i dodatkiem do Xneolinks ( kontrolnie co parę dni bo on sprawdza również obecność w cashe). Również oświadczam, że nie jestem powiązany biznesowo, mentalnie, lub w inny sposób z żadnym z testowanych indekserów. Trzech właścicieli znam z forum, z niektórymi czasami rozmawiamy przez telefon. Przed pierwszym wrzuceniem paczek do indekserow zostanie pomierzony poziom "samoczynnej" indeksacji. Będę edytować ten post wpisując aktualizacje i winniki co 24h przez 30 dni od pierwszego pomiaru. Jeśli ktoś ma pomysł jak jeszcze bardziej uwiarygodnić test możecie śmiało pisać, uważam że zaproponowany mój schemat daje równe szanse każdemu systemowi. Ostrzegam przed próbami pisania do mnie o odpłatne podrasowanie wyników któregoś z systemów, jeśli takie coś będzie mieć miejsce zastrzegam sobie możliwość upublicznienia tego faktu. Przyjąłem taką numerację, kolejność dowolna indekser nr.4 RankIndexer.win indekser nr.3 Speed-links.net indekser nr.2 Black-Star Indexer indekser nr.1 indeksowanie.i4a.pl Samoczynne indeksowanie na 12.09.2016: Paczka nr 1 2,88% Paczka nr 2 3.01 Paczka nr 3 4,2 % Paczka nr 4 3,5 % ​Dzień pierwszy : Dzień drugi: Dzień trzeci: Dzień czwarty Dzień piąty: Dzień szósty: Dzień siódmy : Dzień ósmy: Dzień dziewiąty: Dzień dziesiąty : Dzień jedenasty: ( limit obrazków w jednym poście) http://www.forum.optymalizacja.com/topic/232502-test-ogólnodostępnych-polskich-systemow-indeksacji/?p=1498447 Dzień dwunasty ( limit obrazków w jednym poście) http://www.forum.optymalizacja.com/topic/232502-test-ogólnodostępnych-polskich-systemow-indeksacji/?p=1498544 Dzień trzynasty ( limit obrazków w jednym poście) http://www.forum.optymalizacja.com/topic/232502-test-ogólnodostępnych-polskich-systemow-indeksacji/?p=1498680 Dzień czternasty ( limit obrazków w jednym poście) http://www.forum.optymalizacja.com/topic/232502-test-ogólnodostępnych-polskich-systemow-indeksacji/?p=1498884 Dzień piętnasty ( limit obrazków w jednym poście) http://www.forum.optymalizacja.com/topic/232502-test-ogólnodostępnych-polskich-systemow-indeksacji/?p=1498962 Dzień szesnasty ( limit obrazków w jednym poście) http://www.forum.optymalizacja.com/topic/232502-test-ogólnodostępnych-polskich-systemow-indeksacji/?p=1499204 Dzień siedemnasty ( limit obrazków w jednym poście) http://www.forum.optymalizacja.com/topic/232502-test-ogólnodostępnych-polskich-systemow-indeksacji/?p=1499385 Dzień osiemnasty ( limit obrazków w jednym poście) http://www.forum.optymalizacja.com/topic/232502-test-ogólnodostępnych-polskich-systemow-indeksacji/?p=1499485 Dzień dziewiętnasty ( limit obrazków w jednym poście) http://www.forum.optymalizacja.com/topic/232502-test-ogólnodostępnych-polskich-systemow-indeksacji/?p=1499540 Dzień dwudziesty ( limit obrazków w jednym poście) http://www.forum.optymalizacja.com/topic/232502-test-ogólnodostępnych-polskich-systemow-indeksacji/?p=1499672
  3. 13 polubień
    W końcu udało mi się znaleźć kilka chwil na przygotowanie publicznej wersji tego programu używanego przeze mnie już od jakiegoś czasu. Darmowy program dostępny do instalacji pod Windows lub do wrzucenia na serwer z php. Na razie nie ma dokumentacji, ale coś na pewno z czasem się pojawi, na razie musi starczyć ten temat tu na PiO . Do pobrania, zainstalowania i uruchomienia nie potrzeba podawać żadnych swoich danych. Jedynie co to z czasem mogą być wyświetlane reklamy SEO w górnej belce. Ale to może z czasem. Jest to zbiór różnych narzędzi mniej lub bardziej przydatnych, oczywiście lista nie jest zamknięta i można proponować różne rozwiązania. Nie obiecuję, że wprowadzę wszystkie. MONITORING: Monitoring dostępności stron Monitoring pozycji w Google Monitoring zaindeksowania w Google Monitor top10 Google SCRAPER Scraper url ze stron Scraper proxy ze stron Scraper email ze stron Scraper url z Google Scraper reklam z Google Scraper ilości wyników z Google DZIAŁANIA NA LISTACH Usuwanie duplikatów z listy Przycinanie adresów do domeny Porównanie 2 list PUBLIKOWANIE Wyślij wpisy do WordPress (xml-rpc) CHECKER Linki wychodzące Meta tagi MOZ IP Whois DNS GENERATOR TREŚCI Generator tekstu z synonimów Generator synonimów z tekstu BACKLINKI Backlinki do strony Backlink checker Aktualny opis będzie dostępny pod adresem: http://i4a.pl/?p=seoprzybornik Instalator Windows do pobrania. Wersja serwerowa do pobrania (min. php 5.3, ioncube loader minimum 4.4 i kilka innych standardowych modułów) Jest to zbiór różnych narzędzi mniej lub bardziej przydatnych, oczywiście lista nie jest zamknięta i można proponować różne rozwiązania. Nie obiecuję, że wprowadzę wszystkie. edit. Literówka edit2. Podmiana linków na goo.gl w celu zliczania pobrań.
  4. 12 polubień
    Pamiętajcie, że maszyna jest tak głupia, jak jej użytkownik
  5. 12 polubień
    Jak nie myślał. Nie trzeba nie doceniać wroga, to przyczyna wielu klęsk o zarania dziejów. Wyszukiwarki to wysoko intelektualne korporacje. Stać ich na zatrudnienie każdego, na zakup całej firmy dla jednego algorytmu, mają ogromne ośrodki badawcze. My z swoimi testami jak komary na ciele słonia. Trocha krwi wypijemy ale słoń dalej idzie i tylko czasami wrzuci kurzu aby ubić cześć insektów. Jesteśmy pasożytami na ciele wyszukiwarek , nie ma co płakać a gryźć ile się da. Wiem, że boli jak zarabiająca strona odlatuje, jak klient spada. To ryzyko zawodowe. Ciszcie się, że nie pracujemy w kopalni bo tam metan wybucha, a tu tylko strony odlatują w dól wyników. Jedno i drugie zdarza się sukcesywnie.
  6. 12 polubień
    Przykład wpływu linkowania wewnętrznego na wzrost zaindeksowania serwisu, wzrost pozycji i parę innych rzeczy. Przykład co ciekawszy, że linkowanie wewnętrzne było całkowicie spieprzone tym "kliknij tutaj", "Kliknij tam czy sram" . Najgorsze , że właściciel witryny nie chciał się zgodzić na zmianę tekstów anchorów . Także przykładowo do podstrony z listingiem produktów z całego serwisu prowadziły linki wewnętrzne ze zróżnicowanymi anchortekstami. Co to powodowało ? Otóż powodowało to totalny burdel i nic więcej efektem tego bajzlu było to, że algorytm nie potrafił dobrać właściwych podstron dla właściwych fraz. Dodatkowym problemem było to, że każdy pojedynczy produkt występował w kilkunastu kategoriach .... No to zrobiliśmy mały trick polegający na sztucznym zwiększeniu ilości linków wewnętrznych z właściwymi keywordsami. Użytkownik tego nie widzi od razu bo nie musi a jak chce to znajdzie i co najważniejsze sztuczka ta umotywowana jest "użytecznością" dla mniej ogarniętego usera. Po wprowadzeniu tej sztuczki i jeszcze paru innych tricków pozycje witryny dla fraz zaczęły rosnąć , mało tego dla najważniejszej frazy udało się wprowadzić w TOP 5 dwie podstrony, stronę główną i jedną z podstron. Dodatkowo indeksacja skoczyła z 40K do ok 240K. Co prawda obawiam się, że jak dojdziemy do TOP1 to jedna z nich zniknie ale i tak dużo to da. Witryna już obsadziła TOP1 i TOP 1-3 dla zbliżonych fraz które generują miesięczne ilości zapytań w granicach 10-2 K/mies, Problemem niestety są obrazki, merchanty i reklamy google w serpach dla tych fraz odbierające w cholerę ruchu. Witryna e-commerce wszyscy sprzedają to samo, a o topy bije się od cholery stron. Dzięki takim sztuczkom (i paru innym) nie było żadnych mrozów jak u Xanna w serpach , witryna nówka, SEOwana ok 7 miesięcy. W polu zostało alledrogo, ceneo i parę witryn / marek z kilkuletnim stażem. Jak mi się uda w końcu namówić właściciela do pewnej akcji, mającej na celu pozyskanie "naturalnych" linków z jednoczesną promocją marki to zrobię case Dlaczego optymalizacja linkowania wewnętrznego była w tym przypadku tak ważna ? Ano z dwóch powodów : 1. zaoszczędziliśmy na ilości linków prowadzących do witryny 2. Wprowadziliśmy w TOP 10 chyba największą ilość podstron dla fraz związanych z branżą niż jakakolwiek strona konkurencji Tym bardziej cieszy bo wszyscy praktycznie sprzedają to samo . Przypadki są pojedyncze, kiedy się powtarzają przestają być przypadkami
  7. 11 polubień
    Panowie, już wszystko jasne! Wszedłem na jedno takie forum, gdzie experci się wypowiadają (chyba 3 raz w życiu) i oświeciło mnie! Tak więc - jeżeli dodawaliście jakieś linki ręcznie do swoich stron (o automatach to nawet nie wspomnę!) to nie macie co płakać, że wam pozycje spadają! Przecież to takie proste! Jedyne rozwiązanie to czekanie jak zadowoleni użytkownicy zaczną sami umieszczać linki na swoich stronach, tak więc zamiast płakać postawcie milion stron!
  8. 10 polubień
    Przedstawiam końcowe wyniki testu indeksacji 3 polskich indekserów: 10 DZIEŃ RANK 65 % SPEED 67 % BLACK 67 % Test uważam za zakończony
  9. 9 polubień
    Nie mamy co robić tylko dosować seolesczy. Zamykam bo to wykracza po za groteskę.
  10. 9 polubień
    Na blogu Template Monster ukazał się krótki wywiad ze mną. Rozmawiamy z @jkaminski głownie o seo i forum
  11. 9 polubień
    Nie, ale znam kogoś kto był
  12. 9 polubień
  13. 9 polubień
    Dobra, merytorycznie będzie teraz skupta się Kwestia różnicowania anchor tekstów powstała na fali paniki jak ruszyło czyszczenie serpów , to wszyscy wiedzą. Teraz będzie "do rzeczy" : otóż napierdalanka anchorami w stylu "kliknij tutaj" , "kliknij tam" czy "kliknij sram" tak naprawdę przeszkadza w rankowaniu gdyż osłabia fraze / słowo kluczowe na które chcemy być w górze. Wbrew oficjalnej propagandzie google algorytm nadal uwzględnia w rankowaniu słowo zawarte w anchorze. No i dochodzimy do kwestii dywersyfikacji anchorów w celu uniknięcia obniżenia pozycji przy dużej liczbie "monotematycznych linków" Skuteczna dywersyfikacja (taka która nie osłabia nam możliwości wbicia na topy) oraz taka jaką musimy użyć przy braku mocnego zaplecza tematycznego polega na ..... Wyjaśnię na przykładzie frazy "bielizna" , na przykładzie dlatego, że niektórzy nie rozumieją znaczenia takich słów jak odmiana, wyraz bliskoznaczny itp. Tak więc ay wywindować dana stronę na frazę "bielizna" należy używać następujących anchorów: bielizna damska bielizna erotyczna zmysłowa bielizna kobieca bielizna bielizna dla kobiet wybierz bieliznę znajdź bieliznę dla siebie poszukaj bielizny bielizna dla Ciebie i tak dalej i tak dalej w tym kierunku .... Tak więc mamy dywersyfikację słów i fraz kluczowych zawartych w anchorze a i dodatkowo algo dostaje informację że główną zawartością strony jest .... No co Tomek ?? Główna zawartość strony to jest "kliknij" czy "bielizna" w/g Ciebie ??
  14. 9 polubień
    Softy nie są do niczego potrzebne, na początku wręcz szkodzą niż pomagają. Najpierw trzeba dojść do tego co i jak działa, co jest skuteczne (polecam robić to ręcznie) a dopiero później szukać softu pod konkretne rzeczy które chcemy zautomatyzować i przyspieszyć. Nigdy na odwrót.
  15. 8 polubień
  16. 8 polubień
    Jesteś pewien ?? Ja nie pokazałem co ja potrafię, tylko wykazałem czego Ty nie potrafisz, ot taka mała różnica . Twoje testy i wnioski są jak ten test z muchą: Latała sobie mucha i bzyczała , koleś ją złapał, wyrwał skrzydełka i położył na stole, mucha przestała latać i bzyczeć.... Wniosek: po wyrwaniu skrzydeł, mucha traci głos ....
  17. 8 polubień
    To uczucie, robisz test 3 miesiące, w końcu strona wskoczyła do top-a, idziesz na PiO się pochwalić, wyzywasz do rywalizacji innych, a tu bach, wystarczyło 2 dni, żeby zrobić top 1.
  18. 8 polubień
    Ja jestem za tym żeby wszyscy się u niego szkolili. Będzie pusto w serpach przynajmniej Przecież zaraz wielbłąd napisze, że to nie on test robił tylko jakiś pracownik i frazy pomylił bo to miały być chwilówki PS. Tyle zostało z karawany:
  19. 8 polubień
    Wracając do tematu głównego Jak się okazało artykuł który został opublikowany wczoraj tj 13.10.2016 roku siedzi dzisiaj w TOP 1 dla frazy "wypas owiec w Bieszczadach" .... Czy trzeba to komentować ? Myślę, że dla ludzi ogarniających tą branże nie trzeba , dla laików wierzących w (sz)moc dynamicznych SWLi jest to po prostu klasyczny przykład i potwierdzenie jaką to ma na dzień dzisiejszy wartość BTW strona podlinkowana jedynie słusznym SWLem jest na 6 pozycji
  20. 8 polubień
    No i co z tego Jako Młody chłopak robił sobie klimatyczne zdjęcia .... Poza tym lepsze takie niż by siedział na łaFce i z kolami jointa palił lub browara pił. ---------- Koledzy - <pisząc w stylu Maxa> na czym polega Wasz problem ? - Na tym, że 18 latek stworzył system indeksujący ? - Czy na tym, że 18 latek otworzył działalność gospodarza i może za już wkrótce zamiast wyjechać do Anglii i myć dup(***) angoli będzie zatrudniał wiele osób. - Czy może na tym, że nie wyssał z mlekiem matki "szkoły biznesu" ? Wynajdywanie zdjęć Sebastiana jest lekko pisząc żenujące, niepoważne i wręcz dziecinne.
  21. 8 polubień
    czlowieku jak ja bym mial 200-300 zl to bym sobie inaczej zycie ulozyl...
  22. 8 polubień
    Parę lat temu było podobne badanie, każdy mógł sobie wpisać ale ile zarabia jego agencja. Więc wiesz jaki był wynik i czyja agencja oakazała się najwięcej zarabiająca agencją interaktywna w Polsce ? Kontrakty tych lepszych seowców mają klauzurę poufności to raz, dwa wątpię że wypełniają jakieś ankiety na ten temat. A osoby co siedzą na FB i interesują się podobnymi ankietami myślę, że pracują za minimalną krajową a piszą, że za 5k. Nie wiem jak Was ale mnie w ogóle nie interesuje ile kto zarabia ( za komuny to było popularne pytać ile kto zarabia - chory zwyczaj tak samo jak cały ten ustrój). Na szczęście żyjemy w innych czasach i w innym ustroju i trzeba się cieszyć jeśli ktoś zarabia więcej i nie śmiać się z tych co zarabiają mniej.
  23. 8 polubień
    Jak tam Wasze serwery w święta?
  24. 7 polubień
    Mam nadzieję że się sprawdzi i będzie dobrze służyła przez ładnych parę lat. Stopniowo będziemy wdrażać nowe funkcjonalności, teraz skupiliśmy się na podstawach.
  25. 7 polubień
    Dokładnie @Finan i @Aleksiejs. Pomijam już fakt, że o ile jeszcze kilka lat temu ludzie mieli czas pisać blogi (społeczności były rozproszone, blogi były nowością, nikt nie siedział na NK i FB) i walić z nich linkami, to dzisiaj jak ktoś zajmuje się blogowaniem to wie z czym wiąże się linkowanie, czym jest nofollow etc. Dzisiaj nie ma już blogów o tym, że ktoś podróżował tramwajem i widział pijanego 60-latka, ani dzienniczków pryszczatych nastolatek, które mogły naturalnie coś tam komuś podlinkować. Blogosfera się sprofesjonalizowała, a naiwniaków, którzy za darmo linkują do stron firmowych już w zasadzie nie ma. A linki z Facebooków to wszyscy chyba wiemy, jak działają. Nie działają. Content może i urywać tyłek, a jak nie będzie podlinkowany, to i tak nic z niego nie będzie.
  26. 7 polubień
    jak się wybić, proste, przepis był już podawany na tym forum, trzeba stworzyć aurę GOORU SEO, przekonywać otoczenie, ze posiada się jakąś tajemniczą, niezwykłą wiedzę na temat SEO i algorytmu, można np stworzyć jakiś blog o seło. Warto być opryskliwym wobec zielonych forumowiczów, pohejtować trochę i łapać jeleni na abonament.
  27. 7 polubień
    Wesołych Świąt PiO. Trzymajcie się z daleka od rumaków, klawiatur i monitorów SERP'ów (może w wynikach w te święta nic nie pierd*lnie). I dużo szczytowania w Googlu. Poza nim zresztą też. Pozdrawiam Paq
  28. 7 polubień
    Mi osobiście przeszkadza to, że 95% nie powinno się nazywać copywriterami . Zawsze dobija mnie ta maniera do ubierania w wyrafinowane (w ich mniemaniu) słowa aby oddać naprawdę proste sprawy. Moim numerem uno jest słowo "destynacja" . Te słowo zawsze mnie rozwala w tekstach turystycznych Największym problemem kopirajtów jest po prostu chroniczny brak nazwijmy to "weny twórczej" , praktycznie nie spotkałem ani jednego który potrafiłby samodzielnie wymyślić treści na zadane tematy i wyjść poza oklepane schematy.
  29. 7 polubień
    W top widać, że tłukłeś tym ewebem stronę i cisnąłeś parę miesięcy, podczas gdy inni przeskoczyli Ciebie w kilka dni kilkoma linkami To jest to co widać I to by było na tyle PS gdyby tak naprawdę wszystkim zależało na tym to mam dziwne przekonanie, że całe zasoby eweba nie starczyły by nawet na top20 w wyniku gwałtownego wzrostu konkurencyjności frazy
  30. 7 polubień
    Ależ ja zdaję sobie sprawę Szlafrocku, że Ty zawsze wszystko wiesz lepiej i to w każdej kwestii nawet w tej która nawet się jeszcze nie pojawiła i szczerze podziwiam Ciebie za to
  31. 7 polubień
  32. 7 polubień
    Tomek, ostatnio jeden kolo zapytał mnie dlaczego "jak taki jestem dobry" nie szkolę... Odpowiedziałem krótko - nie czuję się na siłach . IMHO jest parę osób (na palcach jednej ręki policzyć) które robią to dobrze, niestety ani mnie ani Ciebie wśród nich nie ma . Sorrki Winnetou . Inna kwestią jest to, że tak naprawdę zdecydowana większość tych szkoleń SEO po prostu mija się z celem, bo jak już wielokrotnie pisałem czy mówiłem w tej branży potrzebne jest : kreatywne myślenie, logika, umiejętność analizy, wyciągania wniosków, odrobina cwaniactwa oraz parę innych cech których na żadnym szkoleniu nie wykształcisz. Sama umiejętność "klikania" odpowiednich funkcji w jakimś programie nie wystarczy. Osobiście uważam, że większość szkoleń to po prostu zwykłe wyciąganie kasiory z kieszeni naiwniaków .
  33. 7 polubień
  34. 7 polubień
    Nie mam co robić tylko testować przez 2 miesiące Polskie indeksery
  35. 7 polubień
    Pozwolę sobie zarządzić i zamknę to. Jak do jutra nie zapomnę, to jutro zniknie.
  36. 7 polubień
    Jeżeli ktoś robi większą ilość fraz to naprawdę trzeba być bystrym żeby nie zauważyć że algorytm działa w real time. A już w ogóle żeby wierzyć im we wszystko co mówią / piszą. Google nie potrzebuje więcej pijarowych zagrywek typu "puściliśmy pingiwna 4.0, wywalimy Was wszystkich" - bo to źle wygląda. Jak robią to po cichu, to większość tego nie zauważy i będzie cisza i spokój bez zbędnej "burzy" wokół. Swoje i tak robią i robić będą. @pozycjonowanie - odpowiedzialni za pingwina piszą i pisać sobie mogą, oni nigdy Ci nie powiedzą jaka jest prawda, w swoich wypowiedziach używają niedopowiedzeń, nie mówią wprost, a czasem specjalnie unikną jakiejś odpowiedzi. Wiele lat temu twierdzili, że nie istnieje coś takiego jak SEO Później zmienili zdanie i przyznali się, że istnieje algorytm odpowiadający za wyniki i utrzymywali, że linkami nie da się zaszkodzić. Kolejne wytyczne mówią, że trzeba pieścić linki jak się da, a złymi można linkami zaszkodzić konkurencji. Słuchanie pracownikow Google doprowadzi Ciebie do tego że będziesz czekał z miśniakiewiczem aż "coś w końcu zrobią" z całym pozycjonowaniem, a reszta SEO będzie robiła to co robi i okupowała dalej topy
  37. 7 polubień
    No to skoro zostałem już wywołany do tablicy... Dyski SSD w znacznej większości zastosowań dają ogromnego kopa. Ilość IO (czyli operacji odczytu/zapisu), które są w stanie wykonać w ciągu sekundy w porównaniu nawet z typowo serwerowymi dyskami SAS 15k dzieli spora przepaść. Dlatego właśnie warto lokować bazy danych na dyskach SSD, gdzie jest wykonywana bardzo duża ilość tego typu operacji. Warto je również stosować, gdy jest od groma małych plików, do których jest częsty dostęp. Żeby nie było tak kolorowo, trzeba dodać też łyżkę dziegciu. Dyski SSD mają zdecydowanie wyższą cenę, desktopowe gryzą się ze sprzętowymi kontrolerami RAID. Źeby taki SSD współpracował np. z Dellowymi kontrolerami, musi to być dysk z serii DC. A koszt? http://www.ceneo.pl/25015373 Więc około 5-6 krotnie wyższy, niż desktopowego SSD. Pewnie bardziej technicznie koledzy zauważą, że niektóre desktopowe SSD mają lepsze osiągi i jest to niestety prawda. Te dyski natomiast potrafią się trimować same, nie potrzebują komendy z kontrolera, mają dużo większą żywotność niż zwykłe ssd. To swoją drogą jest rzecz warta uwagi, takie dyski SSD mają określoną żywotność i po zapisaniu np 50TB danych mogą paść, a przy zbliżaniu się do tej granicy ich wydajność zmniejsza się i zmniejsza, by w końcu spaść poniżej wydajności dysku talerzowego. Taka ciekawostka, 4 dyski SAS w RAID 10, potrafią być szybsze od 2 dysków SSD w RAID 1 przy odczycie ciągłym. Nie wspominając już o trwałości. Mamy serwery, w których dyski SAS pracują pod dużym obciążeniem 3-4 lata bez najmniejszej awarii, a SSD? Różnie bywa. Dlatego rozsądnym rozwiązaniem jest utrzymywanie na SSD wyłącznie baz, a na solidnych talerzach - plików (byle nie WD green ). Uprzedzę pytanie - stosowanie "hybryd" czyli reklamowanych dysków SHDD ma pomijalny wpływ na wydajność. Oczywiście jest wiele innych rozwiązań, jak chociażby LARC, czy L2ARC, gdzie dysk SSD lub RAM wykorzystuje się jako szybki bufor dla najczęściej używanych plików, ale to chyba nie miejsce na takie tematy. No i proszę o wybaczenie, że to w wątku chłopaków z linuxpl, ale zostałem wywołany do odpowiedzi, więc nie wypadało milczeć
  38. 7 polubień
    mój ulubiony to ten https://www.youtube.com/channel/UCVg4DAiKW5WgPKKbQAJ89MA tu masz o robots.txt
  39. 7 polubień
    Ja do dzisiaj nie mogę zrozumieć czemu nie można dodać opcje wysyłania captcha wyskakującego przy odpytywaniu Google na zewnętrzny ocr. Pisałem o tym z 4 lata temu. Rozwiązało to by kwestie lokalnych proxy, prywatnych jak również publicznych.
  40. 6 polubień
    Google nie tak dawno poinformowało, że będzie ostrzegać internautów przed stronami niekorzystającymi z protokołu https, czyli niezabezpieczonymi certyfikatem SSL. Innymi słowy: będzie zniechęcać do odwiedzin takich serwisów. W związku z tym można spodziewać się, że większość właścicieli stron www wprowadzi certyfikaty w najbliższym czasie. Pojedynczy certyfikat SSL kosztuje od około 9 $ aż po kilkaset PLN za domenę. Dla seowców, czy afiliantów posiadających setki i tysiące domen, może to stanowić poważne wyzwanie finansowe. Na szczęście od niedawna można otrzymać podstawowy certyfikat SSL na domenę za darmo, a co najważniejsze – jest on honorowany przez niemal wszystkie przeglądarki internetowe i systemy operacyjne, w przeciwieństwie do podpisanych przez przez CAcert projekt open source czy siebie samemu (Self-signed certificate). Let’s Encrypt https://letsencrypt.org/ Rozwiązanie tylko dla posiadaczy własnych serwerów, na których można zainstalować dodatkowe oprogramowanie. Niestety, nie nadaje się na hosting współdzielony. Certyfikaty wydawane są na trzy miesiące z możliwością automatycznego odnowienia. Let's Encrypt nie zamierza starać się o akredytację na wydawanie certyfikatów EV i OV, a także nie wydaje certyfikatów na domeny typu wildcard SSL For Free https://www.sslforfree.com/ Serwis wystawia certyfikaty oparte na Let’s Encrypt. Podstawową różnicę stanowi fakt, że nie wymaga żadnego dodatkowego oprogramowania i certyfikaty instaluje się jak wszystkie inne. Wydawane są także na trzy miesiące, a po założeniu konta istnieje możliwość ustawienia automatycznego ich odnawiania. StartCom https://www.startssl.com/ Wydaje wszystkie typy certyfikatów. W odróżnieniu od innych firm wydawanie certyfikatów jest darmowe, a opłatę pobiera się tylko i wyłącznie za weryfikację danych. Dla podstawowego certyfikatu weryfikacja jest darmowa. Niestety, główny certyfikat firmy został odrzucony przez Mozillę i Google z dwóch powodów: wystawiania antydatowanych SHA-1 SSL certyfikatów; zatajenia informacji, że firma została kupiona przez chiński WoSign. Nawiasem mówiąc, WoSign także oferował darmowe certyfikaty, ale jego główny certyfikat został także„unieważniony”. Jest szansa, że obie firmy przejdą ponowną akredytacje. Cloudflare https://www.cloudflare.com/ Dla swoich wszystkich użytkowników oferuje podstawowy, darmowy certyfikat SSL. Jeszcze innym wyjściem są certyfikaty oferowane przez hosting. Przeważnie otrzymuje się darmowy certyfikat tylko na jedną domenę, ale są także hostingi oferujące „nielimitowane” ilości, oparte głównie na Let’s Encrypt. Amazon wprowadził darmowe certyfikaty dla swoich klientów: https://aws.amazon.com/certificate-manager/ Dla osób z wolnym czasem, ale bez budżetu, interesujące mogą być certyfikaty próbne, ważne zwykle tylko 90 dni. Kilka firm oferuje darmowe certyfikaty dla projektów open source czy start-upów, m.in. Symantec: https://www.freessl.com/, https://www.globalsign.com/en/ssl/ssl-open-source/ GoDaddy: https://ca.godaddy.com/ssl/ssl-open-source.aspx Aktualności, Google, SEO Zobacz cały artykuł
  41. 6 polubień
    Tak to wygląda jak kobiety zaczynają "robić internety". Zamiast szykować się na sylwestra farmazony wymyślają a później sami ze sobą gadają.
  42. 6 polubień
    Xann mówisz chyba za siebie
  43. 6 polubień
    Od teraz można pobierać parametry Majestica w programie dzięki OpenApps! Dzięki temu wystarczy najniższa subskrypcja (Silver), a nie Platinum jak to jest w przypadku "zwykłego" API Majestica. Parametry te przydadzą się przede wszystkim w trybie oceny trudności słowa kluczowego (wkrótce chcemy zrobić wariant "bulk" dla listy słów kluczowych) i do przesiewu wygasłych domen.
  44. 6 polubień
  45. 6 polubień
    Samochodami rozjeżdżać Bieszczady ??? Barbarzyństwo .... Jak już to na koniach i to nie mechanicznych ...
  46. 6 polubień
    Mówiąc szczerze - nie sądzę by tak mogło być. Dane zbierane przez Google są rozproszone na tysiącach maszyn w różnych data center, wielokrotnie redukowane, agregowane i przetwarzane do postaci na której może oprzeć się właściwy algorytm. Trudno brać pod uwagę możliwość, by każde odwiedzenie podstrony przez robota uruchamiało natychmiast reakcję łańcuchową i aktualizację wszystkich danych, na które zmiana zawartości strony ma wpływ. To byłby totalny overkill - są miliony domen, w których boty odwiedzają podstrony co kilka sekund lub częściej. Warto zauważyć, że różnica między aktualizacją tych danych raz na dobę (a nie sądzę, że tak jest) i raz na minutę jest w zasadzie żadna jeśli chodzi o jakość algorytmu, a może oznaczać o kilka rzędów wielkości inne wymagania co do architektury obliczeniowej. Co za tym idzie, nie opłaca się/nie da się walczyć o faktyczny real-time. Real Time w tym wypadku raczej oznacza jedynie, że proces działa "płynnie", a nie gdy pan operator pingwina oprze się o czerwony guzik. Faktyczna szybkość reakcji pewnie będzie bardzo różna i dość rozmyta.
  47. 6 polubień
    Doświadczenie ze zmianami w wyszukiwarce nauczyło mnie jednego w czasie trwania alkalizacji algo, perturbacji w serpach należy nie robić nic, bo całkiem prawdopodobnie tylko czekają jak branża SEO będzie reagować na to co robią oni, wtedy zrobią krok nr 2 . Taktyka znana jeszcze z czasów imperium Rzymskiego.
  48. 6 polubień
  49. 6 polubień
    Z pewnością gość napierdziela 7,2 sekundy na 1 profil xD, jesli @Arkaszka, masz kogoś kto tak dodaje to dawaj namiary bo jest lepszy niż zenek No a captche pewnie przepisuje w 2sek...xD
  50. 6 polubień
    Wersja Xmeolinks 4.0.4 Znak XXXXXX- szczegóły na zamkniętym forum Zwiększono skuteczność na XXXXXX CMS, dodano nowe algorytmy. Dodano obsługę tekstowych captcha do XXXXXX. Zwiększono skuteczność i stabilność sesji w XXXXX. Dodano obsługę makrosów i indywidualnych form w XXXXXX i cms XXXXXX. Dodano obsługę nowych typów tekstowych captcha w XXXXXX. Xneolinks automatycznie może rozwiązywać Slider Captcha bez zewnętrznych serwisów OCR: Dodano obsługę nucaptcha Poprawiono dość kardynalnie pracę z CMS XXXXXX, dodano obsługę nowych typów moduli captcha, dodano obsługę captcha i tekstowych captcha w formach aktywacji a nie tylko rejestracji. Dodano nowe algorytmy. W pytaniach i odpowiedziach dodano możliwość dodawania konkretnej captcha pod konkretny url, na przykład wprowadź adres strony www: Przepisano logikę tworzenia bazy danych w xneopars, teraz można pracować na jeszcze większych listach. Poprawiono logikę pracy z wyjątkami. Teraz można dodawać wyjątki i do trybu detekcji cms i do marosów. Jeśli logika cms wyłączona teraz wyjątki nie będą działać do tych CMS. Zwiększono skuteczność na na CMS XXXXXX. Teraz z haseł usuwane znaki specjalne. Poprawiono skuteczność tworzenia tematów w tym CMSie. Dopisano nowe tryby sytemu wyjątków dla makrosów. Dodano obsługę serwisu textcaptchasolver który rozwiązuje tekstowe captcha. Teraz rozdzielono skomplikowane captcha na tekstowe captcha i na graficzne captcha. Dodano wyłączenie dźwięków w przeglądarce. Optymalizowano kod przeglądarki na ile to jest na tym etapie możliwe. Dodano automatyczne zmniejszenie recaptcha do rozmiarów wymaganych przez OCR. Powrócono do opcji z oknami systemowymi na pierwszym planie. Wleczoną wyskakujące podpowiedzi ze stron www. Dodano walidacje captcha wysyłanych na OCR, teraz nie będą wysyłane puste obrazki lub obrazki rozmiarem 1 pcx. Zwiększono na Wasze prośby limity liter w hasłach i loginach poczty. Poprawiono pracę z pocztą z kodowaniami listów z odnajdywaniem linków. Poprawiono wizualizację w dodatku manager poczty. Przy staracie xneolinks teraz sprawdza poprawność nazwy katalogu w którym zainstalowany. W nazwie mogą być tylko łacińskie litery. Poprawki w manager linków. Dodano możliwość wyboru miejsca dla awatarów i raportów, wcześniej trzeba było wpisywać ręcznie ścieżki. Poprawiono funkcje "nie usuwać duplikaty przy starcie". Przepisano dodatek manager pytań i odpowiedzi w/d Waszych zaleceń. Poprawiono funkcję w dodatku "Manager kont". Dodano opcję restartować przeglądarkę po czasie. Ta funkcja ma skutecznie zmniejszyć obciążenie. Zmieniono generacje daty urodzenia i podglądzie profilu. Zwiększono bazę hobby automatycznie dodawanych w profil. Poprawiono algorytm automatycznego linkowania nieudanych stron. Dodano obsługę Capmonster w dodatku addURL w/d nowego kodu. Poprawiono błąd kiedy wyjątki można było usuwać tylko pojedynczo a nie hurtowo. Dopisano nowe zmienne w dodatku manader linków. Dodano możliwość usuwania linijek bez URL. Poprawiono funkcję w dodatku manager projektów kiedy soft mógł brac nowy projekt kiedy wcześniejszy miał nieaktualna datę. Dodano obsługę nowego CMS XXXXXX. Dodano obsługę nowego CMS XXXXXX. Dodano generacje kont pocztowych. Teraz wystarczy dodać jedno konto a soft będzie automatycznie tworzyć wariację: sitename@mail.com;password s.itename@mail.com;password s.i.tename@mail.com;password s.i.t.ename@mail.com;password s.i.t.e.name@mail.com;password s.i.t.e.n.ame@mail.com;password s.i.t.e.n.a.me@mail.com;password s.i.t.e.n.a.m.e@mail.com;password si.tename@mail.com;password si.t.ename@mail.com;password si.t.e.name@mail.com;password si.t.e.n.ame@mail.com;password si.t.e.n.a.me@mail.com;password si.t.e.n.a.m.e@mail.com;password sit.ename@mail.com;password sit.e.name@mail.com;password sit.e.n.ame@mail.com;password sit.e.n.a.me@mail.com;password sit.e.n.a.m.e@mail.com;passwordMożesz utworzyć swoją listę unikalnych kont pocztowych w parę sekund Napisaliśmy nowy system tworzenia unikalnych "naturalnych" loginów. Teraz macie jeszcze jedno narzędzie do unikalizacji Teraz można robić wyjątki dla stron rejestracji i autoryzacji dla wszystkich CMS. Często bywa, że CMS standardowy a strona rejestracji już nie. Teraz to można zrobić w wyjątkach. Nowy system zatrzymania ładowania strony Opracowaliśmy nowy algorytm czekania na załadowania strony. Co zwiększa skuteczność i szybkość softu. Dla wykorzystania tego trybu należy mieć dobre łączę internetowe. Makrosy Dodano nowy makros %match% dla pracy z tekstowymi i matematycznymi captcha. Teraz xneolinks w makrosach może robić matematyczne wyliczania. Praca logowania w makrosach podzielono na tekstowy log i graficzny. Poprawiono wykluczenia w makrosach. Xenopars (harwester) Poprawiono logikę aby zwiększyć stabilność. Dodano nowe wizualizacje w interface. Zmieniono zasady generowania bazy danych. Teraz harwester może pracować z jeszcze większą ilością danych od razu.