Jump to content

Leaderboard


Popular Content

Showing content with the highest reputation on 09/30/2019 in all areas

  1. 1 point
    Dzień dobry, Zapraszamy do wzięcia udziału w licytacji tematycznego zaplecza na przechwyconej domenie. Całość zostanie przekazana na rzecz zbiórki: https://www.siepomaga.pl/wiktoria-pesiek?fbclid=IwAR0W6EPZ0QJPrNPasijr9ibvS6skoE0lK9xZDRu_4UJV-F7wF8HIyNYYlbQ Licytacja rozpoczyna się od kwoty: 100 PLN Więcej informacji zapleczu: Mamy nadzieję, że licytacja będzie mieć pozytywny odbiór i dużo osób weźmie aktywny udział W takim wypadku seria Seo Serwus będzie kontynuowana Czas licytacji - do 08.10.2019 r., do północy. Istnieje możliwość zmiany zbiórki, jeśli zwycięzca licytacji tak zdecyduje albo w/w zbiórka się zakończy.
  2. 1 point
    Dzień dobry, dzisiaj w nocy nastąpią drobne zmiany w działaniu platformy związane z pokazywaniem kwoty zarobionej przy zleceniach. Zgodnie ze zmianą ustawy o podatku dochodowym od osób fizycznych zmienia się stawka podatku z 18% do 17%. To dobra wiadomość dla wykonawców, którzy nie prowadzą działalności gospodarczej (ten wpis ich dotyczy). Żeby z tej zmiany mogli skorzystać wszyscy autorzy, musieliśmy zmienić w systemie moment ustalania podatku i kwoty netto na umowach o dzieło, tak aby liczyć te wartości na dzień wypłaty, a nie na dzień zatwierdzania tekstów. Oznacza to, że osoba która w dniu 30.09.2019 weszła do systemu i miała do wypłaty np. 856 zł "na rękę" (i nie dokonała wypłaty), to już w dniu 01.10.2019 ma 864 zł "na rękę". Technicznie (trochę skomplikowane): Od dzisiaj oprogramowanie opiera obliczenia na wartości brutto na umowie o dzieło (która to jest zarazem wartością netto dla twórców wystawiających faktury i samodzielnie płacących podatek). Wartość netto do wypłaty ("na rękę") jest obliczana od sumy wartości brutto wynagrodzeń za wszystkie nierozliczone teksty. To może powodować rozbieżności, gdy porównamy ostateczną wartość "na rękę" do sumy wartości "na rękę" liczonych dla każdego zlecenia osobno. Rozbieżności te nie są duże i wynikają ze sposobu liczenia podstawy opodatkowania oraz podatku (te wartości zgodnie z ustawą są zaokrąglane do pełnych złotych). Paweł Strykowski CEO WhitePress
  3. 1 point
    @s_matysik poniżej zrzut dla starego zaplecza, o którym w sumie zapomniałem, że je mam branża około medyczna, strona ma z 5 lat, nielinkowana ze 3 lata, innych zmian na stronie też brak, wcześniej linkowana xneo głównie z darmowych baz. W ciągu ostatnich kilku dni przegoniła kilka sporych serwisów medycznych na swoje frazy.
  4. 1 point
    Krzycha ja znam, na pewno to nie Ty Dodatkowo ten człowiek pisze tego samego stałego adresu IP i z starego konta i z tego co teraz. Są jeszcze inne sposoby zweryfikować czy stare i obecne konto powiązane.
  5. 1 point
    MaxPan, zapomniałem adresu e-mail i hasła do konta Beerbant
  6. 1 point
    1. To, co jest po kotwicy (#) nie jest indeksowalne dla robota tak długo, jak po kotwicy (#) nie występuje wykrzyknik (!) Czyli taka składnia: /strona-główna/kategoria/nazwa-produktu#121-rozmiar-040_x_10_mm nie jest indeksowalna i problem w kontekście SEO nie istnieje ale taka: strona-główna/kategoria/nazwa-produktu#!121-rozmiar-040_x_10_mm już może być indeksowana i (jeśli źle użyta), będzie generowała duplikację. Oczywiście ekspozycja kotwic (#) w URL'ach dla kombinacji produktowych w sklepie to wątpliwa praktyka UX'owa (bo umówmy się, taki URL wygląda, jak krzak), ale tylko tyle. Nie masz się czym martwić, nic nie musisz blokować i wycinać. Słabo wygląda, ale to tyle. Kotwice (#) powstały pierwotnie, jako mechanika do scrollowania stron (np. co typowe - na landing page'ach) do 1. dzielenia się fragmentami treści i/lub 2. scrollowania obrazu w browserze. 2. Jeszcze podpowiem, że gdybyś kiedyś chciał stosować canonicala do eliminowania duplikacji wewnętrznej, to pamiętaj tylko, że jest to dyrektywa warunkowa i czasami różne śmieci i tak latają po SERP'ie. Nie mówię,, żeby z canonicala nie korzystać, ale mieć do niego ograniczone zaufanie. A jeszcze a propos pomysłów @Przemoo to wyprostuję, że: Blokada w robota.txt jest zalecana. Nie ma sensu żeby robot miał dostęp do bezwartosciowych dla niego stron. Robots.txt nie rozwiązuje problemów z duplikacją wewnętrzną. Robots.txt ukrywa wybrane zasoby (które określisz w pliku) w wyniku organicznym, ale nadal je crawluje, a co za tym idzie - uwzględnia w budowie autorytetu domeny. Oznacza to, że jak będziesz miał duplikację wewnętrzną, to może nie zobaczysz jej w SERP'ie, ale i tak będzie obciążała Ci domenę. Z niewiadomego powodu robots.txt jest błędnie wykorzystywany jako substytut noindex'u w meta tagu, a tylko ten drugi doprawdy chroni przez duplikacją. Możesz sobie uzupełniająco poczytać mój art.: Czy robots.txt rozwiązuje problem duplikacji wewnętrznej? tutaj https://paq-studio.com/blog/czy-robots-txt-rozwiazuje-problem-duplikacji-wewnetrznej/
This leaderboard is set to Warsaw/GMT+02:00
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue. Terms of Use Privacy Policy