Jeśli masz mniejszą skalę gotowce typu UptimeRobot wystarczą. Przy większej warto pójść we własny monitoring, bo gotowe narzędzia szybko przestają ogarniać temat albo robi się to zbyt drogie.
Najlepiej działa:
własny skrypt (cron + sprawdzanie statusów HTTP),
analiza zmian (np. 200 → 403 / 5xx),
sensowne alerty mailowe (tylko przy faktycznym problemie, bez spamu).
U nas finalnie skończyło się na własnym systemie (SEO Health Check VIPKAT), który m.in.:
sprawdza statusy (200, 301, 403, 5xx),
wykrywa zmiany,
monitoruje też SSL i redirecty,
dodatkowo wychwytuje rzeczy typu toksyczne linki / podejrzane zmiany w treści,
i wysyła powiadomienia tylko wtedy, gdy faktycznie coś się dzieje.
Przy większej skali inaczej sensownie się tego nie da ogarnąć. Swoją drogą u nas taki monitoring działa też na poziomie całych katalogów, więc na bieżąco wyłapujemy problemy (5xx, 403, padnięte strony, podejrzane zmiany) i czyścimy bazę z wpisów, które przestają być wartościowe.
Przy okazji każdy wpis dodany do katalogu ma taki monitoring w tle, więc użytkownik dostaje dodatkową kontrolę nad swoją stroną (info o błędach, zmianach itp.), bez konieczności stawiania własnego systemu.
Jak masz mało stron gotowce wystarczą. Jeśli więcej własny monitoring to moim zdaniem jedyna sensowna opcja.