25 cze 2025·7 min czytania

SLO dla narzędzi wewnętrznych: proste cele niezawodności, które działają

SLO dla narzędzi wewnętrznych w prosty sposób: ustaw mierzalne cele dostępności i latencji, a potem powiąż je z alertami, które mały zespół potrafi utrzymać bez wypalenia.

SLO dla narzędzi wewnętrznych: proste cele niezawodności, które działają

Dlaczego narzędzia wewnętrzne potrzebują SLO (nawet jeśli używa ich tylko 20 osób)

Narzędzia wewnętrzne wydają się małe, bo publiczność jest niewielka. Skutki często nie są: jeśli dashboard operacyjny pada, zamówienia zatrzymują się; jeśli konsola wsparcia jest wolna, klienci czekają; jeśli panel admina się psuje, poprawki gromadzą się w kolejce.

Bez jasnych celów niezawodności każda awaria zamienia się w debatę. Jedna osoba wzrusza ramionami przy 10-minutowej usterce, inna traktuje to jak kryzys. Tracisz czas na hałaśliwe czaty, niejasne priorytety i niespodziewaną pracę w najgorszym momencie.

SLO to naprawiają: ustalają proste oczekiwania, które możesz zmierzyć. Odpowiadają na dwa praktyczne pytania: co musi działać i jak dobrze musi działać, by ludzie mogli wykonywać swoją pracę.

Ukryty koszt „będziemy to trzymać w miarę stabilne” pojawia się szybko. Praca zatrzymuje się, gdy zespoły czekają na przywrócenie narzędzia. Wysyłane są kolejne zapytania do wsparcia, bo nikt nie wie, co jest normalne. Inżynierowie są wciągani w pilne naprawy zamiast realizować zaplanowane ulepszenia. Właściciele produktu przestają ufać systemowi i zaczynają prosić o ręczne kopie zapasowe. Małe problemy utrzymują się, bo nigdy nie przekraczają wyraźnej linii.

Nie potrzebujesz pełnego programu niezawodności. Mały zespół może zacząć od kilku celów skupionych na użytkowniku, jak „logowanie działa” lub „wyniki wyszukiwania ładują się szybko”, oraz małego zestawu alertów związanych z rzeczywistymi działaniami.

To działa bez względu na to, jak narzędzie jest zbudowane. Jeśli używasz AppMaster (appmaster.io) do tworzenia aplikacji wewnętrznych, wybierz akcje, na których polegają ludzie, mierz dostępność i czas odpowiedzi, i alarmuj tylko wtedy, gdy wpływa to na pracę.

SLO, SLI i SLA prostymi słowami

Te trzy terminy brzmią podobnie, ale to różne rodzaje języka niezawodności. Mieszanie ich jest częstym źródłem nieporozumień.

SLI (Service Level Indicator) to pomiar. To coś, co możesz policzyć, jak „procent żądań, które się powiodły” lub „jak długo strona się ładowała”. Jeśli nie możesz tego wiarygodnie zmierzyć, to nie jest dobry SLI.

SLO (Service Level Objective) to cel dla tego pomiaru. Odpowiada na pytanie: jaki poziom jest wystarczający dla użytkowników przez większość czasu? SLO pomagają zdecydować, co naprawić najpierw, a co może poczekać.

SLA (Service Level Agreement) to obietnica, zwykle zapisana, często ze skutkami. Wiele narzędzi wewnętrznych nie potrzebuje SLA. Potrzebują jasnych celów, a nie zobowiązań w stylu prawnym.

Krótki przykład:

  • SLI (dostępność): procent minut, w których narzędzie jest osiągalne.
  • SLO (cel dostępności): 99,9% dostępności w miesiącu.
  • SLI (latencja): p95 czasu ładowania strony dashboardu.
  • SLO (cel latencji): p95 poniżej 2 sekund w godzinach pracy.

Zauważ, czego tu brakuje: „nigdy nie ma przerw” albo „zawsze szybko”. SLO nie chodzi o perfekcję. Pokazują kompromisy, aby mały zespół mógł wybrać między nowymi funkcjami, pracą nad niezawodnością i unikaniem niepotrzebnego wysiłku.

Praktyczna zasada: jeśli osiągnięcie celu wymaga heroicznych działań, to nie jest SLO, to życzeniowe myślenie. Zacznij od czegoś, co zespół może utrzymać spokojnie, potem zaostrzaj, jeśli użytkownicy dalej odczuwają ból.

Wybierz kilka działań użytkownika, które naprawdę się liczą

Narzędzia wewnętrzne zawodzą w konkretny sposób: panel admina się ładuje, ale zapisywanie rekordu kręci się w nieskończoność; dashboard otwiera się, ale wykresy nigdy się nie odświeżają; portal pracowniczy działa, ale logowanie psuje się po aktualizacji. Najwięcej wartości daje skupienie się na akcjach, na których ludzie polegają codziennie, nie na każdej stronie i przycisku.

Zacznij od nazwania typu narzędzia, bo to podpowiada krytyczne ścieżki. Panele admina to „bezpieczne wprowadzanie zmian”. Dashboardy operacyjne to „widzieć, co się dzieje teraz”. Portale to „wejdź, znajdź informację i złóż zgłoszenie”.

Potem zapisz najważniejsze ścieżki użytkownika prostym językiem. Dobry początkowy zestaw:

  • Logowanie i dotarcie do ekranu głównego
  • Wyszukiwanie lub filtrowanie i otrzymanie wyników
  • Złożenie formularza (utworzenie/aktualizacja) i zobaczenie komunikatu o sukcesie
  • Załadowanie głównego widoku dashboardu ze świeżymi danymi
  • Eksport lub pobranie raportu używanego w codziennej pracy

Dla każdej ścieżki zdefiniuj, co liczy się jako awaria. Bądź surowy i mierzalny: błąd 500 to awaria, ale także timeout, strona, która nigdy się nie kończy, albo formularz zwracający sukces, gdy dane są brakujące.

Trzymaj zakres mały na początek. Wybierz 1–3 ścieżki, które odpowiadają rzeczywistemu bólowi i prawdziwemu ryzyku. Jeśli na on-call ludzie zwykle widzą „nikt nie może się zalogować” i „przycisk zapisz zawiesza się”, zacznij od Logowania i Złożenia formularza. Dodaj Wyszukiwanie później, gdy zaufasz pomiarom i alertom.

Wybierz SLI, które naprawdę potrafisz zmierzyć

Dobre SLI są nudne. Pochodzą z danych, które już masz, i odpowiadają temu, co użytkownicy odczuwają, gdy narzędzie działa lub zawodzi. Jeśli potrzebujesz zupełnie nowego systemu monitoringu, by je zmierzyć, wybierz prostsze SLI.

Zacznij od dostępności w języku, który rozumieją ludzie: czy mogę otworzyć narzędzie i dokończyć zadanie? Dla wielu narzędzi wewnętrznych dwa SLI pokrywają większość bólu:

  • Dostępność narzędzia (czy jest osiągalne i odpowiada)
  • Współczynnik sukcesu dla 1–3 kluczowych akcji (logowanie, wyszukiwanie, zapis, zatwierdzenie)

Potem dodaj latencję, ale utrzymuj to w wąskim zakresie. Wybierz jeden lub dwa ekrany albo endpointy, które reprezentują oczekiwanie, o którym narzekają użytkownicy, jak ładowanie dashboardu lub przesłanie formularza. Mierzenie wszystkiego zwykle tworzy hałas i spory.

Ustal okno pomiarowe z góry. Rolujący okres 30 dni jest powszechny dla stabilnych narzędzi; okres tygodniowy może działać, gdy często wydajesz i chcesz szybkiej informacji zwrotnej. Cokolwiek wybierzesz, trzymaj się tego, aby trendy miały sens.

Na koniec wybierz jedno źródło prawdy na SLI i zapisz je:

  • Kontrole syntetyczne (bot uderza w health check lub wykonuje prosty przepływ)
  • Metryki serwera (liczba żądań, błędy, latencja z backendu)
  • Logi (licz „sukces” vs „błąd” dla konkretnej akcji)

Przykład: jeśli Twoja wewnętrzna aplikacja jest zbudowana na AppMaster, możesz mierzyć dostępność syntetycznym pingiem do backendu, współczynnik sukcesu z odpowiedzi API i latencję z czasu żądań backendu. Klucz to spójność, nie perfekcja.

Ustal realistyczne SLO dla dostępności i latencji

Wdróż bez dramatów
Wdróż na AppMaster Cloud lub do własnej chmury i utrzymuj wdrożenia spokojne i powtarzalne.
Wdróż aplikację

Zacznij od wyboru liczby dostępności, którą potrafisz obronić w złym tygodniu. Dla wielu narzędzi wewnętrznych 99,5% to dobry pierwszy SLO. Brzmi wysoko, ale zostawia miejsce na normalne prace zmianowe. Skok od razu do 99,9% często oznacza dyżury poza godzinami pracy i wolniejsze wydania.

Aby uczynić dostępność namacalną, przelicz ją na czas. 30-dniowy miesiąc to około 43 200 minut:

  • 99,5% dostępności pozwala na około 216 minut przestoju miesięcznie
  • 99,9% dostępności pozwala na około 43 minuty przestoju miesięcznie

Ten dozwolony czas przestoju to Twój budżet błędów. Jeśli go szybko spalisz, wstrzymujesz ryzykowne zmiany i skupiasz się na niezawodności, aż wrócisz na właściwe tory.

Dla latencji unikaj średnich. One ukrywają powolne momenty, które zapamiętują użytkownicy. Używaj percentyla (zwykle p95) i ustaw jasny próg powiązany z realną akcją. Przykłady: „p95 ładowania dashboardu < 2 s” lub „p95 Zapis < 800 ms”.

Prosty sposób na ustalenie pierwszej liczby: obserwuj tydzień rzeczywistego ruchu, a potem wybierz cel trochę lepszy niż dzisiaj, ale nie fantastyczny. Jeśli p95 jest już 1,9 s, SLO 2,0 s jest bezpieczne i użyteczne. SLO 500 ms stworzy tylko hałas.

Dopasuj SLO do możliwości wsparcia. Mały zespół powinien woleć kilka osiągalnych celów zamiast wielu restrykcyjnych. Jeśli nikt nie może odpowiedzieć w ciągu godziny, nie ustawaj celów zakładających taką reakcję.

Uczyń kompromisy widocznymi: koszt, ryzyko i budżet błędów

Twórz lepsze narzędzia wewnętrzne
Zbuduj konsolę wsparcia lub wewnętrzne CRM z API i logiką biznesową w jednym miejscu.
Wypróbuj AppMaster

Bardziej rygorystyczne SLO brzmią pocieszająco, ale mają swoją cenę. Jeśli przesuniesz narzędzie z 99,5% na 99,9% dostępności, mówisz też „akceptujemy znacznie mniej złych minut”, co zwykle oznacza więcej alarmów i więcej pracy nad niezawodnością zamiast nowych funkcji.

Najprostszy sposób, by to zobaczyć, to rozmawiać o budżecie błędów. Przy celu 99,5% miesięcznie możesz „wydać” około 3,6 godziny przestoju w 30-dniowym miesiącu. Przy 99,9% masz tylko około 43 minut. Ta różnica zmienia, jak często przerywasz prace nad funkcjami, żeby naprawiać niezawodność.

Warto też dopasować oczekiwania do godzin, w których narzędzie jest rzeczywiście używane. Cel 24/7 jest drogi, jeśli narzędzie jest krytyczne tylko od 9:00 do 18:00. Możesz ustawić jedno SLO na godziny pracy (ostrzejsze) i luźniejsze poza nimi (mniej stron alarmowych), żeby zespół mógł spać.

Planowane prace konserwacyjne nie powinny być liczone jako awarie, o ile są skomunikowane i ograniczone. Traktuj je jako jawne wyjątki (okno konserwacji), zamiast ignorować alerty po fakcie.

Zapisz podstawy, żeby każdy widział kompromisy:

  • Liczba SLO i co użytkownicy tracą, gdy jest on niedotrzymany
  • Budżet błędów na miesiąc (w minutach lub godzinach)
  • Zasady pagingowe (kto, kiedy i za co)
  • Oczekiwania w godzinach pracy vs 24/7, jeśli różne
  • Co liczy się jako planowana konserwacja

Po 4–6 tygodniach rzeczywistych danych przejrzyj cel. Jeśli nigdy nie zużywasz budżetu błędów, SLO może być za luźne. Jeśli szybko go spalacie i funkcje stoją, prawdopodobnie jest zbyt ścisłe.

Mapuj SLO na alerty, które zespół potrafi utrzymać

Alerty to nie są SLO. Alerty to sygnał „coś się dzieje teraz”, który chroni SLO. Prosta zasada: dla każdego SLO stwórz jeden alert, który ma znaczenie, i opieraj się dodawaniu kolejnych, chyba że możesz wykazać, że zmniejszą przestoje.

Praktyczne podejście to alarm przy szybkim spalaniu budżetu błędów (jak szybko zużywasz budżet) albo przy jednym wyraźnym progu, który odpowiada odczuciu użytkownika. Jeśli Twoje SLO latencji to „p95 < 800 ms”, nie wysyłaj wezwania przy każdym wolnym skoku. Wzywaj tylko, gdy jest to trwałe.

Prosty podział, który ogranicza hałas:

  • Pilne wezwanie: narzędzie jest praktycznie zepsute i ktoś powinien działać teraz.
  • Niepilny ticket: coś się pogarsza, ale może poczekać do godzin pracy.

Konkretne progi (dostosuj do ruchu): jeśli SLO dostępności to 99,5% miesięcznie, wzywaj gdy dostępność spadnie poniżej 99% przez 10 minut (wyraźna awaria). Twórz ticket, gdy spadnie poniżej 99,4% przez 6 godzin (wolne spalanie). Dla latencji: wzywaj, gdy p95 > 1,5 s przez 15 minut; ticket, gdy p95 > 1,0 s przez 2 godziny.

Uczyń właścicielstwo jasnym. Zdecyduj, kto jest na dyżurze (nawet jeśli to „jedna osoba w tym tygodniu”), co oznacza potwierdzenie (np. w ciągu 10 minut) i jaki jest pierwszy krok. Dla małego zespołu obsługującego aplikację zbudowaną na AppMaster, pierwsza akcja może być: sprawdź ostatnie wdrożenia, przejrzyj błędy API, a potem cofnij lub ponownie wdroż, jeśli trzeba.

Po każdym rzeczywistym alarmie wykonaj mały follow-up: napraw przyczynę lub dostrój alert, żeby rzadziej wzywał, ale dalej łapał realny wpływ na użytkownika.

Typowe błędy, które tworzą zmęczenie alertami

Jedna platforma dla wszystkich interfejsów
Twórz spójne interfejsy web i mobilne, które pozostają zgrane wraz z ewolucją backendu.
Zbuduj UI

Zmęczenie alertami zwykle zaczyna się od dobrych intencji. Mały zespół dodaje „jeszcze kilka” alertów, potem jeszcze jeden każdego tygodnia. Wkrótce ludzie przestają ufać powiadomieniom, a prawdziwe awarie są pomijane.

Jedną z pułapek jest alarmowanie przy każdym skoku. Narzędzia wewnętrzne często mają skokowy ruch (operacje płac, raporty na koniec miesiąca). Jeśli alert włącza się przy 2-minutowym skoku, zespół nauczy się go ignorować. Powiąż alerty z sygnałami wpływu na użytkownika, nie z surowym szumem metryk.

Inna pułapka to myślenie „więcej metryk = bezpieczniej”. Częściej oznacza to więcej stron alarmowych. Trzymaj się małego zestawu sygnałów, które użytkownicy faktycznie odczuwają: logowanie się nie powiodło, strona ładuje się za wolno, kluczowe zadania nie kończą się.

Błędy, które generują najwięcej szumu:

  • Paging na symptomach (CPU, pamięć) zamiast na wpływie na użytkownika (błędy, latencja)
  • Brak właściciela alertu, więc nigdy nie jest dostrojony lub usunięty
  • Brak runbooka, więc każdy alert staje się grą w zgadywanie
  • Poleganie na dashboardach zamiast alertów (dashboardy służą do diagnozy, alerty do działania)
  • Wymyślanie progów, bo system jest słabo zinstrumentowany

Dashboardy wciąż są ważne, ale powinny pomagać diagnozować po alarmie, a nie zastępować go.

Jeśli nie masz jeszcze czystych pomiarów, nie udawaj, że są. Najpierw dodaj podstawową instrumentację (współczynnik sukcesu, p95 latencji i kontrolę „czy użytkownik może wykonać zadanie”), potem ustaw progi na podstawie tygodnia lub dwóch rzeczywistych danych.

Szybkie sprawdzenia przed włączeniem alertów

Zanim włączysz alerty, zrób krótki pre-flight. Większość zmęczenia alertami pochodzi ze skoku przez pominięcie jednej z tych podstaw, a potem próby naprawy pod presją.

Praktyczna lista kontrolna dla małego zespołu:

  • Potwierdź 1–3 kluczowe akcje użytkownika (np.: otwórz dashboard, zapisz aktualizację zgłoszenia, eksport raportu).
  • Ogranicz się do 2–4 SLI, które możesz zmierzyć dziś (dostępność/współczynnik sukcesu, p95 latencji, wskaźnik błędów dla krytycznego endpointu).
  • Ogranicz liczbę alertów do 2–4 w sumie dla narzędzia.
  • Uzgodnij okno pomiarowe, w tym co oznacza „źle” (ostatnie 5 minut dla szybkiego wykrywania lub ostatnie 30–60 minut, by ograniczyć szum).
  • Przypisz właściciela (jedna osoba, nie „zespół”).

Następnie upewnij się, że alert da się rzeczywiście obsłużyć. Alert, który włącza się, gdy nikt nie jest dostępny, uczy ludzi ignorować go.

Ustal te operacyjne szczegóły przed pierwszym wezwaniem:

  • Godziny pagingowe: tylko godziny pracy, czy 24/7
  • Ścieżka eskalacji: kto następny, jeśli pierwsza osoba nie odpowie
  • Co zrobić najpierw: jeden lub dwa kroki, by potwierdzić wpływ i cofnąć lub złagodzić
  • Prosta miesięczna rutyna: 15 minut na przejrzenie alarmów, pominiętych incydentów i czy SLO nadal pasuje do użycia narzędzia

Jeśli budujesz lub zmieniasz narzędzie (w tym w AppMaster), powtórz checklistę. Regenerowany kod i nowe przepływy mogą zmienić latencję i wzorce błędów, a Twoje alerty powinny nadążać.

Przykład: mały dashboard operacyjny z dwoma SLO i trzema alertami

Zacznij mało, poprawiaj co tydzień
Szkicuj narzędzie najpierw, a potem zaostrzaj SLO, gdy zbierzesz rzeczywiste dane użycia.
Rozpocznij prototyp

Zespół operacyjny 18 osób używa wewnętrznego dashboardu cały dzień, by sprawdzać status zamówień, ponownie wysyłać nieudane powiadomienia i zatwierdzać zwroty. Jeśli jest niedostępny lub wolny, praca zatrzymuje się szybko.

Wybierają dwa SLO:

  • SLO dostępności: 99,9% udanych ładowań stron przez 30 dni (około 43 minuty „złego czasu” miesięcznie)
  • SLO latencji: p95 czasu ładowania strony poniżej 1,5 sekundy w godzinach pracy

Teraz dodają trzy alerty, które mały zespół potrafi obsłużyć:

  • Alert całkowitej awarii (strony się nie ładują): wyzwala się, jeśli współczynnik sukcesu spadnie poniżej 98% przez 5 minut. Pierwsza akcja: sprawdź ostatnie wdrożenie, zrestartuj aplikację webową, potwierdź zdrowie bazy danych.
  • Alert powolnego dashboardu: wyzwala się, jeśli p95 latencji jest powyżej 2,5 s przez 10 minut. Pierwsza akcja: poszukaj pojedynczego wolnego zapytania lub zablokowanej pracy w tle, tymczasowo wstrzymaj ciężkie raporty.
  • Alert spalania budżetu błędów: wyzwala się, jeśli są na kursie zużycia 50% miesięcznego budżetu błędów w ciągu najbliższych 7 dni. Pierwsza akcja: wstrzymaj zmiany niekrytyczne, aż sytuacja się ustabilizuje.

Najważniejsze jest to, co dzieje się w następnym tygodniu. Jeśli alert spalania budżetu zapalił się dwukrotnie, zespół podejmuje jasną decyzję: opóźnić nową funkcję i spędzić dwa dni na naprawieniu największej przyczyny latencji (np. brak indeksu powodujący skan tabeli). Jeśli zbudowali narzędzie w AppMaster, mogą dostosować model danych, zregenerować i ponownie wdrożyć czysty kod zamiast nakładać tymczasowe poprawki.

Jak utrzymać SLO, nie zmieniając tego w projekt

Utrzymaj porządek wraz ze skalowaniem
Regeneruj produkcyjny kod źródłowy, aby unikać doraźnych poprawek i długu technologicznego z czasem.
Generuj kod

SLO pomagają tylko wtedy, gdy pozostają powiązane z rzeczywistą pracą. Sztuczka polega na traktowaniu ich jak małego nawyku, a nie nowego programu.

Użyj rytmu, który pasuje do małego zespołu i dołącz to do istniejącego spotkania. Krótkie cotygodniowe spojrzenie wychwytuje dryf, a miesięczna korekta wystarcza, gdy masz rzeczywiste dane.

Lekki proces, który działa:

  • Cotygodniowo (10 minut): sprawdź wykres SLO i ostatnie alarmy, potwierdź, że nic się cicho nie pogarsza.
  • Po każdym incydencie (15 minut): oznacz przyczynę i zanotuj, która akcja użytkownika była dotknięta (logowanie, wyszukiwanie, zapis, eksport).
  • Miesięcznie (30 minut): przejrzyj najczęściej powtarzający się wzorzec incydentów i wybierz jedną poprawkę na następny miesiąc.
  • Miesięcznie (10 minut): usuń lub dostrój jeden hałaśliwy alert.

Trzymaj ulepszenia małe i widoczne. Jeśli „wolne ładowanie stron w każdy poniedziałek rano” pojawia się trzy razy, wykonaj jedną konkretną zmianę (cache jednego raportu, dodaj indeks, zaplanuj ciężkie zadanie później), a potem obserwuj SLI w następnym tygodniu.

Używaj SLO, by uprzejmie i jasno odmawiać. Gdy pojawia się prośba o funkcję o niskiej wartości, odwołaj się do bieżącego budżetu błędów i zapytaj: „Czy ta zmiana zagrozi naszemu zapisowi lub przepływowi zatwierdzania?” Jeśli już spalacie budżet, niezawodność wygrywa. To nie blokowanie, to priorytetyzacja.

Utrzymuj dokumentację minimalistyczną: jedna strona na narzędzie. Zawrzyj kluczowe akcje użytkownika, liczby SLO, kilka alertów z nimi powiązanych i właściciela. Jeśli narzędzie jest zbudowane na AppMaster, dodaj, gdzie przeglądać logi/metryki i kto może wdrażać zmiany, a potem przestań.

Następne kroki: zacznij mało, potem poprawiaj jedno narzędzie na raz

Najłatwiejszy sposób, by uczynić niezawodność realną, to trzymać pierwszy setup maleńkim. Wybierz jedno narzędzie wewnętrzne, które powoduje prawdziwy ból przy awarii (przekazania dyżurów, zatwierdzanie zamówień, zwroty, edycje stanów magazynowych) i ustaw cele wokół kilku akcji, które ludzie wykonują codziennie.

Najmniejszy działający zestaw, który większość zespołów może skopiować:

  • Wybierz 1 narzędzie i 2 kluczowe akcje użytkownika (np.: otwórz dashboard i złóż zatwierdzenie).
  • Zdefiniuj 2 SLI, które możesz zmierzyć teraz: dostępność endpointu/strony oraz p95 latencję akcji.
  • Ustal 2 proste SLO (np.: 99,5% dostępności miesięcznie, p95 < 800 ms w godzinach pracy).
  • Stwórz 2–3 alerty łącznie: jeden dla całkowitej awarii, jeden dla trwałej latencji i jeden dla szybkiego spalania budżetu błędów.
  • Przeglądaj co tydzień przez 10 minut: czy alerty pomogły, czy tylko tworzą hałas?

Gdy to będzie stabilne, rozszerzaj powoli: dodaj jedną akcję więcej lub jedno narzędzie miesięcznie. Jeśli nie potrafisz wskazać, kto będzie właścicielem alertu, nie twórz go jeszcze.

Jeśli budujesz lub przebudowujesz narzędzia wewnętrzne, AppMaster może ułatwić utrzymanie. Możesz aktualizować modele danych i logikę biznesową wizualnie i regenerować czysty kod, gdy potrzeby się zmieniają — to pomaga utrzymać SLO zgodne z tym, co narzędzie faktycznie robi dzisiaj.

Spróbuj zbudować jedno narzędzie wewnętrzne i dodać podstawowe SLO od pierwszego dnia. Zyskasz jaśniejsze oczekiwania, mniej niespodzianek i alerty, z którymi mały zespół da sobie radę.

FAQ

Czy narzędzia wewnętrzne naprawdę potrzebują SLO, jeśli używa ich tylko mały zespół?

SLO przerywają spory o niezawodność, zamieniając „całkiem stabilne” w jasny, mierzalny cel. Nawet przy 20 użytkownikach awaria może wstrzymać zamówienia, spowolnić wsparcie lub zablokować zatwierdzenia — więc małe narzędzia też mogą mieć duży wpływ.

Co najpierw powinniśmy mierzyć dla panelu administracyjnego lub dashboardu operacyjnego?

Wybierz kilka akcji użytkownika, które wykonuje się codziennie i które blokują pracę, gdy zawiodą. Typowe startowe pomiary to: logowanie, załadowanie głównego dashboardu ze świeżymi danymi, wyszukiwanie/filtr, oraz poprawne przesłanie formularza create/update.

Jaka jest różnica między SLI, SLO i SLA?

SLI to metryka, którą mierzysz (np. współczynnik sukcesu lub p95 latencji). SLO to cel dla tej metryki (np. 99,5% sukcesów w ciągu 30 dni). SLA to formalna umowa ze skutkami, zwykle niepotrzebna dla większości narzędzi wewnętrznych.

Jaki realistyczny SLO dostępności dla małego zespołu?

Dobry pierwszy SLO dostępności dla wielu narzędzi wewnętrznych to 99,5% miesięcznie — osiągalne bez ciągłych heroicznych akcji. Jeśli narzędzie jest krytyczne tylko w godzinach pracy, można je później zaostrzyć po zebraniu danych.

Jak przetłumaczyć procenty dostępności na czas przestoju zrozumiały dla ludzi?

Przelicz procent dostępności na minuty, żeby każdy zrozumiał kompromis. W 30-dniowym miesiącu 99,5% pozwala na około 216 minut przestoju, a 99,9% na około 43 minuty — co zwykle oznacza więcej stron alarmowych i pracy nad niezawodnością.

Jak ustawić SLOy latencji bez tworzenia szumu?

Używaj percentyli, np. p95, a nie średnich, bo średnia ukrywa powolne momenty, które pamiętają użytkownicy. Ustal cel dla rzeczywistej akcji (np. „p95 ładowania dashboardu < 2s w godzinach pracy”) i wybierz próg, który zespół utrzyma spokojnie.

Jakie SLI są najłatwiejsze do zmierzenia bez dużego systemu monitoringu?

Zacznij od istniejących metryk serwera i logów: dostępność (czy usługa odpowiada), współczynnik sukcesu dla kluczowych akcji oraz p95 latencji dla jednego lub dwóch krytycznych endpointów lub ekranów. Dodaj syntetyczne testy tylko dla najważniejszych przepływów, aby pomiar był spójny i prosty.

Ile alertów powinniśmy ustawić dla jednego narzędzia wewnętrznego?

Domyślnie ogranicz się do małego zestawu alertów powiązanych z wpływem na użytkownika i stron alarmowych tylko dla utrzymujących problemy. Przydatny podział: jeden pilny page („narzędzie jest skutecznie niedostępne”) i jedna niepilna sprawa jako ticket („długotrwałe pogorszenie”).

Co powoduje zmęczenie alertami w narzędziach wewnętrznych i jak tego uniknąć?

Najczęstszą przyczyną zmęczenia alertami jest alarmowanie przy każdym skoku lub na symptomach (CPU, pamięć) zamiast na wpływie na użytkownika (błędy, latencja). Utrzymaj małą liczbę alertów, przypisz właściciela i po każdym prawdziwym alarmie napraw przyczynę lub dostrój alert, żeby rzadziej się włączał, ale nadal łapał prawdziwe problemy.

Jak zastosować SLOy, jeśli budujemy narzędzia wewnętrzne w AppMaster?

Wybierz kluczowe akcje w aplikacji, potem mierz dostępność, współczynnik sukcesu i p95 latencji dla tych akcji przy użyciu spójnego źródła prawdy. Jeśli budujesz w AppMaster, skup cele na tym, co robią użytkownicy (logowanie, zapis, wyszukiwanie) i dostosuj pomiary po większych zmianach lub regeneracjach kodu.

Łatwy do uruchomienia
Stworzyć coś niesamowitego

Eksperymentuj z AppMaster z darmowym planem.
Kiedy będziesz gotowy, możesz wybrać odpowiednią subskrypcję.

Rozpocznij