Agent-almanac configure-alerting-rules
git clone https://github.com/pjt222/agent-almanac
T=$(mktemp -d) && git clone --depth=1 https://github.com/pjt222/agent-almanac "$T" && mkdir -p ~/.claude/skills && cp -r "$T/i18n/de/skills/configure-alerting-rules" ~/.claude/skills/pjt222-agent-almanac-configure-alerting-rules-d1af2e && rm -rf "$T"
i18n/de/skills/configure-alerting-rules/SKILL.mdAlerting-Regeln konfigurieren
Prometheus-Alerting-Regeln und Alertmanager fuer zuverlaessige, handlungsorientierte Incident-Benachrichtigungen einrichten.
Unter Extended Examples sind vollstaendige Konfigurationsdateien und Templates verfuegbar.
Wann verwenden
- Proaktives Monitoring mit automatisierter Incident-Erkennung implementieren
- Alerts basierend auf Schweregrad und Service-Eigentuemer an entsprechende Teams routen
- Alert-Ueberlastung durch intelligente Gruppierung und Deduplizierung reduzieren
- Monitoring mit On-Call-Systemen integrieren (PagerDuty, Opsgenie)
- Eskalationsrichtlinien fuer kritische Produktionsprobleme etablieren
- Von Legacy-Monitoring-Systemen zu Prometheus-basiertem Alerting migrieren
- Handlungsorientierte Alerts erstellen, die Responder zur Loesung fuehren
Eingaben
- Pflichtfeld: Prometheus-Metriken fuer Alerts (Fehlerquoten, Latenz, Saettigung)
- Pflichtfeld: On-Call-Rotation und Eskalationsrichtlinien
- Optional: Vorhandene Alert-Definitionen zur Migration
- Optional: Benachrichtigungskanaele (Slack, E-Mail, PagerDuty)
- Optional: Runbook-Dokumentation fuer gaengige Alerts
Vorgehensweise
Schritt 1: Alertmanager bereitstellen
Alertmanager installieren und konfigurieren, um Alerts von Prometheus zu empfangen.
Docker-Compose-Deployment (Grundstruktur):
version: '3.8' services: alertmanager: image: prom/alertmanager:v0.26.0 ports: - "9093:9093" volumes: - ./alertmanager.yml:/etc/alertmanager/alertmanager.yml # ... (see EXAMPLES.md for complete configuration)
Grundlegende Alertmanager-Konfiguration (
alertmanager.yml Auszug):
global: resolve_timeout: 5m slack_api_url: 'https://hooks.slack.com/services/YOUR/SLACK/WEBHOOK' route: receiver: 'default-receiver' group_by: ['alertname', 'cluster', 'service'] group_wait: 30s group_interval: 5m repeat_interval: 4h routes: - match: severity: critical receiver: pagerduty-critical # ... (see EXAMPLES.md for complete routing, inhibition rules, and receivers)
Prometheus fuer Alertmanager konfigurieren (
prometheus.yml):
alerting: alertmanagers: - static_configs: - targets: - alertmanager:9093 timeout: 10s api_version: v2
Erwartet: Alertmanager-UI unter
http://localhost:9093 zugaenglich, Prometheus "Status > Alertmanagers" zeigt UP-Status.
Bei Fehler:
- Alertmanager-Logs pruefen:
docker logs alertmanager - Pruefen, ob Prometheus Alertmanager erreichen kann:
curl http://alertmanager:9093/api/v2/status - Webhook-URLs testen:
curl -X POST <SLACK_WEBHOOK_URL> -d '{"text":"test"}' - YAML-Syntax validieren:
amtool check-config alertmanager.yml
Schritt 2: Alerting-Regeln in Prometheus definieren
Alerting-Regeln erstellen, die bei Bedingungserfuellung ausloesen.
Alerting-Regeldatei erstellen (
/etc/prometheus/rules/alerts.yml Auszug):
groups: - name: instance_alerts interval: 30s rules: - alert: InstanceDown expr: up == 0 for: 5m labels: severity: critical team: infrastructure annotations: summary: "Instance {{ $labels.instance }} is down" description: "{{ $labels.instance }} has been down for >5min." runbook_url: "https://wiki.example.com/runbooks/instance-down" - alert: HighCPUUsage expr: 100 - (avg by(instance) (rate(node_cpu_seconds_total{mode="idle"}[5m])) * 100) > 80 for: 10m labels: severity: warning annotations: summary: "High CPU usage on {{ $labels.instance }}" # ... (see EXAMPLES.md for complete alerts)
Best Practices fuer Alert-Design:
-Dauer: Verhindert flatternde Alerts. 5-10 Minuten fuer die meisten Alerts verwenden.for- Beschreibende Annotationen: Aktuellen Wert, betroffene Ressource und Runbook-Link einschliessen.
- Schweregrade: critical (ruft On-Call), warning (untersuchen), info (zur Information)
- Team-Labels: Ermoeglicht Routing zum richtigen Team/Kanal
- Runbook-Links: Jeder Alert sollte eine Runbook-URL haben
Regeln in Prometheus laden:
# prometheus.yml rule_files: - "rules/*.yml"
Validieren und neu laden:
promtool check rules /etc/prometheus/rules/alerts.yml curl -X POST http://localhost:9090/-/reload
Erwartet: Alerts auf der Prometheus-"Alerts"-Seite sichtbar, Alerts loesen bei ueberschrittenen Schwellenwerten aus, Alertmanager empfaengt ausgeloeste Alerts.
Bei Fehler:
- Prometheus-Logs auf Regelauswertungsfehler pruefen
- Regelsyntax mit
pruefenpromtool check rules - Alert-Abfragen unabhaengig in der Prometheus-UI testen
- Alert-Zustandsuebertragungen pruefen: Inactive → Pending → Firing
Schritt 3: Benachrichtigungsvorlagen erstellen
Lesbare, handlungsorientierte Benachrichtigungsmeldungen gestalten.
Vorlagendatei erstellen (
/etc/alertmanager/templates/default.tmpl Auszug):
{{ define "slack.default.title" }} [{{ .Status | toUpper }}] {{ .GroupLabels.alertname }} {{ end }} {{ define "slack.default.text" }} {{ range .Alerts }} *Alert:* {{ .Labels.alertname }} *Severity:* {{ .Labels.severity }} *Summary:* {{ .Annotations.summary }} {{ if .Annotations.runbook_url }}*Runbook:* {{ .Annotations.runbook_url }}{{ end }} {{ end }} {{ end }} # ... (see EXAMPLES.md for complete email and PagerDuty templates)
Vorlagen in Empfaengern verwenden:
receivers: - name: 'slack-custom' slack_configs: - channel: '#alerts' title: '{{ template "slack.default.title" . }}' text: '{{ template "slack.default.text" . }}'
Erwartet: Benachrichtigungen konsistent formatiert, enthalten alle relevanten Kontextinformationen, handlungsorientiert mit Runbook-Links.
Bei Fehler:
- Vorlagen-Rendering testen:
amtool template test --config.file=alertmanager.yml - Vorlagensyntaxfehler in Alertmanager-Logs pruefen
zur Fehlersuche in der Vorlage-Datenstruktur verwenden{{ . | json }}
Schritt 4: Routing und Gruppierung konfigurieren
Alert-Zustellung mit intelligenten Routing-Regeln optimieren.
Erweiterte Routing-Konfiguration (Auszug):
route: receiver: 'default-receiver' group_by: ['alertname', 'cluster', 'service'] group_wait: 30s routes: - match: team: platform receiver: 'team-platform' routes: - match: severity: critical receiver: 'pagerduty-platform' group_wait: 10s repeat_interval: 15m continue: true # Also send to Slack # ... (see EXAMPLES.md for complete routing with time intervals)
Gruppierungsstrategien:
# Group by alertname: All HighCPU alerts bundled together group_by: ['alertname'] # Group by alertname AND cluster: Separate notifications per cluster group_by: ['alertname', 'cluster']
Erwartet: Alerts werden an korrekte Teams geroutet, logisch gruppiert, Zeitplanung angemessen fuer Schweregrad.
Bei Fehler:
- Routing testen:
amtool config routes test --config.file=alertmanager.yml --alertname=HighCPU --label=severity=critical - Routing-Baum pruefen:
amtool config routes show --config.file=alertmanager.yml
pruefen, wenn Alert mehrere Routen treffen sollcontinue: true
Schritt 5: Inhibierung und Stummschaltung implementieren
Alert-Rauschen mit Inhibierungsregeln und temporaeren Stummschaltungen reduzieren.
Inhibierungsregeln (abhaengige Alerts unterdruecken):
inhibit_rules: # Cluster down suppresses all node alerts in that cluster - source_match: alertname: 'ClusterDown' severity: 'critical' target_match_re: alertname: '(InstanceDown|HighCPU|HighMemory)' equal: ['cluster'] # Service down suppresses latency and error alerts - source_match: alertname: 'ServiceDown' target_match_re: alertname: '(HighLatency|HighErrorRate)' equal: ['service', 'namespace'] # ... (see EXAMPLES.md for more inhibition patterns)
Stummschaltungen programmgesteuert erstellen:
# Silence during maintenance amtool silence add \ instance=app-server-1 \ --author="ops-team" \ --comment="Scheduled maintenance" \ --duration=2h # List and manage silences amtool silence query amtool silence expire <SILENCE_ID>
Erwartet: Inhibierung reduziert Kaskaden-Alerts automatisch, Stummschaltungen verhindern Benachrichtigungen waehrend geplanter Wartungsarbeiten.
Bei Fehler:
- Inhibierungslogik mit Live-Alerts testen
- "Silences"-Tab in der Alertmanager-UI pruefen
- Sicherstellen, dass Stummschaltungs-Matcher exakt sind (Labels muessen perfekt uebereinstimmen)
Schritt 6: Mit externen Systemen integrieren
Alertmanager mit PagerDuty, Opsgenie, Jira usw. verbinden.
PagerDuty-Integration (Auszug):
receivers: - name: 'pagerduty' pagerduty_configs: - routing_key: 'YOUR_INTEGRATION_KEY' severity: '{{ .CommonLabels.severity }}' description: '{{ range .Alerts.Firing }}{{ .Annotations.summary }}{{ end }}' details: firing: '{{ .Alerts.Firing | len }}' alertname: '{{ .GroupLabels.alertname }}' # ... (see EXAMPLES.md for complete integration examples)
Webhook fuer benutzerdefinierte Integrationen:
receivers: - name: 'webhook-custom' webhook_configs: - url: 'https://your-webhook-endpoint.com/alerts' send_resolved: true
Erwartet: Alerts erstellen Incidents in PagerDuty, erscheinen in Team-Kommunikationskanaelen, loesen On-Call-Eskalationen aus.
Bei Fehler:
- API-Schluessel/Tokens auf Gueltigkeit pruefen
- Netzwerkkonnektivitaet zu externen Services pruefen
- Webhook-Endpunkte unabhaengig mit curl testen
- Debug-Modus aktivieren:
--log.level=debug
Validierung
- Alertmanager empfaengt erfolgreich Alerts von Prometheus
- Alerts werden basierend auf Labels und Schweregrad an korrekte Teams geroutet
- Benachrichtigungen werden an Slack, E-Mail oder PagerDuty zugestellt
- Alert-Gruppierung reduziert Benachrichtigungsvolumen angemessen
- Inhibierungsregeln unterdruecken abhaengige Alerts korrekt
- Stummschaltungen verhindern Benachrichtigungen waehrend Wartungsfenstern
- Benachrichtigungsvorlagen enthalten Runbook-Links und Kontext
- Wiederholungsintervall verhindert Alert-Ueberlastung bei lang andauernden Problemen
- Aufloesungsbenachrichtigungen werden gesendet, wenn Alerts sich klaeren
- Externe Integrationen (PagerDuty, Opsgenie) erstellen Incidents
Haeufige Stolperfallen
- Alert-Ueberlastung: Zu viele niedrig priorisierte Alerts fuehren dazu, dass Responder kritische ignorieren. Strenge Schwellenwerte setzen, Inhibierung verwenden.
- Fehlende
-Dauer: Alerts ohnefor
loesen bei vorueber gehenden Spitzen aus. Immer 5-10-Minuten-Fenster verwenden.for - Zu breite Gruppierung: Gruppierung mit
sendet einzelne Benachrichtigungen. Spezifische Label-Gruppierung verwenden.['...'] - Keine Runbook-Links: Alerts ohne Runbooks lassen Responder raten. Jeder Alert braucht eine Runbook-URL.
- Falscher Schweregrad: Warnungen faelschlicherweise als kritisch zu bezeichnen, desensibilisiert das Team. Critical nur fuer Notfaelle reservieren.
- Vergessene Stummschaltungen: Stummschaltungen ohne Ablaufzeit koennen echte Probleme verbergen. Immer Endzeiten setzen.
- Einzelne Route: Alle Alerts in einen Kanal verliert Kontext. Teamspezifisches Routing verwenden.
- Keine Inhibierung: Kaskaden-Alerts waehrend Ausfaellen erzeugen Rauschen. Inhibierungsregeln implementieren.
Verwandte Skills
- Metriken und Recording-Rules definieren, die Alerting-Regeln speisensetup-prometheus-monitoring
- SLO-Burn-Rate-Alerts fuer Fehlerbudget-Management generierendefine-slo-sli-sla
- Runbooks erstellen, die aus Alert-Annotationen verlinkt werdenwrite-incident-runbook
- Alert-Ausloesungshistorie und Stummschaltungsmuster visualisierenbuild-grafana-dashboards