Agent-almanac review-codebase
git clone https://github.com/pjt222/agent-almanac
T=$(mktemp -d) && git clone --depth=1 https://github.com/pjt222/agent-almanac "$T" && mkdir -p ~/.claude/skills && cp -r "$T/i18n/de/skills/review-codebase" ~/.claude/skills/pjt222-agent-almanac-review-codebase-8b2444 && rm -rf "$T"
i18n/de/skills/review-codebase/SKILL.mdCodebasis ueberpruefen
Mehrphasiger eingehender Codebasis-Review der schweregradbewertete Befunde mit Empfehlungen zur Behebungsreihenfolge erzeugt. Anders als
review-pull-request (auf einen Diff beschraenkt) oder einzelne Domaenen-Reviews (security-audit-codebase, review-software-architecture) deckt dieser Skill ein gesamtes Projekt oder Teilprojekt ueber alle Qualitaetsdimensionen in einem Durchlauf ab.
Wann verwenden
- Gesamtprojekt- oder Teilprojekt-Review (nicht PR-bezogen)
- Onboarding fuer eine neue Codebasis — ein mentales Modell aufbauen was existiert und was Aufmerksamkeit braucht
- Periodische Gesundheitspruefungen nach anhaltendem Entwickeln
- Qualitaetstor vor der Veroeffentlichung ueber Architektur, Sicherheit, Codequalitaet und UX
- Wenn die Ausgabe direkt in Issue-Erstellung oder Sprint-Planung einfliessen soll
Eingaben
- Erforderlich:
— Stammverzeichnis der zu ueberpruefenden Codebasis oder des Teilprojektstarget_path - Optional:
— welche Phasen ausgefuehrt werden:scope
(Standard),full
,security
,architecture
,qualityux
—output_format
(nur Tabelle),findings
(Erzaehlung),report
(Standard)both
— Mindestschweregrad fuer die Aufnahme:severity_threshold
(Standard),LOW
,MEDIUM
,HIGHCRITICAL
Vorgehensweise
Schritt 1: Bestandsaufnahme
Die Codebasis inventarisieren um den Umfang festzustellen und Review-Ziele zu identifizieren.
- Dateien nach Sprache/Typ zaehlen:
find target_path -type f | nach Endung sortieren - Gesamtzeilenzahlen pro Sprache messen
- Testverzeichnisse identifizieren und Testabdeckung schaetzen (Dateien mit Tests vs. Dateien ohne)
- Abhaengigkeitszustand pruefen: Lockfiles vorhanden, veraltete Abhaengigkeiten, bekannte Schwachstellen
- Build-System, CI/CD-Konfiguration und Dokumentationszustand erfassen
- Die Bestandsaufnahme als Eroeffnungsabschnitt des Berichts festhalten
Erwartet: Ein sachliches Inventar — Dateianzahlen, Sprachen, Vorhandensein von Tests, Abhaengigkeitsgesundheit. Noch keine Urteile.
Bei Fehler: Wenn der Zielpfad leer oder nicht zugaenglich ist, stoppen und berichten. Wenn bestimmte Unterverzeichnisse nicht zugaenglich sind, sie vermerken und mit dem Verfuegbaren fortfahren.
Schritt 2: Architektur-Review
Strukturelle Gesundheit bewerten: Kopplung, Duplizierung, Datenfluss und Trennung der Zustaendigkeiten.
- Die Modul-/Verzeichnisstruktur kartieren und das primaere Architekturmuster identifizieren
- Auf Code-Duplizierung pruefen — wiederholte Logik ueber Dateien hinweg, Kopier-Einfuege-Muster
- Kopplung bewerten — wie viele Dateien muessen sich fuer eine einzelne Funktionsaenderung aendern
- Datenfluss evaluieren — gibt es klare Grenzen zwischen Schichten (UI, Logik, Daten)?
- Toten Code, ungenutzte Exporte und verwaiste Dateien identifizieren
- Auf einheitliche Muster pruefen — folgt die Codebasis ihren eigenen Konventionen?
- Jeden Befund bewerten: CRITICAL, HIGH, MEDIUM oder LOW
Erwartet: Eine Liste von Architekturbefunden mit Schweregradbewertungen und Dateireferenzen. Haeufige Befunde: Modus-Dispatch-Duplizierung, fehlende Abstraktionsschichten, zirkulaere Abhaengigkeiten.
Bei Fehler: Wenn die Codebasis zu klein fuer einen aussagekraeftigen Architektur-Review ist (< 5 Dateien), dies vermerken und zu Schritt 3 springen. Architektur-Review braucht genug Code um Struktur zu haben.
Schritt 3: Sicherheitsaudit
Sicherheitsschwachstellen und Luecken in der defensiven Programmierung identifizieren.
- Auf Injektionsvektoren scannen: HTML-Injektion (
), SQL-Injektion, BefehlsinjektioninnerHTML - Authentifizierungs- und Autorisierungsmuster pruefen (falls zutreffend)
- Fehlerbehandlung ueberpruefen — werden Fehler stillschweigend verschluckt? Legen Fehlermeldungen interne Details offen?
- Abhaengigkeitsversionen gegen bekannte CVEs auditieren
- Auf hartcodierte Geheimnisse, API-Schluessel oder Zugangsdaten pruefen
- Docker-/Container-Sicherheit pruefen: Root-Benutzer, offene Ports, Build-Geheimnisse
- localStorage/sessionStorage auf Speicherung sensibler Daten pruefen
- Jeden Befund bewerten: CRITICAL, HIGH, MEDIUM oder LOW
Erwartet: Eine Liste von Sicherheitsbefunden mit Schweregrad, betroffenen Dateien und Hinweisen zur Behebung. CRITICAL-Befunde umfassen Injektionsschwachstellen und offengelegte Geheimnisse.
Bei Fehler: Wenn kein sicherheitsrelevanter Code existiert (reines Dokumentationsprojekt), dies vermerken und zu Schritt 4 springen.
Schritt 4: Codequalitaet
Wartbarkeit, Lesbarkeit und defensive Programmierung evaluieren.
- Magische Zahlen und hartcodierte Werte identifizieren die benannte Konstanten sein sollten
- Auf einheitliche Benennungskonventionen ueber die Codebasis pruefen
- Fehlende Eingabevalidierung an Systemgrenzen finden
- Fehlerbehandlungsmuster bewerten — sind sie einheitlich? Liefern sie nuetzliche Meldungen?
- Auf auskommentierten Code, TODO/FIXME-Markierungen und unvollstaendige Implementierungen pruefen
- Testqualitaet ueberpruefen — testen die Tests Verhalten oder Implementierungsdetails?
- Jeden Befund bewerten: CRITICAL, HIGH, MEDIUM oder LOW
Erwartet: Eine Liste von Qualitaetsbefunden mit Fokus auf Wartbarkeit. Haeufige Befunde: magische Zahlen, uneinheitliche Muster, fehlende Schutzpruefungen.
Bei Fehler: Wenn die Codebasis generiert oder minifiziert ist, dies vermerken und Erwartungen anpassen. Generierter Code hat andere Qualitaetskriterien als handgeschriebener Code.
Schritt 5: UX und Barrierefreiheit (falls Frontend vorhanden)
Benutzererfahrung und Barrierefreiheitskonformitaet evaluieren.
- ARIA-Rollen, -Labels und -Landmarks an interaktiven Elementen pruefen
- Tastaturnavigation verifizieren — koennen alle interaktiven Elemente per Tab erreicht werden?
- Fokusverwaltung testen — bewegt sich der Fokus logisch wenn Panels geoeffnet/geschlossen werden?
- Responsives Design pruefen — an gaengigen Breakpoints testen (320px, 768px, 1024px)
- Farbkontrastverhaeltnisse gegen WCAG 2.1 AA-Standards pruefen
- Screenreader-Kompatibilitaet pruefen — werden dynamische Inhaltsaenderungen angekuendigt?
- Jeden Befund bewerten: CRITICAL, HIGH, MEDIUM oder LOW
Erwartet: Eine Liste von UX/Barrierefreiheitsbefunden mit WCAG-Referenzen wo zutreffend. Wenn kein Frontend existiert, erzeugt dieser Schritt "N/A — kein Frontend-Code erkannt."
Bei Fehler: Wenn Frontend-Code existiert aber nicht gerendert werden kann (fehlender Build-Schritt), den Quellcode statisch auditieren und vermerken dass Laufzeittests nicht moeglich waren.
Schritt 6: Befundsynthese
Alle Befunde in eine priorisierte Zusammenfassung zusammenfuehren.
- Befunde aus allen Phasen in eine einzelne Tabelle zusammenfuehren
- Nach Schweregrad sortieren (CRITICAL zuerst, dann HIGH, MEDIUM, LOW)
- Innerhalb jedes Schweregrads nach Thema gruppieren (Sicherheit, Architektur, Qualitaet, UX)
- Fuer jeden Befund angeben: Schweregrad, Phase, Datei(en), Einzeiler-Beschreibung, vorgeschlagene Behebung
- Eine empfohlene Behebungsreihenfolge erstellen die Abhaengigkeiten zwischen Behebungen beruecksichtigt
- Zusammenfassen: Gesamtbefunde nach Schweregrad, Top 3 Prioritaeten, geschaetztes Aufwandsniveau
Erwartet: Eine Befundtabelle mit Spalten:
#, Schweregrad, Phase, Datei(en), Befund, Behebung. Eine Empfehlung zur Behebungsreihenfolge die Abhaengigkeiten beruecksichtigt (z.B. "Architektur umstrukturieren bevor Tests hinzugefuegt werden").
Bei Fehler: Wenn keine Befunde erzeugt wurden, ist das selbst ein Befund — entweder ist die Codebasis aussergewoehnlich sauber oder der Review war zu oberflaechlich. Mindestens eine Phase mit tieferer Inspektion erneut untersuchen.
Validierung
- Alle angeforderten Phasen wurden abgeschlossen (oder explizit mit Begruendung uebersprungen)
- Jeder Befund hat eine Schweregradbewertung (CRITICAL/HIGH/MEDIUM/LOW)
- Jeder Befund referenziert mindestens eine Datei oder ein Verzeichnis
- Die Befundtabelle ist nach Schweregrad sortiert
- Empfehlungen zur Behebungsreihenfolge beruecksichtigen Abhaengigkeiten zwischen Befunden
- Die Zusammenfassung enthaelt Gesamtzahlen nach Schweregrad
- Wenn
output_format
einschliesst, begleiten erzaehlende Abschnitte die Tabellereport
Skalierung mit Ruhe
Zwischen Review-Phasen
/rest als Kontrollpunkt verwenden — besonders zwischen den Phasen 2-5 die verschiedene analytische Perspektiven erfordern. Eine Kontrollpunkt-Ruhe (kurz, uebergangsartig) verhindert dass der Schwung einer Phase die naechste verzerrt. Siehe den Abschnitt "Abstufungen der Ruhe" im rest-Skill fuer Hinweise zu Kontrollpunkt- vs. voller Ruhe.
Haeufige Stolperfallen
- Den Ozean kochen: Jede Zeile einer grossen Codebasis ueberpruefen erzeugt Rauschen. Auf wirkungsstarke Bereiche konzentrieren: Einstiegspunkte, Sicherheitsgrenzen und architektonische Naehte
- Schweregrad-Inflation: Nicht jeder Befund ist CRITICAL. CRITICAL fuer ausnutzbare Schwachstellen und Datenverlustrisiken reservieren. Die meisten Architekturprobleme sind MEDIUM
- Den Wald vor lauter Baeumen nicht sehen: Einzelne Codequalitaetsprobleme sind weniger wichtig als systemische Muster. Wenn magische Zahlen in 20 Dateien auftauchen, ist das ein Architekturbefund, nicht 20 Qualitaetsbefunde
- Die Bestandsaufnahme ueberspringen: Die Bestandsaufnahme (Schritt 1) wirkt buerokratisch aber verhindert das Ueberpruefen von Code der nicht existiert oder das Uebersehen ganzer Verzeichnisse
- Phasenuebergriff: Sicherheitsbefunde waehrend des Architektur-Reviews, oder Qualitaetsbefunde waehrend des Sicherheitsaudits. Sie fuer die korrekte Phase vermerken statt die Anliegen zu vermischen — das erzeugt eine sauberere Befundtabelle
Verwandte Skills
— tiefgehendes Sicherheitsaudit wenn die Sicherheitsphase des review-codebase komplexe Schwachstellen aufdecktsecurity-audit-codebase
— detaillierter Architektur-Review fuer spezifische Teilsystemereview-software-architecture
— umfassendes UX/Barrierefreiheitsaudit ueber das hinaus was Phase 5 abdecktreview-ux-ui
— auf Diffs beschraenkter Review fuer einzelne Aenderungenreview-pull-request
— implementiert die durch diesen Review identifizierten Codequalitaetsbehebungenclean-codebase
— wandelt die Befundtabelle in nachverfolgte GitHub-Issues umcreate-github-issues