Agent-almanac provision-infrastructure-terraform
git clone https://github.com/pjt222/agent-almanac
T=$(mktemp -d) && git clone --depth=1 https://github.com/pjt222/agent-almanac "$T" && mkdir -p ~/.claude/skills && cp -r "$T/i18n/de/skills/provision-infrastructure-terraform" ~/.claude/skills/pjt222-agent-almanac-provision-infrastructure-terraform-cdbb15 && rm -rf "$T"
i18n/de/skills/provision-infrastructure-terraform/SKILL.mdInfrastruktur mit Terraform bereitstellen
Infrastructure as Code mit Terraform implementieren, um Cloud-Ressourcen ueber AWS, Azure, GCP und andere Anbieter bereitzustellen, zu versionieren und zu verwalten.
Wann verwenden
- Neue Cloud-Infrastruktur bereitstellen (VPCs, Compute, Storage, Datenbanken)
- Von ClickOps oder CloudFormation zu deklarativem IaC migrieren
- Infrastruktur fuer mehrere Umgebungen verwalten (Dev, Staging, Production)
- Reproduzierbare Infrastrukturmuster teamuebergreifend implementieren
- Infrastruktureaenderungen neben dem Anwendungscode versionieren
- Infrastrukturstandards durch wiederverwendbare Module durchsetzen
Eingaben
- Erforderlich: Terraform CLI installiert (
)terraform --version - Erforderlich: Cloud-Provider-Credentials (AWS, Azure, GCP-Dienstkonten)
- Erforderlich: Remote-State-Backend-Konfiguration (S3, Azure Storage, Terraform Cloud)
- Optional: Bestehende Infrastruktur zum Importieren oder Migrieren
- Optional: Terraform Cloud/Enterprise fuer die Teamzusammenarbeit
- Optional: Pre-commit-Hooks fuer Validierung und Formatierung
Vorgehensweise
Siehe Erweiterte Beispiele fuer vollstaendige Konfigurationsdateien und Vorlagen.
Schritt 1: Terraform-Projektstruktur initialisieren
Organisierte Verzeichnisstruktur mit Backend-Konfiguration und Provider-Einrichtung erstellen.
# Create project structure mkdir -p terraform/{modules,environments/{dev,staging,prod}} cd terraform # Create backend configuration cat > backend.tf <<'EOF' terraform { required_version = ">= 1.6" required_providers { aws = { source = "hashicorp/aws" version = "~> 5.0" } } backend "s3" { bucket = "my-terraform-state" key = "infrastructure/terraform.tfstate" region = "us-east-1" encrypt = true dynamodb_table = "terraform-lock" # Workspace-specific state files workspace_key_prefix = "env" } } provider "aws" { region = var.aws_region default_tags { tags = { ManagedBy = "Terraform" Environment = terraform.workspace Project = var.project_name } } } EOF # Create variables file cat > variables.tf <<'EOF' variable "aws_region" { description = "AWS region for resources" type = string default = "us-east-1" } variable "project_name" { description = "Project name for resource naming and tagging" type = string validation { condition = length(var.project_name) > 0 && length(var.project_name) <= 32 error_message = "Project name must be 1-32 characters" } } variable "environment" { description = "Environment name (dev, staging, prod)" type = string validation { condition = contains(["dev", "staging", "prod"], var.environment) error_message = "Environment must be dev, staging, or prod" } } EOF # Initialize Terraform terraform init
Erwartet: Terraform initialisiert erfolgreich, laedt Provider-Plugins herunter, konfiguriert Remote-Backend. Das Verzeichnis
.terraform/ wird mit Provider-Binaerdateien erstellt. State-Backend-Verbindung verifiziert.
Bei Fehler: Wenn die Backend-Initialisierung fehlschlaegt, pruefen, ob der S3-Bucket existiert und IAM-Berechtigungen
s3:GetObject, s3:PutObject, dynamodb:GetItem, dynamodb:PutItem erlauben. Bei Provider-Download-Fehlern Netzwerkkonnektivitaet und Unternehmens-Proxy pruefen. terraform init -upgrade ausfuehren, um Provider zu aktualisieren.
Schritt 2: Wiederverwendbare Infrastrukturmodule erstellen
Zusammensetzbare Module fuer VPC-, Compute- und Daten-Infrastruktur mit Eingabevalidierung erstellen.
# modules/vpc/main.tf variable "vpc_cidr" { description = "CIDR block for VPC" type = string default = "10.0.0.0/16" } variable "availability_zones" { description = "List of AZs to use" type = list(string) } variable "project_name" { description = "Project name for resource naming" type = string } variable "environment" { description = "Environment name" type = string } locals { common_tags = { Project = var.project_name Environment = var.environment Module = "vpc" } } resource "aws_vpc" "main" { cidr_block = var.vpc_cidr enable_dns_hostnames = true enable_dns_support = true tags = merge(local.common_tags, { Name = "${var.project_name}-${var.environment}-vpc" }) } resource "aws_subnet" "public" { count = length(var.availability_zones) vpc_id = aws_vpc.main.id cidr_block = cidrsubnet(var.vpc_cidr, 8, count.index) availability_zone = var.availability_zones[count.index] map_public_ip_on_launch = true tags = merge(local.common_tags, { Name = "${var.project_name}-${var.environment}-public-${var.availability_zones[count.index]}" Type = "public" }) } resource "aws_subnet" "private" { count = length(var.availability_zones) vpc_id = aws_vpc.main.id cidr_block = cidrsubnet(var.vpc_cidr, 8, count.index + 100) availability_zone = var.availability_zones[count.index] tags = merge(local.common_tags, { Name = "${var.project_name}-${var.environment}-private-${var.availability_zones[count.index]}" Type = "private" }) } resource "aws_internet_gateway" "main" { vpc_id = aws_vpc.main.id tags = merge(local.common_tags, { Name = "${var.project_name}-${var.environment}-igw" }) } resource "aws_eip" "nat" { count = length(var.availability_zones) domain = "vpc" tags = merge(local.common_tags, { Name = "${var.project_name}-${var.environment}-nat-eip-${var.availability_zones[count.index]}" }) depends_on = [aws_internet_gateway.main] } resource "aws_nat_gateway" "main" { count = length(var.availability_zones) allocation_id = aws_eip.nat[count.index].id subnet_id = aws_subnet.public[count.index].id tags = merge(local.common_tags, { Name = "${var.project_name}-${var.environment}-nat-${var.availability_zones[count.index]}" }) depends_on = [aws_internet_gateway.main] } # modules/vpc/outputs.tf output "vpc_id" { description = "VPC ID" value = aws_vpc.main.id } output "public_subnet_ids" { description = "List of public subnet IDs" value = aws_subnet.public[*].id } output "private_subnet_ids" { description = "List of private subnet IDs" value = aws_subnet.private[*].id } output "nat_gateway_ips" { description = "List of NAT Gateway public IPs" value = aws_eip.nat[*].public_ip }
Erwartet: Modul erstellt VPC mit oeffentlichen/privaten Subnetzen ueber mehrere AZs, Internet-Gateway, NAT-Gateways mit EIPs. Ausgabewerte stellen Ressource-IDs fuer nachgelagerte Module bereit.
Bei Fehler: Bei CIDR-Ueberlappungsfehlern die
cidrsubnet()-Berechnung anpassen oder pruefen, ob das VPC-CIDR nicht mit bestehenden Netzwerken kollidiert.
Schritt 3: Umgebungsspezifische Konfigurationen implementieren
Umgebungs-Workspaces mit Variablenueberschreibungen und Datenquellen erstellen.
# environments/prod/main.tf terraform { required_version = ">= 1.6" } # Import shared backend and provider config # ... (see EXAMPLES.md for complete configuration)
Erwartet: Umgebungsspezifische Konfiguration erstellt produktionsgrosse Infrastruktur mit 3 AZs, groesseren Instanztypen und Produktions-Sicherheitseinstellungen.
Bei Fehler: Bei Workspace-Fehlern den Workspace mit
terraform workspace new prod erstellen. Bei Datenquellen-Fehlern pruefen, ob AWS-Credentials ec2:DescribeImages-Berechtigungen haben.
Schritt 4: Plan- und Apply-Workflow ausfuehren
Terraform-Plan ausfuehren, Aenderungen pruefen und mit Genehmigungsworkflow anwenden.
# Format code terraform fmt -recursive # Validate configuration terraform validate # ... (see EXAMPLES.md for complete configuration)
Fuer automatisierte CI/CD-Integration:
# .github/workflows/terraform.yml name: Terraform on: pull_request: paths: # ... (see EXAMPLES.md for complete configuration)
Erwartet: Plan zeigt Ressourcenhinzufuegungen/-aenderungen/-loeschungen. Kein Drift erkannt. Apply erstellt/aktualisiert Ressourcen ohne Fehler. CI-Workflow kommentiert Plan in PRs, wendet automatisch bei Main-Branch-Merges an.
Bei Fehler: Bei Plan-Fehlern
terraform validate ausfuehren, um Syntaxfehler zu finden. Bei State-Lock-Fehlern den Lock-Inhaber ermitteln und bei Bedarf entsperren.
Schritt 5: State verwalten und Drift-Erkennung implementieren
State-Locking, Backup und automatisierte Drift-Erkennung konfigurieren.
# Create DynamoDB table for state locking cat > state-backend.tf <<'EOF' resource "aws_dynamodb_table" "terraform_lock" { name = "terraform-lock" billing_mode = "PAY_PER_REQUEST" hash_key = "LockID" # ... (see EXAMPLES.md for complete configuration)
Fuer automatisierte Drift-Erkennung:
# Create drift detection script cat > scripts/detect-drift.sh <<'EOF' #!/bin/bash set -euo pipefail cd terraform # ... (see EXAMPLES.md for complete configuration)
Erwartet: State-Backend mit Versionierung und Verschluesselung konfiguriert. Drift-Erkennung identifiziert ausserplanmaessige Aenderungen. State-Operationen (list, show, mv, import) werden fehlerfrei ausgefuehrt.
Bei Fehler: Bei State-Lock-Timeouts pruefen, ob die DynamoDB-Tabelle existiert und das korrekte Key-Schema hat.
Schritt 6: Modultests und Dokumentation implementieren
Automatisierte Tests mit Terratest hinzufuegen und Dokumentation generieren.
// test/vpc_test.go package test import ( "testing" # ... (see EXAMPLES.md for complete configuration)
Dokumentation generieren:
# Install terraform-docs go install github.com/terraform-docs/terraform-docs@latest # Generate module documentation terraform-docs markdown table modules/vpc > modules/vpc/README.md # ... (see EXAMPLES.md for complete configuration)
Erwartet: Terratest validiert, dass das Modul die erwarteten Ressourcen mit korrekter Konfiguration erstellt. Dokumentation wird automatisch aus Variablenbeschreibungen und Ausgabedefinitionen generiert.
Bei Fehler: Bei Terratest-Fehlern AWS-Credentials und Kontingente pruefen. Bei Dokumentationsgenerierungsfehlern sicherstellen, dass alle Variablen
description-Attribute haben.
Validierung
- Backend mit Verschluesselung, Versionierung und State-Locking konfiguriert
- Alle Module haben Eingabevalidierung und Ausgabewerte
- Workspaces isolieren umgebungsspezifischen State
-
zeigt nach dem Apply keine unerwarteten Aenderungenterraform plan - Drift-Erkennung laeuft automatisch und gibt bei Aenderungen Alarm
- Module mit Terratest oder aehnlichem Framework getestet
- Dokumentation automatisch generiert und aktuell gehalten
- Secrets werden ueber AWS Secrets Manager verwaltet, nicht hartcodiert
- Kostenschaetzung integriert (Infracost oder aehnlich)
- Blast Radius durch separaten State pro Umgebung minimiert
Haeufige Stolperfallen
-
Hartcodierte Werte: AMI-IDs, AZs oder kontospezifische Werte nicht hartcodieren. Datenquellen und Variablen verwenden.
-
Fehlende lifecycle-Bloecke: Ressourcen werden unerwartet neu erstellt.
hinzufuegen, um Ausfallzeiten bei Updates zu verhindern.lifecycle { create_before_destroy = true } -
Kein State-Locking: Gleichzeitige Applies korrumpieren den State. Immer DynamoDB-Tabelle fuer Locking mit S3-Backend verwenden.
-
Zu grosszuegige IAM-Berechtigungen: Terraform-Dienstkonto hat vollen Admin-Zugriff. Least-Privilege-Richtlinien auf verwaltete Ressourcen beschraenken.
-
Keine Versionseinschraenkungen: Provider-Updates beschaedigen Infrastruktur. Provider-Versionen mit
-Einschraenkungen fixieren.version = "~> 5.0" -
Secrets im State: Sensible Werte im Klartext in der State-Datei.
bei Ausgaben verwenden, Secrets in AWS Secrets Manager speichern, ueber Datenquellen referenzieren.sensitive = true -
Keine Backup-Strategie: State-Datei verloren oder beschaedigt ohne Wiederherstellungsplan. S3-Versionierung aktivieren, regelmaessige State-Backups implementieren, Wiederherstellungsverfahren testen.
-
Monolithische Konfiguration: Eine einzige State-Datei verwaltet die gesamte Infrastruktur. In logische Bereiche aufteilen (Netzwerk, Compute, Daten), um den Blast Radius zu reduzieren.
Verwandte Skills
- Versionskontrolle fuer Terraform-Codeconfigure-git-repository
- Automatisierte Terraform-Workflows mit GitHub Actionsbuild-ci-cd-pipeline
- ArgoCD/Flux-Integration mit Terraformimplement-gitops-workflow
- Secrets-Verwaltung in Terraform-bereitgestellten Clusternmanage-kubernetes-secrets
- Terraform Kubernetes-Provider-Verwendungdeploy-to-kubernetes