Agent-almanac instrument-distributed-tracing
git clone https://github.com/pjt222/agent-almanac
T=$(mktemp -d) && git clone --depth=1 https://github.com/pjt222/agent-almanac "$T" && mkdir -p ~/.claude/skills && cp -r "$T/i18n/es/skills/instrument-distributed-tracing" ~/.claude/skills/pjt222-agent-almanac-instrument-distributed-tracing-7e2ba6 && rm -rf "$T"
i18n/es/skills/instrument-distributed-tracing/SKILL.mdInstrumentar Rastreo Distribuido
Implementa rastreo distribuido con OpenTelemetry para rastrear solicitudes entre microservicios e identificar cuellos de botella de rendimiento.
Cuándo Usar
- Depurar problemas de latencia en sistemas distribuidos con múltiples servicios
- Comprender el flujo de solicitudes y las dependencias entre microservicios
- Identificar consultas lentas de base de datos o llamadas a APIs externas dentro de una transacción
- Correlacionar trazas con logs y métricas para análisis de causa raíz
- Medir la latencia de extremo a extremo desde la solicitud del usuario hasta la respuesta
- Migrar desde sistemas de rastreo heredados (Zipkin, Jaeger) a OpenTelemetry
- Establecer el cumplimiento de SLO mediante el seguimiento detallado de percentiles de latencia
Entradas
- Requerido: Lista de servicios a instrumentar (lenguajes y frameworks)
- Requerido: Elección de backend de rastreo (Jaeger, Tempo, Zipkin, o SaaS de proveedor)
- Opcional: Bibliotecas de instrumentación existentes (OpenTracing, Zipkin)
- Opcional: Requisitos de estrategia de muestreo (porcentaje, limitación de tasa)
- Opcional: Atributos de span personalizados para metadatos específicos del negocio
Procedimiento
Consulta Ejemplos Extendidos para archivos de configuración completos y plantillas.
Paso 1: Configurar el Backend de Rastreo
Despliega Jaeger o Grafana Tempo para recibir y almacenar trazas.
Opción A: Jaeger todo-en-uno (desarrollo/pruebas):
# docker-compose.yml version: '3.8' services: jaeger: image: jaegertracing/all-in-one:1.51 ports: - "5775:5775/udp" # Zipkin compact thrift - "6831:6831/udp" # Jaeger compact thrift - "6832:6832/udp" # Jaeger binary thrift - "5778:5778" # Serve configs - "16686:16686" # Jaeger UI - "14268:14268" # Jaeger HTTP thrift - "14250:14250" # Jaeger GRPC - "9411:9411" # Zipkin compatible endpoint environment: - COLLECTOR_ZIPKIN_HOST_PORT=:9411 - COLLECTOR_OTLP_ENABLED=true restart: unless-stopped
Opción B: Grafana Tempo (producción, escalable):
# docker-compose.yml version: '3.8' services: tempo: image: grafana/tempo:2.3.0 command: ["-config.file=/etc/tempo.yaml"] volumes: - ./tempo.yaml:/etc/tempo.yaml - tempo-data:/tmp/tempo ports: - "3200:3200" # Tempo HTTP - "4317:4317" # OTLP gRPC - "4318:4318" # OTLP HTTP - "9411:9411" # Zipkin restart: unless-stopped volumes: tempo-data:
Configuración de Tempo (
tempo.yaml):
server: http_listen_port: 3200 distributor: receivers: jaeger: # ... (see EXAMPLES.md for complete configuration)
Para producción con almacenamiento S3:
storage: trace: backend: s3 s3: bucket: tempo-traces endpoint: s3.amazonaws.com region: us-east-1 wal: path: /tmp/tempo/wal pool: max_workers: 100 queue_depth: 10000
Esperado: Backend de rastreo accesible, listo para recibir trazas vía OTLP, la interfaz de Jaeger o Grafana muestra "no traces" inicialmente.
En caso de fallo:
- Verificar que los puertos no estén ya en uso:
netstat -tulpn | grep -E '(4317|16686|3200)' - Verificar los logs del contenedor:
odocker logs jaegerdocker logs tempo - Probar el endpoint OTLP:
curl http://localhost:4318/v1/traces -v - Para Tempo: validar la sintaxis de configuración con
tempo -config.file=/etc/tempo.yaml -verify-config
Paso 2: Instrumentar Aplicaciones (Auto-Instrumentación)
Usa la auto-instrumentación de OpenTelemetry para frameworks comunes para minimizar cambios de código.
Python con Flask:
pip install opentelemetry-distro opentelemetry-exporter-otlp opentelemetry-bootstrap -a install
# app.py from flask import Flask from opentelemetry import trace from opentelemetry.sdk.trace import TracerProvider from opentelemetry.sdk.trace.export import BatchSpanProcessor from opentelemetry.exporter.otlp.proto.grpc.trace_exporter import OTLPSpanExporter # ... (see EXAMPLES.md for complete configuration)
Go con framework Gin:
go get go.opentelemetry.io/otel go get go.opentelemetry.io/otel/exporters/otlp/otlptrace/otlptracegrpc go get go.opentelemetry.io/otel/sdk/trace go get go.opentelemetry.io/contrib/instrumentation/github.com/gin-gonic/gin/otelgin
package main import ( "context" "github.com/gin-gonic/gin" "go.opentelemetry.io/otel" # ... (see EXAMPLES.md for complete configuration)
Node.js con Express:
npm install @opentelemetry/api \ @opentelemetry/sdk-node \ @opentelemetry/auto-instrumentations-node \ @opentelemetry/exporter-trace-otlp-grpc
// tracing.js const { NodeSDK } = require('@opentelemetry/sdk-node'); const { OTLPTraceExporter } = require('@opentelemetry/exporter-trace-otlp-grpc'); const { getNodeAutoInstrumentations } = require('@opentelemetry/auto-instrumentations-node'); const { Resource } = require('@opentelemetry/resources'); const { SemanticResourceAttributes } = require('@opentelemetry/semantic-conventions'); # ... (see EXAMPLES.md for complete configuration)
Esperado: Las trazas de los servicios instrumentados aparecen en la interfaz de Jaeger o Grafana, las solicitudes HTTP crean spans automáticamente.
En caso de fallo:
- Verificar que el endpoint del exportador sea alcanzable desde la aplicación
- Verificar las variables de entorno:
OTEL_EXPORTER_OTLP_ENDPOINT=http://tempo:4317 - Habilitar el registro de depuración:
(Python),OTEL_LOG_LEVEL=debug
(Node.js)OTEL_LOG_LEVEL=DEBUG - Probar con un span simple: crear manualmente un span para verificar el pipeline de exportación
- Verificar conflictos de versiones entre paquetes de OpenTelemetry
Paso 3: Agregar Instrumentación Manual
Crea spans personalizados para lógica de negocio, consultas de base de datos y llamadas externas.
Spans manuales en Python:
from opentelemetry import trace tracer = trace.get_tracer(__name__) def process_order(order_id): # Create a span for the entire operation # ... (see EXAMPLES.md for complete configuration)
Spans manuales en Go:
import ( "context" "go.opentelemetry.io/otel" "go.opentelemetry.io/otel/attribute" "go.opentelemetry.io/otel/codes" "go.opentelemetry.io/otel/trace" # ... (see EXAMPLES.md for complete configuration)
Buenas prácticas para atributos de span:
- Usar convenciones semánticas:
,http.method
,http.status_code
,db.systemdb.statement - Agregar contexto de negocio:
,user.id
,order.idproduct.category - Incluir identificadores de recursos:
,instance.id
,regionavailability_zone - Registrar errores:
yspan.RecordError(err)span.SetStatus(codes.Error, message) - Agregar eventos para hitos significativos:
span.AddEvent("cache_miss")
Esperado: Los spans personalizados aparecen en la vista de traza, las relaciones padre-hijo son correctas, los atributos son visibles en los detalles del span, los errores están resaltados.
En caso de fallo:
- Verificar la propagación de contexto: el contexto del span padre se pasa al hijo
- Verificar que los nombres de span sean descriptivos y sigan las convenciones de nomenclatura
- Asegurarse de que los spans se terminan (usar
en Go, bloquesdefer span.End()
en Python)with - Revisar los tipos de atributos: solo cadenas, enteros, booleanos, números de punto flotante
- Validar las convenciones semánticas: usar nombres de atributos estándar donde sea aplicable
Paso 4: Implementar Propagación de Contexto
Asegúrate de que el contexto de traza fluya a través de los límites de servicio y operaciones asíncronas.
Propagación de encabezados HTTP (W3C Trace Context):
# Client side (Python with requests) import requests from opentelemetry import trace from opentelemetry.propagate import inject tracer = trace.get_tracer(__name__) # ... (see EXAMPLES.md for complete configuration)
// Server side (Go with Gin) import ( "go.opentelemetry.io/otel" "go.opentelemetry.io/otel/propagation" ) # ... (see EXAMPLES.md for complete configuration)
Propagación de cola de mensajes (Kafka):
# Producer from opentelemetry.propagate import inject from kafka import KafkaProducer producer = KafkaProducer(bootstrap_servers=['kafka:9092']) # ... (see EXAMPLES.md for complete configuration)
# Consumer from opentelemetry.propagate import extract def process_message(msg): # Extract trace context from Kafka headers headers = {k: v.decode('utf-8') for k, v in msg.headers} ctx = extract(headers) # Continue the trace with tracer.start_as_current_span("process_order_event", context=ctx): order_id = json.loads(msg.value)['order_id'] handle_order(order_id)
Operaciones asíncronas (Python asyncio):
import asyncio from opentelemetry import trace, context async def async_operation(): # Capture current context token = context.attach(context.get_current()) try: with tracer.start_as_current_span("async_database_query"): await asyncio.sleep(0.1) # Simulated async work return "result" finally: context.detach(token)
Esperado: Las trazas abarcan múltiples servicios, los IDs de traza son consistentes entre límites de servicio, las relaciones padre-hijo se preservan.
En caso de fallo:
- Verificar que el propagador de W3C Trace Context esté configurado:
otel.propagation.set_global_textmap(TraceContextTextMapPropagator()) - Verificar que los encabezados se pasen en las solicitudes HTTP
- Para Kafka: asegurarse de que los encabezados sean soportados por la versión del broker (v0.11+)
- Depurar con inspección de encabezados: registrar el valor del encabezado
traceparent - Usar la visualización de trazas para identificar vínculos de traza rotos
Paso 5: Configurar Estrategias de Muestreo
Implementa el muestreo para reducir el volumen de trazas y el costo mientras se mantiene la visibilidad.
Estrategias de muestreo:
from opentelemetry.sdk.trace import TracerProvider from opentelemetry.sdk.trace.sampling import ( ParentBased, TraceIdRatioBased, StaticSampler, Decision # ... (see EXAMPLES.md for complete configuration)
Muestreo basado en cola con Tempo:
Configurar en
tempo.yaml:
overrides: defaults: metrics_generator: processors: [service-graphs, span-metrics] storage: path: /tmp/tempo/generator/wal remote_write: - url: http://prometheus:9090/api/v1/write send_exemplars: true # Tail sampling (requires tempo-query) ingestion_rate_limit_bytes: 5000000 ingestion_burst_size_bytes: 10000000
Usar TraceQL de Grafana Tempo para muestreo dinámico:
# Sample traces with errors { status = error } # Sample slow traces (>1s) { duration > 1s } # Sample specific services { resource.service.name = "checkout-service" }
Esperado: El volumen de trazas se reduce al porcentaje objetivo, las trazas con errores siempre se muestrean, la decisión de muestreo es visible en los metadatos de la traza.
En caso de fallo:
- Verificar que el muestreador se aplique antes de la inicialización del proveedor de rastreo
- Verificar el atributo de decisión de muestreo en los spans exportados
- Para el muestreo de cola: asegurarse de que haya suficiente buffer (
)ingestion_burst_size_bytes - Monitorear las trazas descartadas: métrica
otel_traces_dropped_total - Probar con tráfico sintético de alto volumen para validar la tasa de muestreo
Paso 6: Correlacionar Trazas con Métricas y Logs
Vincula las trazas con métricas y logs para observabilidad unificada.
Agregar IDs de traza a logs (Python):
import logging from opentelemetry import trace # Custom log formatter with trace context class TraceFormatter(logging.Formatter): def format(self, record): # ... (see EXAMPLES.md for complete configuration)
Generar métricas desde trazas (Tempo):
# tempo.yaml metrics_generator: registry: external_labels: cluster: production storage: # ... (see EXAMPLES.md for complete configuration)
Esto genera métricas de Prometheus:
- recuento de solicitudes entre serviciostraces_service_graph_request_total
- histograma de duración de spanstraces_span_metrics_duration_seconds
- recuentos de llamadas de spantraces_spanmetrics_calls_total
Consultar trazas desde métricas (Grafana):
Agrega soporte de exemplar a la fuente de datos de Prometheus en Grafana:
datasources: - name: Prometheus type: prometheus url: http://prometheus:9090 jsonData: exemplarTraceIdDestinations: - name: trace_id datasourceName: Tempo
En el dashboard de Grafana, habilitar los exemplares:
{ "fieldConfig": { "defaults": { "custom": { "showExemplars": true } } } }
Esperado: Al hacer clic en los exemplares de métricas se abre la traza, los logs muestran los IDs de traza, las trazas enlazan a los logs, depuración unificada entre señales.
En caso de fallo:
- Verificar que el soporte de exemplares esté habilitado en Prometheus (requiere v2.26+)
- Verificar el formato del ID de traza (hex de 32 caracteres)
- Asegurarse de que el generador de métricas esté habilitado en la configuración de Tempo
- Validar que el endpoint de escritura remota sea accesible desde Tempo
- Probar consultas de exemplares:
histogram_quantile(0.95, rate(http_request_duration_seconds_bucket[5m])) and on() exemplar
Validación
- El backend de rastreo recibe spans de todos los servicios instrumentados
- Las trazas muestran relaciones padre-hijo correctas entre servicios
- Los atributos de span incluyen convenciones semánticas y contexto de negocio
- El contexto se propaga correctamente a través de llamadas HTTP y colas de mensajes
- La estrategia de muestreo reduce el volumen de trazas al porcentaje objetivo
- Las trazas con errores siempre se muestrean (si se usa muestreo consciente de errores)
- Los IDs de traza aparecen en los logs de aplicación con el formato correcto
- Grafana muestra trazas vinculadas desde métricas mediante exemplares
- Los paneles de logs tienen vínculos de datos al visor de trazas
- La retención de trazas coincide con la política de almacenamiento configurada
Errores Comunes
- Contexto no propagado: Olvidar pasar
a las llamadas posteriores rompe las trazas. Siempre pasar el contexto explícitamente.context - Spans nunca terminados: La falta de
(Go) o bloquesdefer span.End()
(Python) causa que los spans permanezcan abiertos y pérdidas de memoria.with - Sobre-instrumentación: Crear spans para cada función causa inflación de trazas. Centrarse en los límites de servicio, llamadas de base de datos y APIs externas.
- Falta de registro de errores: No llamar a
pierde información valiosa de depuración. Siempre registrar errores en los spans.span.RecordError() - Atributos de alta cardinalidad: Usar valores ilimitados (IDs de usuario, cuerpos de solicitud) como atributos de span causa problemas de almacenamiento. Usar muestreo o etiquetas de agregación.
- Tipo de span incorrecto: Usar el tipo de span incorrecto (CLIENT vs SERVER vs INTERNAL) afecta la generación del gráfico de servicios. Seguir las convenciones semánticas.
- Muestreo antes del contexto: Las decisiones de muestreo deben respetar el contexto de traza padre. Usar el muestreador
para respetar el muestreo ascendente.ParentBased
Habilidades Relacionadas
- Depuración unificada con métricas, logs y trazas vinculadas por IDs de trazacorrelate-observability-signals
- Generar métricas desde trazas usando el generador de métricas de Temposetup-prometheus-monitoring
- Agregar IDs de traza a los logs para correlación con trazas distribuidasconfigure-log-aggregation
- Visualizar métricas derivadas de trazas y vínculos de exemplares en dashboardsbuild-grafana-dashboards