Volver a guíasGuía

Qué hacer cuando Loki se hunde por labels con demasiada cardinalidad

Diagnóstico, mitigaciones en el pipeline de ingestión y pasos para validar sin perder contexto operativo

Guía práctica para detectar y arreglar problemas de alta cardinalidad en labels que degradan o bloquean Loki: síntomas operativos, métricas y logs a revisar, cambios seguros en Promtail/ingest pipelines y comprobaciones de validación.

Creada: 13 de abril de 2026

Publicada: 13 de abril de 2026

Tiempo estimado60 min
NivelAvanzado
Antes de empezarAcceso a métricas de Loki (endpoint /metrics) y a sus logs
PlataformasDocker / Linux
WhatsAppXLinkedIn

Linux

Comandos de diagnóstico para instalaciones en Linux con systemd o paquetes, y ejemplos de inspección de métricas y procesos.

Acceso SSH al host que corre Loki y permisos sudo si correspondecurl y jq instalados para consultas
Comprobar estado del servicio Loki
systemctl status loki -l --no-pager
Extraer métricas de Loki y buscar streams activos
curl -s http://127.0.0.1:3100/metrics | grep loki_ingester_active_streams || true
Consultar la API de query_range para ver volumen de series por una etiqueta concreta (ejemplo seguro con tenant y job)
curl -s -G 'http://127.0.0.1:3100/loki/api/v1/query_range' --data-urlencode 'query=count_over_time({job="my-app"}[1h])' --data 'limit=100' | jq .

Contenido bloqueado

Esta guía requiere completar ambos pasos para leer el contenido completo.

  • Dale a “Me gusta” en la guía.
  • Comparte en WhatsApp, X, LinkedIn o copia el enlace.

Cuando se cumplan ambos pasos, el acceso se desbloquea automáticamente.