From fda2c2da8ebf2195f547380f346ff5d9e7969132 Mon Sep 17 00:00:00 2001
From: "webops-guacbot[bot]"
<214537265+webops-guacbot[bot]@users.noreply.github.com>
Date: Sat, 11 Oct 2025 15:07:24 +0000
Subject: [PATCH 1/8] Translated file updates
---
.../deployments/ciproviders.md | 26 +-
.../es/continuous_delivery/explorer/facets.md | 114 ++++
.../rollup-cardinality-visualizations.md | 85 +++
.../ddsql_preview/window_functions.md | 70 +++
.../ide_plugins/idea/continuous_profiler.md | 80 +++
.../capturing_handled_errors/python.md | 62 +++
content/es/error_tracking/explorer.md | 125 +++++
.../es/error_tracking/guides/enable_infra.md | 150 ++++++
content/es/error_tracking/troubleshooting.md | 55 ++
content/es/glossary/terms/security_agent.md | 7 +
content/es/integrations/agentprofiling.md | 67 +++
.../crest_data_systems_cofense_triage.md | 179 +++++++
.../crest_data_systems_whylabs.md | 145 ++++++
content/es/integrations/crowdstrike.md | 82 ++-
.../google_workspace_alert_center.md | 65 +--
content/es/integrations/gsuite.md | 114 ++--
content/es/integrations/hbase_master.md | 245 +++++++++
content/es/integrations/jira.md | 148 ++++++
.../es/integrations/juniper_srx_firewall.md | 246 +++++++++
.../kubernetes_cluster_autoscaler.md | 187 +++++++
content/es/integrations/kubevirt_api.md | 161 ++++++
content/es/integrations/lighttpd.md | 168 +++---
content/es/integrations/logzio.md | 59 +++
content/es/integrations/meraki.md | 182 +++----
content/es/integrations/orca_security.md | 114 ++++
content/es/integrations/snmp.md | 8 +-
content/es/integrations/tekton.md | 135 +++++
content/es/integrations/temporal_cloud.md | 136 +++++
content/es/integrations/tibco_ems.md | 190 +++++++
.../trend_micro_email_security.md | 116 +++++
.../trend_micro_vision_one_xdr.md | 125 +++++
content/es/integrations/velero.md | 195 +++++++
content/es/integrations/wazuh.md | 252 +++++++++
.../scorecards/scorecard_configuration.md | 133 +++++
.../destinations/crowdstrike_ng_siem.md | 31 ++
.../get_started_with_the_custom_processor.md | 478 +++++++++++++++++
.../run_multiple_pipelines_on_a_host.md | 137 +++++
.../integrations/apache_metrics.md | 38 ++
.../integrations/nginx_metrics.md | 39 ++
content/es/opentelemetry/mapping/_index.md | 2 +-
.../opentelemetry/setup/otlp_ingest/_index.md | 34 ++
.../guide/rum_and_product_analytics.md | 87 ++++
.../profiler/profiler_troubleshooting/java.md | 105 ++--
.../profiler_troubleshooting/nodejs.md | 62 +++
.../browser/setup/server/ibm.md | 126 +++++
.../browser/setup/server/nginx.md | 213 ++++++++
.../react_native/setup/expo.md | 295 +++++++++++
content/es/security/access_control.md | 42 ++
.../application_security/setup/php.md | 115 ++++
.../application_security/setup/ruby.md | 238 +++++++++
.../threats/protection.md | 126 +++++
.../threats/setup/compatibility/envoy.md | 31 ++
.../threats/setup/compatibility/nginx.md | 32 ++
.../threats/setup/standalone/dotnet.md | 215 ++++++++
.../standalone/gcp-service-extensions.md | 489 ++++++++++++++++++
.../threats/setup/standalone/go.md | 131 +++++
.../review_remediate/jira.md | 28 +-
.../setup/agent/ecs_ec2.md | 176 +++----
.../setup/cloud_integrations.md | 77 +++
.../vulnerabilities/_index.md | 6 -
.../aws_lambda/distributed_tracing.md | 107 ++--
.../migrating-from-your-current-providers.md | 154 ++++++
.../synthetics/browser_tests/test_results.md | 8 +-
.../es/synthetics/guide/email-validation.md | 9 +-
content/es/tests/browser_tests.md | 70 +++
content/es/tests/troubleshooting/_index.md | 72 ++-
.../es/tracing/trace_explorer/visualize.md | 56 +-
content/fr/api/latest/_index.md | 2 +-
.../billing/custom_metrics.md | 37 +-
.../datadog_operator/secret_management.md | 251 +++++++++
.../environments/multiple_env.md | 151 ++++++
.../setup/otlp_ingest_in_the_agent.md | 324 ++++++++++++
.../service_definitions/v3-0.md | 396 ++++++++++++++
.../explore/results_explorer/search_runs.md | 272 ++++++++++
.../install_worker/docker.es.md | 17 +
.../datadog_archives_amazon_s3.es.md | 1 +
.../prerequisites/fluent.es.md | 4 +
77 files changed, 8870 insertions(+), 640 deletions(-)
create mode 100644 content/es/continuous_delivery/explorer/facets.md
create mode 100644 content/es/dashboards/guide/rollup-cardinality-visualizations.md
create mode 100644 content/es/ddsql_reference/ddsql_preview/window_functions.md
create mode 100644 content/es/developers/ide_plugins/idea/continuous_profiler.md
create mode 100644 content/es/error_tracking/backend/capturing_handled_errors/python.md
create mode 100644 content/es/error_tracking/explorer.md
create mode 100644 content/es/error_tracking/guides/enable_infra.md
create mode 100644 content/es/error_tracking/troubleshooting.md
create mode 100644 content/es/glossary/terms/security_agent.md
create mode 100644 content/es/integrations/agentprofiling.md
create mode 100644 content/es/integrations/crest_data_systems_cofense_triage.md
create mode 100644 content/es/integrations/crest_data_systems_whylabs.md
create mode 100644 content/es/integrations/hbase_master.md
create mode 100644 content/es/integrations/jira.md
create mode 100644 content/es/integrations/juniper_srx_firewall.md
create mode 100644 content/es/integrations/kubernetes_cluster_autoscaler.md
create mode 100644 content/es/integrations/kubevirt_api.md
create mode 100644 content/es/integrations/logzio.md
create mode 100644 content/es/integrations/orca_security.md
create mode 100644 content/es/integrations/tekton.md
create mode 100644 content/es/integrations/temporal_cloud.md
create mode 100644 content/es/integrations/tibco_ems.md
create mode 100644 content/es/integrations/trend_micro_email_security.md
create mode 100644 content/es/integrations/trend_micro_vision_one_xdr.md
create mode 100644 content/es/integrations/velero.md
create mode 100644 content/es/integrations/wazuh.md
create mode 100644 content/es/internal_developer_portal/scorecards/scorecard_configuration.md
create mode 100644 content/es/observability_pipelines/destinations/crowdstrike_ng_siem.md
create mode 100644 content/es/observability_pipelines/guide/get_started_with_the_custom_processor.md
create mode 100644 content/es/observability_pipelines/set_up_pipelines/run_multiple_pipelines_on_a_host.md
create mode 100644 content/es/opentelemetry/integrations/apache_metrics.md
create mode 100644 content/es/opentelemetry/integrations/nginx_metrics.md
create mode 100644 content/es/opentelemetry/setup/otlp_ingest/_index.md
create mode 100644 content/es/product_analytics/guide/rum_and_product_analytics.md
create mode 100644 content/es/profiler/profiler_troubleshooting/nodejs.md
create mode 100644 content/es/real_user_monitoring/browser/setup/server/ibm.md
create mode 100644 content/es/real_user_monitoring/browser/setup/server/nginx.md
create mode 100644 content/es/real_user_monitoring/mobile_and_tv_monitoring/react_native/setup/expo.md
create mode 100644 content/es/security/access_control.md
create mode 100644 content/es/security/application_security/setup/php.md
create mode 100644 content/es/security/application_security/setup/ruby.md
create mode 100644 content/es/security/application_security/threats/protection.md
create mode 100644 content/es/security/application_security/threats/setup/compatibility/envoy.md
create mode 100644 content/es/security/application_security/threats/setup/compatibility/nginx.md
create mode 100644 content/es/security/application_security/threats/setup/standalone/dotnet.md
create mode 100644 content/es/security/application_security/threats/setup/standalone/gcp-service-extensions.md
create mode 100644 content/es/security/application_security/threats/setup/standalone/go.md
create mode 100644 content/es/security/cloud_security_management/setup/cloud_integrations.md
create mode 100644 content/es/service_management/on-call/guides/migrating-from-your-current-providers.md
create mode 100644 content/es/tests/browser_tests.md
create mode 100644 content/ja/containers/datadog_operator/secret_management.md
create mode 100644 content/ja/continuous_testing/environments/multiple_env.md
create mode 100644 content/ja/opentelemetry/setup/otlp_ingest_in_the_agent.md
create mode 100644 content/ja/software_catalog/service_definitions/v3-0.md
create mode 100644 content/ja/synthetics/explore/results_explorer/search_runs.md
create mode 100644 layouts/shortcodes/observability_pipelines/configure_existing_pipelines/install_worker/docker.es.md
create mode 100644 layouts/shortcodes/observability_pipelines/destination_env_vars/datadog_archives_amazon_s3.es.md
create mode 100644 layouts/shortcodes/observability_pipelines/prerequisites/fluent.es.md
diff --git a/content/es/continuous_delivery/deployments/ciproviders.md b/content/es/continuous_delivery/deployments/ciproviders.md
index b47df3bfda172..e957134a4e751 100644
--- a/content/es/continuous_delivery/deployments/ciproviders.md
+++ b/content/es/continuous_delivery/deployments/ciproviders.md
@@ -7,29 +7,29 @@ further_reading:
text: Más información sobre Deployment Visibility
- link: /continuous_delivery/explorer
tag: Documentación
- text: Aprende a consultar y visualizar las ejecuciones de despliegue
+ text: Aprende a consultar y visualizar los despliegues
is_beta: true
title: Monitorizar los despliegues de proveedores de CI
---
-{{< callout url="https://docs.google.com/forms/d/e/1FAIpQLScNhFEUOndGHwBennvUp6-XoA9luTc27XBwtSgXhycBVFM9yA/viewform?usp=sf_link" btn_hidden="false" header="¡Únete a la vista previa!" >}}
-CD Visibility para despliegues de proveedor de CI está en vista previa. Si te interesa esta característica, completa el formulario para acceder.
+{{< callout url="https://docs.google.com/forms/d/e/1FAIpQLScNhFEUOndGHwBennvUp6-XoA9luTc27XBwtSgXhycBVFM9yA/viewform?usp=sf_link" btn_hidden="false" header="Únete a la vista previa" >}}
+CD Visibility para los despliegues del proveedor de CI está en vista previa. Si estás interesado en esta función, completa el formulario para solicitar acceso.
{{< /callout >}}
## Información general
-Se pueden realizar [Despliegues][10] en tus pipelines de integración continua (CI). En general, estos pipelines tienen un paso de despliegue que se ejecuta después que el código fuente se pruebe y la imagen esté creada.
+Los [Despliegues][10] pueden realizarse en tus pipelines de integración continua (CI). Típicamente, estos pipelines tienen un paso de despliegue que se ejecuta después de que el código fuente se testea y la imagen se construye.
-Si estás ejecutando despliegues mediante un proveedor de CI, puedes monitorizar tus despliegues con Deployment Visibility. Asegúrate de que se cumplan los siguientes requisitos:
+Si estás ejecutando despliegues utilizando un proveedor de CI, puedes monitorizar tus despliegues con Deployment Visibility. Asegúrate de que se cumplen los siguientes requisitos:
-1. Estás usando [Pipeline Visibility][1] para monitorizar tus pipelines de CI.
-2. Tu proveedor de CI admite la característica **Custom tags and measures at runtime** (Etiquetas y medidas personalizadas en el tiempo de ejecución), que te permite añadir [texto y etiquetas numéricas definidas por el usuario][2] a los pipelines y trabajos en Pipeline Visibility.
-3. Estás ejecutando despliegues en un trabajo de CI (o un [nivel relacionado][9] en tu proveedor de CI). El concepto de un trabajo de CI puede variar según tu proveedor. Para obtener más información sobre cómo Datadog define un trabajo de Ci, consulta la [sección Terminología][9].
+1. Estás utilizando [Pipeline Visibility][1] para monitorizar tus pipelines de CI.
+2. Tu proveedor de CI admite la función **Etiquetas y medidas personalizadas en tiempo de ejecución**, que te permite añadir [etiquetas numéricas y de texto definidas por el usuario][2] a pipelines y trabajos en Pipeline Visibility.
+3. Estás ejecutando despliegues en un trabajo de CI (o un [nivel relacionado][9] en tu proveedor de CI). El concepto de un trabajo de CI puede variar dependiendo de tu proveedor. Para más información sobre cómo Datadog define un trabajo de CI, consulta la [sección Terminología][9].
-## Configuración
+## Configurar
Para configurar CD Visibility, utiliza el comando `datadog-ci deployment mark` dentro del trabajo de CI que está realizando el despliegue.
@@ -55,8 +55,8 @@ Utiliza `--no-fail` (por defecto: `false`) para evitar que el comando de desplie
Si estás utilizando acciones de GitHub como tu proveedor de CI, consulta la [sección siguiente][11] para consideraciones adicionales.
-Una vez que hayas añadido el comando a un trabajo de CI, la [página **Deployments** (Despliegues)][5] y el [Deployment Executions Explorer][6] se rellenan con datos después de que se ejecuten los pipelines.
-Para obtener más información, consulta [Buscar y gestionar despliegues][7] y la [documentación del CD Visibility Explorer][8].
+Una vez que hayas añadido el comando a un trabajo de CI, la [página **Despliegues**][5] y la [página Ejecuciones de despliegue][6] se rellenan con datos después de que se ejecuten pipelines.
+Para obtener más información, consulta [Explorar despliegues de CD Visibility][8].
### Ejemplos
@@ -120,7 +120,7 @@ la variable de entorno `DD_GITHUB_JOB_NAME` necesita ser expuesta, apuntando al
- run: datadog-ci deployment mark ...
```
-## Leer más
+## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
diff --git a/content/es/continuous_delivery/explorer/facets.md b/content/es/continuous_delivery/explorer/facets.md
new file mode 100644
index 0000000000000..04a3e914884c8
--- /dev/null
+++ b/content/es/continuous_delivery/explorer/facets.md
@@ -0,0 +1,114 @@
+---
+description: Conoce las facetas para filtrar y agrupar tus ejecuciones de despliegue.
+further_reading:
+- link: continuous_delivery/explorer/
+ tag: Documentación
+ text: Aprende a consultar y visualizar los despliegues
+title: Facetas de ejecución del despliegue
+---
+
+{{< callout url="https://docs.google.com/forms/d/e/1FAIpQLScNhFEUOndGHwBennvUp6-XoA9luTc27XBwtSgXhycBVFM9yA/viewform?usp=sf_link" btn_hidden="false" header="Únete a la vista previa" >}}
+CD Visibility está en Vista previa. Si te interesa esta función, rellena el formulario para solicitar acceso.
+{{< /callout >}}
+
+## Información general
+
+Las facetas son etiquetas y atributos definidos por el usuario a partir de tus pipelines. Son útiles para el análisis de datos tanto [cualitativo](#qualitative-facets) como [cuantitativo](#quantitative-measures). Las facetas te permiten manipular tus despliegues en las consultas de búsqueda que aparecen en [dashboards][2] y en [notebools][3].
+
+[Crear facetas](#creating-facets) no es **necesario** para [buscar ejecuciones de despliegue][5]. Las capacidades de autocompletar utilizan las facetas existentes, pero también se aplica cualquier entrada que coincida con las ejecuciones de despliegue entrantes.
+
+La [página de Ejecuciones de despliegue][4] incluye facetas predefinidas como `Environment`, `Deployment Status` y `Deployment Provider`. Puedes utilizar facetas en el CD Visibility Explorer para:
+
+- [Buscar y filtrar ejecuciones de despliegue][5].
+- Realizar análisis de despliegue o de entorno.
+- Comienza a solucionar los problemas una vez finalizado el despliegue.
+
+Navega a [**Software Delivery** > **CD Visibility** > **Executions**][4] (Entrega de software > CD Visibility > Ejecuciones) para acceder a la lista de facetas a la izquierda de la lista de ejecuciones de despliegue.
+
+{{< img src="/continuous_delivery/explorer/facets.png" text="Lista de facetas en la página de Ejecuciones de despliegue en el CD Visibility Explorer" style="width:100%" >}}
+
+### Facetas cualitativas
+
+Utiliza facetas cualitativas cuando tengas que hacer lo siguiente:
+
+- **Obtener información relativa** de los valores.
+- **Contar valores únicos**.
+- Con frecuencia **filtra** tus ejecuciones de despliegue en función de determinados valores. Por ejemplo, utiliza la faceta de la etiqueta de entorno para limitar la solución de problemas a los entornos de desarrollo, preparación o producción.
+
+**Nota:** Aunque las facetas no son necesarias para filtrar las etiquetas, la definición de facetas para las etiquetas que se utilizan durante las investigaciones puede reducir el tiempo de resolución.
+
+### Medidas cuantitativas
+
+Utiliza medidas cuantitativas cuando necesites:
+
+- **Agrega** valores de múltiples ejecuciones de despliegue.
+- **Filtra por rangos** tus ejecuciones de despliegue.
+- **Ordena** tus ejecuciones de despliegue en función de ese valor.
+
+#### Tipos
+
+Las medidas tienen un valor entero largo o doble para capacidades equivalentes.
+
+#### Unidades
+
+Las medidas admiten unidades (**tiempo** en segundos o **tamaño** en bytes) para manejar órdenes de magnitud en tiempo de consulta y tiempo de visualización. La unidad es una propiedad de la propia medida, no del campo.
+
+Por ejemplo, considera una medida `duration` en nanosegundos. Supongamos que los despliegues de `env:staging` tienen `duration:10000000`, lo que significa `10 milliseconds`. Supongamos que los despliegues de `env:qa` tienen `duration:5000000`, que significa `5 milliseconds`. Utiliza `duration:>2ms` para consultar de forma coherente las etiquetas de ejecución de despliegue de ambos entornos a la vez. Para obtener más información sobre las consultas de búsqueda, consulta [Sintaxis de búsqueda][6].
+
+## Panel de facetas
+
+La barra de búsqueda ofrece el conjunto más completo de interacciones para filtrar y agrupar los datos. Sin embargo, en muchos casos, el panel de facetas es una forma más sencilla de navegar por tus datos. Abre una faceta para ver un resumen de su contenido en el contexto de la consulta actual.
+
+La barra de búsqueda y la URL reflejan automáticamente las opciones seleccionadas del panel de facetas.
+
+- Las **Facetas (cualitativas)** vienen con una lista principal de valores únicos y un recuento de ejecuciones de despliegue que coinciden con cada uno de ellos.
+- Las **medidas (cuantitativas)** incluyen un regulador que indica los valores mínimo y máximo. Utiliza este regulador o indica valores numéricos para seleccionar diferentes límites del contexto de la consulta de búsqueda.
+
+### Agrupar facetas
+
+Las facetas se agrupan en temas significativos en la lista de facetas. Asignar o reasignar un grupo a una faceta solo afecta a la lista de facetas, y no tiene ningún impacto en la búsqueda o los análisis.
+
+### Filtrar facetas
+
+Utiliza el cuadro de facetas de búsqueda del panel de facetas para examinar toda la lista de facetas y navegar hasta la faceta con la que deseas interactuar. *Buscar facetas* utiliza el nombre de la faceta y el nombre del campo para delimitar los resultados.
+
+## Crear facetas
+
+No es necesario crear una faceta en un atributo o etiqueta de ejecución de despliegue para buscar ejecuciones de despliegue. Las facetas son útiles si deseas añadir una descripción significativa a un atributo de ejecución de despliegue específico, o si deseas que los valores del atributo aparezcan en la lista de facetas.
+
+### Creación de facetas desde el panel lateral de Detalles de despliegue
+
+Crea una faceta desde el panel lateral de Detalles de despliegue para que la mayoría de los detalles de la faceta estén rellenados previamente.
+
+{{< img src="continuous_delivery/explorer/create_facet.png" alt="Crea una faceta desde el panel lateral de Detalles de despliegue" style="width:100%;">}}
+
+1. Navega hasta una ejecución de despliegue de interés en la [página de Ejecuciones de despliegue][4] que contenga el campo sobre el que crear una faceta.
+2. Abre el panel lateral de Detalles de despliegue seleccionando la ejecución del despliegue de la lista.
+3. Haz clic en el campo deseado y crea una faceta a partir de ahí:
+
+ - Si el campo contiene un valor numérico, puedes crear una faceta o una medida.
+ - Si el campo contiene un valor de cadena, solo está disponible la creación de facetas.
+
+### Crear facetas a partir de la lista de facetas
+
+Si no es posible encontrar una ejecución de despliegue que contenga el campo deseado, crea una faceta directamente desde el panel de facetas haciendo clic en **+ Add** (+ Añadir).
+
+{{< img src="continuous_delivery/explorer/add_facet.png" alt="Añade una faceta desde el panel lateral de facetas" style="width:30%;">}}
+
+Define el nombre del campo subyacente (clave) de esta faceta:
+
+- Utiliza el nombre de la clave de etiqueta para las etiquetas de entorno.
+- Utiliza la ruta de atributos para los atributos de ejecución de despliegue, con el prefijo `@`.
+
+La función de autocompletar basada en el contenido de las ejecuciones de despliegue de las vistas actuales te ayuda a definir el nombre de campo adecuado. Pero puedes utilizar prácticamente cualquier valor aquí, específicamente en caso que aún no tienes ejecuciones de despliegue coincidentes recibidas por Datadog.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/monitors/types/ci
+[2]: /es/dashboards/
+[3]: /es/notebooks/
+[4]: https://app.datadoghq.com/ci/deployments/executions
+[5]: /es/continuous_delivery/explorer#deployment-executions
+[6]: /es/continuous_delivery/explorer/search_syntax
\ No newline at end of file
diff --git a/content/es/dashboards/guide/rollup-cardinality-visualizations.md b/content/es/dashboards/guide/rollup-cardinality-visualizations.md
new file mode 100644
index 0000000000000..8bcfd5267da95
--- /dev/null
+++ b/content/es/dashboards/guide/rollup-cardinality-visualizations.md
@@ -0,0 +1,85 @@
+---
+description: Aprende cómo afecta la función de rollup a la cardinalidad en las visualizaciones
+ y cómo interpretar correctamente los resultados.
+further_reading:
+- link: /dashboards/functions/rollup/
+ tag: Documentación
+ text: Más información sobre la función de rollup
+title: Comprender la función de rollup y la cardinalidad en visualizaciones
+---
+
+{{< jqmath-vanilla >}}
+
+## Información general
+
+Las visualizaciones en el análisis de datos a menudo se basan en funciones de agregación para resumir los datos a lo largo del tiempo. Un problema habitual surge cuando la función de rollup y las medidas de cardinalidad distintas o únicas interactúan entre sí, lo que provoca resultados inesperados al visualizar los datos.
+
+Combinando las expectativas con la naturaleza de los resultados de rollup y empleando consultas claras puedes obtener información valiosa sobre tus datos. En este documento se explica el mecanismo de la función de rollup, especialmente en el contexto de la cardinalidad, y se proporcionan prácticas recomendadas para interpretar con precisión los resultados de las visualizaciones.
+
+## Comprender la cardinalidad en las series temporales
+
+Supongamos que realizas un seguimiento de los usuarios que visitan un sitio web. Cada día observas a 100 usuarios, lo que te lleva a suponer que en siete días obervarás a un total de 700 usuarios. Sin embargo, el número real de usuarios **únicos** a lo largo de la semana podría ser de 400, ya que muchos usuarios visitan el sitio web varios días. Esta discrepancia se debe a que cada periodo de tiempo (por ejemplo, cada día) cuenta de forma independiente los usuarios únicos, lo que infla el total en comparación con un periodo de tiempo de rollup único y más largo.
+
+Este resultado contraintuitivo se debe a la cardinalidad, que se refiere a cómo se cuentan los elementos únicos de un conjunto de datos. La cardinalidad de cada bucket temporal puede ser compleja. Al analizar los usuarios, considera la siguiente pregunta: "¿Cuántos usuarios *únicos* visitaron el sitio cada día de esta semana?". Si un usuario visita el sitio dos días distintos, cuenta como único para cada día.
+
+### Cómo afecta el rollup a los promedios
+
+La función de [rollup][1] también influye significativamente en la forma en que se calculan y muestran los promedios en las visualizaciones:
+
+- **Efecto suavizante**:
+ - Los periodos de tiempo más cortos (rollups de 5 minutos) muestran picos y variaciones más detallados.
+ - Los periodos de tiempo más largos (rollups de 30 minutos) crean gráficos más suaves.
+
+- **Cálculos de promedios**:
+ - En periodos de tiempo más cortos, los promedios pueden ser más bajos, ya que Datadog solo capta a los usuarios en ese momento exacto.
+ - En periodos de tiempo más largos, los promedios pueden ser más altos, ya que Datadog capta más casos de usuarios que utilizan distintos dispositivos.
+
+## Ejemplo: Cómo afecta el rollup al recuento de usuarios únicos
+
+Las visualizaciones muestran la suma de valores en diferentes intervalos, lo que puede crear confusión cuando se comparan totales a lo largo de periodos de tiempo. Por ejemplo, un gráfico puede mostrar diferentes totales para la misma métrica cuando se visualiza en diferentes escalas de tiempo (como intervalos de 5 minutos frente a intervalos de 30 minutos). Esta diferencia se produce porque los usuarios pueden contarse varias veces en intervalos de tiempo más cortos, pero solo una vez en intervalos de tiempo más largos.
+
+Esta sección presenta un ejemplo que demuestra cómo interactúan en la práctica las funciones rollup y la cardinalidad. Consideremos un sitio web que realiza un seguimiento de las sesiones de usuarios en móviles y ordenadores.
+
+Cuando se toma un promedio de sesiones en móviles y se procede a su rollup cada 30 minutos, se obtiene una versión suavizada del gráfico. Este efecto de suavizado es un resultado natural de la función de rollup, que facilita la interpretación de las tendencias a largo plazo.
+
+{{< img src="/dashboards/guide/rollup-cardinality-visualizations/pct_total_mobile_sessions.png" alt="Gráfico de líneas que muestra el porcentaje de sesiones totales en móviles con un rollup cada 5 minutos (línea púrpura), en comparación con 30 minutos (línea rosada). La línea púrpura presenta picos, mientras que la línea rosada es pareja y se superpone con la línea azul." style="width:100%;" >}}
+
+{{% collapse-content title="Configuración" level="h4" expanded=false %}}
+{{< img src="/dashboards/guide/rollup-cardinality-visualizations/pct_total_mobile_sessions_config.png" alt="Configuración que muestra los parámetros de consulta del procentaje de sesiones móviles totales con la función de rollupt aplicada" style="width:100%;" >}}
+{{% /collapse-content %}}
+
+Sin embargo, cuando se agrupan por usuarios, los dos gráficos no se superponen: el gráfico de 30 minutos es significativamente superior al de 5 minutos. Esto puede parecer un error a primera vista, pero en realidad está mostrando cómo interactúan los usuarios con el servicio en distintos periodos de tiempo.
+
+{{< img src="/dashboards/guide/rollup-cardinality-visualizations/pct_unique_users_mobile.png" alt="Gráfico de líneas que muestra el porcentaje de usuarios únicos en móviles con un rollup cada 5 minutos (línea púrpura), en comparación con 30 minutos (línea rosada). La línea rosada pareja es más alta que la línea púrpura con picos" style="width:100%;" >}}
+
+{{% collapse-content title="Configuration" level="h4" expanded=false %}}
+{{< img src="/dashboards/guide/rollup-cardinality-visualizations/pct_unique_users_mobile_config.png" alt="Configuración que muestra los parámetros de consulta del procentaje de usuarios únicos en móviles con la función de rollupt de 5 y 30 minutos aplicada" style="width:100%;" >}}
+{{% /collapse-content %}}
+
+El siguiente gráfico muestra los rollups de 5 minutos en comparación con los de 30 minutos para usuarios en móviles distintos y usuarios totales distintos. Como los rollups de 30 minutos son naturalmente mayores que los de 5 minutos, este gráfico muestra los rollups de 30 minutos reducidos por un factor de 0,75. Para el total de usuarios distintos, los rollups de 5 y 30 minutos coinciden aproximadamente. Sin embargo, para los usuarios en móviles distintos, el rollup de 30 minutos es significativamente mayor que el rollup de 5 minutos. ¿Por qué?
+
+{{< img src="/dashboards/guide/rollup-cardinality-visualizations/count_total_mobile_users.png" alt="Gráfico de líneas que muestra cuatro líneas: usuarios totales distintos (rollup de 5 minutos), usuarios totales distintos (rollup de 30 minutos), usuarios en móviles distintos (rollup de 5 minutos), usuarios en móviles distintos (rollup de 30 minutos)." style="width:100%;" >}}
+
+{{% collapse-content title="Configuration" level="h4" expanded=false %}}
+{{< img src="/dashboards/guide/rollup-cardinality-visualizations/count_total_mobile_users_config.png" alt="Configuración de la comparación de rollups escalados" style="width:100%;" >}}
+{{% /collapse-content %}}
+
+Esto ocurre porque cuando un usuario aparece varias veces durante un periodo de rollup, aparece una vez en el denominador pero varias veces en el numerador.
+
+$$\text"cardinality:@usr.name[@type:session @device.type:Mobile]" / \text"cardinality:@usr.name[@type:session]" * 100\$$
+
+Otra forma de entenderlo es que cuando un usuario aparece varias veces en un periodo, cada aparición representa una oportunidad de aparecer en el numerador. En un periodo de tiempo más largo, cada usuario aparecerá más veces, creando más oportunidades de (en este caso) ver la página en el móvil.
+
+Para ilustrar esto de forma concreta, imaginemos que los usuarios consultan el sitio web en el ordenador durante el día y solo lo hacen en el móvil durante sus trayectos matutinos o verpertinos. Si la mitad lo consulta por la mañana, la otra mitad por la tarde y la otra mitad en ambos casos (lo que deja una cuarta parte que no lo consulta en el móvil):
+
+* Un rollup de 12 horas mostraría que el 50% de los usuarios consultan el móvil de medianoche a mediodía (trayecto matutino) y el 50% de mediodía a medianoche (trayecto vespertino).
+
+* Un rollup de 24 horas mostraría que el 75% de los usuarios consultan el móvil (en ambos trayectos).
+
+Del mismo modo, un rollup de 1 hora puede mostrar que el 10-20% de los usuarios consultan el móvil durante sus horas de trayecto y <1% durante las horas que no están en ningún trayecto. Este porcentaje es mucho menor que el de los periodos más largos, pero sigue siendo correcto.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/dashboards/functions/rollup/
\ No newline at end of file
diff --git a/content/es/ddsql_reference/ddsql_preview/window_functions.md b/content/es/ddsql_reference/ddsql_preview/window_functions.md
new file mode 100644
index 0000000000000..a79ab8b3632e7
--- /dev/null
+++ b/content/es/ddsql_reference/ddsql_preview/window_functions.md
@@ -0,0 +1,70 @@
+---
+aliases:
+- /es/dashboards/ddsql_editor/reference/window_functions/
+- /es/ddsql_editor/reference/window_functions/
+private: true
+title: Funciones de ventana DDSQL (Vista previa)
+---
+
+## Información general
+
+Una función de ventana aplica una agregación a un subconjunto de las filas seleccionadas por una consulta. Las filas seleccionadas se conservan en el resultado de la consulta, en lugar de agruparse en una única fila como ocurriría en una agregación sin ventana.
+
+Para obtener más información sobre el funcionamiento de las funciones de ventana, consulta la [documentación de Postgres para funciones de ventana][1].
+
+## Sintaxis
+
+{{< code-block lang="sql" >}}
+function_name ([expression [, expression ...]]) OVER (
+ [ PARTITION BY expression [, ...] ]
+ [ ORDER BY expression [ ASC | DESC ] [ NULLS { FIRST | LAST } ] [, ...] ]
+ [ frame_clause ]
+)
+{{< /code-block >}}
+
+La `frame_clause` opcional tiene la siguiente sintaxis:
+
+{{< code-block lang="sql" >}}
+{ RANGE | ROWS } frame_start
+| { RANGE | ROWS } BETWEEN frame_start AND frame_end
+{{< /code-block >}}
+
+Las expresiones `frame_start` y `frame_end` pueden ser una de las siguientes:
+
+- `UNBOUNDED PRECEDING`
+- `offset PRECEDING`
+- `CURRENT ROW`
+- `offset FOLLOWING`
+- `UNBOUNDED FOLLOWING`
+
+## Funciones
+
+Las siguientes funciones pueden utilizarse en ventanas, junto con [funciones de agregación][2].
+
+### número_de_fila
+| Nombre | Tipo de devolución | Descripción |
+|------|-------------|-------------|
+| número_filas() | entero | Devuelve el número de la fila actual dentro de su partición, contando desde 1. |
+
+### rango
+| Nombre | Tipo de devolución | Descripción |
+|------|-------------|-------------|
+| rango() | entero | Devuelve el rango de la fila actual, con espacios (el `row_number` de la primera fila en su grupo de pares). |
+
+### rango_denso
+| Nombre | Tipo de devolución | Descripción |
+|------|-------------|-------------|
+| rango_denso() | entero | Devuelve el rango de la fila actual, sin espacios. Esta función efectivamente cuenta grupos de pares. |
+
+### primer_valor
+| Nombre | Tipo de devolución | Descripción |
+|------|-------------|-------------|
+| primer_valor(valor *T*) | *T* | Devuelve el valor evaluado en la fila que es la primera fila del marco de la ventana. |
+
+### último_valor
+| Nombre | Tipo de devolución | Descripción |
+|------|-------------|-------------|
+| último_valor(valor *T*) | *T* | Devuelve el valor evaluado en la fila que es la última fila del marco de la ventana. |
+
+[1]: https://www.postgresql.org/docs/current/sql-expressions.html#SYNTAX-WINDOW-FUNCTIONS
+[2]: /es/ddsql_reference/ddsql_preview/functions/#aggregation-functions
\ No newline at end of file
diff --git a/content/es/developers/ide_plugins/idea/continuous_profiler.md b/content/es/developers/ide_plugins/idea/continuous_profiler.md
new file mode 100644
index 0000000000000..ca580444f45b3
--- /dev/null
+++ b/content/es/developers/ide_plugins/idea/continuous_profiler.md
@@ -0,0 +1,80 @@
+---
+further_reading:
+- link: /getting_started/profiler/
+ tag: Documentación
+ text: Empezando con Continuous Profiler.
+- link: /integrations/guide/source-code-integration/
+ tag: Documentación
+ text: Más información sobre la integración del código fuente.
+title: Continuous Profiler
+type: documentación
+---
+
+## Información general
+El **Continuous Profiler** destaca el consumo de recursos (como CPU, asignación de memoria y excepciones lanzadas) utilizando datos de perfiles recopilados de servicios desplegados. Esta información ayuda a los desarrolladores a eliminar cuellos de botella y escribir código más eficiente.
+
+## Pestaña del Profiler
+
+La pestaña Continuous Profiler muestra información de perfiles del servicio en un entorno seleccionado, agregada en un periodo de tiempo específico. Las vistas disponibles son:
+- [Lista principal](#top-list): muestra una lista de los métodos que consumen más recursos para la medida de perfil actual.
+- [Gráfico de llamas](#flame-graph): un gráfico de llamas que representa stack traces en los perfiles.
+
+Puedes especificar los siguientes parámetros para los datos de perfiles:
+- El tipo de perfil que se mostrará
+- El entorno en el que se ejecuta el servicio
+- El plazo para agregar las muestras de perfiles
+
+Los tipos de perfiles disponibles suelen incluir opciones como **CPU Time** (Tiempo de CPU) y **Allocated Memory** (Memoria asignada), pero vienen determinados por la plataforma y varían según el idioma.
+
+## Lista principal
+
+La subpestaña **Top List** (Lista principal) muestra los métodos que consumen más recursos según los datos de perfil agregados cargados desde los servidores de Datadog. Estos son los métodos que son candidatos más probables para la optimización.
+
+{{< img src="/developers/ide_plugins/idea/continuous_profiler/top-list.png" alt="Vista de los principales" style="width:100%;" >}}
+
+- Haz doble clic en un elemento de la lista (o selecciona **Jump to Source** (Saltar a la fuente) en el menú contextual) para abrir un editor de código fuente que muestra dónde está definido el método.
+- Para visualizar un gráfico de llama de un método, selecciona **Search in Flame Graph** (Buscar en gráfico de llama) en el menú contextual.
+
+### Árbol de llamadas
+
+El árbol de llamadas situado a la derecha de **Top List** (Lista principal) muestra las rutas que conducen a (y desde) el método seleccionado.
+
+La vista por defecto **Caller Hierarchy** (Jerarquía de llamadas) muestra quién hizo la llamada (o predecesores) del método de destino y la frecuencia con la que aparecen en la pila de llamadas. Para ver los invocadores (o sucesores), haz clic en el botón **Callee Hierarchy** (Jerarquía de invocadores) en la barra de herramientas.
+
+Haz clic con el botón derecho en un método del árbol de llamadas para ver las opciones de navegación al editor de fuentes o al gráfico de llamas.
+
+## Gráfico de llama
+
+Un gráfico de llama es una visualización de muestras de perfiles que muestra trazas de stack tecnológico y su frecuencia relativa durante el periodo de muestreo. El complemento Datadog recopila varios perfiles individuales del intervalo de tiempo solicitado y los agrega. Cada perfil individual cubre un intervalo de 60 segundos dentro del marco de tiempo solicitado.
+
+{{< img src="/developers/ide_plugins/idea/continuous_profiler/flamegraph.png" alt="Gráfico de llama que muestra tiempo de CPU durante la última hora" style="width:100%;" >}}
+
+Cada vez que cambies el tipo de perfil, el marco temporal o el entorno, el plugin de Datadog genera un nuevo gráfico de llama.
+
+Puedes navegar por el gráfico de llamas de varias maneras:
+- Haz doble clic en cualquier marco para centrarte en ese método y en todos los métodos llamados durante el periodo de muestreo.
+- Utiliza el minimapa para desplazarte por el gráfico.
+- Haz clic con el botón derecho en un método y selecciona **Jump to Source** (Saltar a la fuente) para ir al punto correspondiente del código fuente.
+
+Al pasar el ratón por encima de un método, aparece un cuadro de herramienta con la siguiente información:
+- El nombre de la clase y la firma del método
+- El nombre del paquete
+- El valor de la métrica de perfil y el desglose del porcentaje.
+
+Las muestras de perfiles incluyen información sobre stack trace y el número de línea. Utiliza el botón **Separate Flame Graph by** (Separar gráfico de llamas por) para cambiar entre separar los marcos por método o por número de línea.
+
+{{< img src="/developers/ide_plugins/idea/separate-flamegraph-by.png" alt="Usa el botón del cuadro de herramientas para separar marcos por método o número de línea" style="width:40%;" >}}
+
+## Destacar fuente
+
+Cuando la pestaña Continuous Profiler está activa, el plugin resalta el código en el margen del editor de código fuente. En el caso de los métodos principales, aparece un icono en el margen del editor y se resalta en la línea del código en función de los datos de perfil activos.
+- Pasa el ratón sobre el icono para ver más información.
+- Haz clic en el icono para abrir la pestaña Perfiles principales o abre Perfiles en Datadog.
+ {{< img src="/developers/ide_plugins/idea/interest-options.png" alt="Haz clic en el ícono de Datadog para abrir los datos de Perfiles en una pestaña o en Datadog" style="width:100%;" >}}
+
+La pestaña de Perfiles activa también afecta a la vista en árbol del proyecto, que se anota con las métricas del perfil seleccionado:
+{{< img src="/developers/ide_plugins/idea/project-tree-view.png" alt="El árbol de proyecto anotado con métricas de perfil de una pestaña de perfil" style="width:60%;" >}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/es/error_tracking/backend/capturing_handled_errors/python.md b/content/es/error_tracking/backend/capturing_handled_errors/python.md
new file mode 100644
index 0000000000000..347f250f2fd33
--- /dev/null
+++ b/content/es/error_tracking/backend/capturing_handled_errors/python.md
@@ -0,0 +1,62 @@
+---
+code_lang: python
+code_lang_weight: 10
+title: Captura de excepciones gestionadas en aplicaciones Python
+type: multi-code-lang
+---
+
+## Requisitos de compatibilidad
+Esta función está disponible en `Python3.10+` y `ddtrace 3.8.0+`.
+
+## Empezando
+
+Antes de empezar, asegúrate de que ya has [instalado y configurado el Agent][1]. También necesitas [añadir la biblioteca de rastreo][2] directamente en la aplicación para instrumentarla.
+
+### Instrumentación automática
+
+Para habilitar la notificación automática de errores gestionados, puedes definir una de estas dos variables de entorno:
+
+- ``DD_ERROR_TRACKING_HANDLED_ERRORS``. Accepted values are: `user`, `third_party` or ,`all`.
+Esta variable de entorno permite informar de errores gestionados respectivamente desde el código de usuario, los paquetes de terceros o ambos.
+- ``DD_ERROR_TRACKING_HANDLED_ERRORS_INCLUDE`` = ``module1, module2...``.
+Enumera los módulos de los que deben informarse los errores gestionados. Es necesario especificar el nombre completo del módulo. Por ejemplo, para instrumentar el módulo `security` en tu aplicación `mysite`, debes especificar
+`mysite.security`
+
+Los errores gestionados se informarán en Error Tracking y se adjuntarán a los tramos (spans) mediante [eventos de tramos][3].
+
+Si estás ejecutando `Python3.10` o `Python3.11` y quieres instrumentar el módulo ``__main__``, tienes que añadir:
+
+```Python
+from ddtrace.errortracking._handled_exceptions.bytecode_reporting import instrument_main
+
+if __name__ == "__main__":
+ instrument_main()
+```
+
+Este código debe añadirse después de las definiciones de las funciones que contienen errores gestionados.
+
+### Instrumentación manual
+
+Puedes notificar manualmente los errores gestionados mediante ``span.record_exception(e)``:
+
+```Python
+from ddtrace import tracer
+
+try:
+ raise ValueError("foo")
+except ValueError as e:
+ span = tracer.current_span()
+ if span:
+ span.record_exception(e)
+```
+
+Esta llamada creará un evento de tramo en el tramo con la información del error y lo informará a Error Tracking.
+También puedes proporcionar atributos adicionales utilizando:
+
+```Python
+span.record_exception(e, {"foo": "bar"})
+```
+
+[1]: /es/error_tracking/backend/getting_started/#getting-started-with-backend-error-tracking
+[2]: /es/tracing/trace_collection/automatic_instrumentation/dd_libraries/python/
+[3]: /es/tracing/trace_collection/custom_instrumentation/python/otel/#adding-span-events
\ No newline at end of file
diff --git a/content/es/error_tracking/explorer.md b/content/es/error_tracking/explorer.md
new file mode 100644
index 0000000000000..56210b7489cc3
--- /dev/null
+++ b/content/es/error_tracking/explorer.md
@@ -0,0 +1,125 @@
+---
+description: Más información sobre el Explorador de Error Tracking.
+further_reading:
+- link: /monitors/types/error_tracking
+ tag: Documentación
+ text: Más información sobre los monitores de Error Tracking.
+title: Explorador de Error Tracking
+---
+
+## Información general
+
+{{< img src="error_tracking/error-tracking-overview-2.png" alt="Detalles de un incidente en el Explorador de Error Tracking" style="width:100%;" >}}
+
+El Explorador de Error Tracking permite ver, filtrar e investigar incidentes. Un incidente es un grupo de errores similares relacionados con el mismo fallo. Datadog crea incidentes contando una huella digital por cada error, utilizando algunos de sus atributos como el tipo de error, el mensaje de error o la traza (trace) de stack tecnológico. Los errores con la misma huella digital se agrupan en el mismo incidente.
+
+## Explorar tus incidentes
+
+Cada elemento listado en el Explorador de Error Tracking es un incidente que contiene información clara sobre el error, incluyendo lo siguiente:
+
+- El tipo de error y el mensaje de error
+- La ruta al archivo en el que se activan los errores subyacentes
+- Información importante sobre la duración del incidente:
+ - Cuándo fue visto por primera y última vez
+ - Gráfico de casos a lo largo del tiempo
+ - Número de casos en el periodo de tiempo seleccionado
+
+El tema también está etiquetado como:
+- `New`, si el incidente fue visto por primera vez hace menos de dos días y está en estado **PARA REVISIÓN** (Para revisión) (consulta [Estados de incidentes][5])
+- `Regression`, si el incidente se **RESOLVIÓ** y volvió a producirse en una versión más reciente (consulta [Detección de regresiones][6])
+- `Crash`, si la aplicación se bloquea
+- Con una [causa sospechada][3]
+
+### Rango de tiempo
+
+{{< img src="real_user_monitoring/error_tracking/time_range.png" alt="Rango de tiempo de Error Tracking" style="width:80%;" >}}
+
+El rango de tiempo aparece en la parte superior derecha del Explorador como una línea de tiempo. Esta función te permite visualizar los incidentes con errores ocurridos dentro del periodo de tiempo seleccionado. Cambia el rango de tiempo seleccionando un rango preestablecido en el menú desplegable.
+
+### Clasificación
+
+Clasifica incidentes en la lista utilizando una de estas opciones:
+- **Relevancia** combina varias características de incidentes para priorizar aquellos relacionados con el código, recientes o con picos de error. Error Tracking analiza la antigüedad de los incidentes, los casos del último día, el aumento significativo en la última hora o si han provocado un bloqueo de la aplicación.
+- **Recuento** clasifica los incidentes en función del recuento total de casos en el rango de tiempo seleccionado.
+- **Más recientes** ordena los incidentes en función de cuándo fueron vistos por primera vez.
+- **Sesiones afectadas** ordena los incidentes por el número de [sesiones RUM][4] afectadas.
+
+### Facetas
+
+{{< img src="/error_tracking/facets-panel.png" alt="Facetas de Error Tracking" style="width:100%;" >}}
+
+Error Tracking indexa automáticamente una lista predefinida de atributos de tus incidentes y crea facetas a partir de ella. Una faceta muestra todos los miembros distintos de un atributo para el periodo de tiempo seleccionado y proporciona algunos análisis básicos, como el número de incidentes representados. Las facetas permiten pivotar o filtrar los incidentes en función de un atributo determinado.
+
+Algunos de los atributos de error más utilizados son
+| Atributo | Descripción
+|-----------|-------------|
+| `error.message`| El mensaje asociado con el error. |
+| `error.type` | El tipo o la clase de error. |
+| `error.stack` | La traza de stack tecnológico asociada al error. |
+| `error.handling` | Indica si el error fue gestionado. Los errores APM se consideran `handled` si un tramo (span) principal informa una operación exitosa (`HTTP 200`, `gRPC OK`) o una gestión de error exitosa (`HTTP 400`, `gRPC NOT_FOUND`). Los errores RUM se consideran `unhandled` si no se capturan manualmente en el código. |
+
+Haz clic en el icono Edit (Editar) para ver la lista de facetas disponibles que puedes mostrar u ocultar de la vista.
+
+{{< img src="/error_tracking/error-tracking-facets.png" alt="Haz clic en el ícono del lápiz para ocultar o mostrar facetas de Error Tracking disponibles en la vista." style="width:100%;" >}}
+
+### Filtros de nivel de incidente
+
+Además de los eventos de error, Error Tracking ofrece filtros de nivel de incidente para refinar la lista de incidentes mostrados.
+
+{{< img src="error_tracking/issue-level-filters.png" alt="Filtros de nivel de incidente en Error Tracking" style="width:100%;" >}}
+
+#### Fuentes
+
+Error Tracking consolida los errores de varios productos de Datadog (RUM, logs, APM) en una vista unificada, lo que te permite observar y solucionar errores en todo el stack tecnológico. En el Explorador puedes elegir mostrar **Todos los incidentes**, o incidentes de **Navegador**, **Móvil** o **Backend**.
+
+Para un filtrado más granular, puedes limitar los incidentes por fuentes específicas de logs o por SDK y delimitarlos a un lenguaje de programación.
+
+#### Parche disponible
+
+Muestra solo los incidentes que tienen un parche generado por AI, disponible para corregir rápidamente los incidentes.
+
+#### Filtros de equipos
+
+[Issue Team Ownership][2] te ayuda a identificar rápidamente los incidentes relevantes para tu equipo mediante `CODEOWNERS` Git y propietarios de servicios.
+
+#### Asignado a
+
+Realiza un seguimiento de los incidentes, asígnalos a los miembros del equipo con más conocimientos y refina fácilmente la lista de incidentes por destinatario.
+
+#### Causa sospechada
+
+[Causa sospechada][3] ayuda a filtrar y priorizar los errores con mayor rapidez, lo que permite a los equipos abordar las posibles causas con mayor eficacia.
+
+## Inspeccionar un incidente
+
+Haz clic en cualquier incidente para abrir el panel de incidentes y ver más información sobre este.
+
+{{< img src="real_user_monitoring/error_tracking/issue_summary.png" alt="Parte superior del panel de incidentes de Tracking que ofrece una vista resumida del incidente" style="width:80%;" >}}
+
+Los detalles claros que necesitas para solucionar un incidente se encuentran en la parte superior del panel. Desde allí, podrás entender su ciclo de vida: las fechas del primero y el último caso, el recuento total, así como el recuento a lo largo del tiempo para el incidente en cuestión.
+
+{{< img src="real_user_monitoring/error_tracking/error_sample.png" alt="Parte inferior del panel de incidentes de Error Tracking que ofrece ejemplos de error" style="width:80%;" >}}
+
+La información mostrada en el panel de incidentes varía en función de la fuente del error. Por ejemplo, un incidente creado a partir de errores APM muestra etiquetas del tramo de error, como el recurso o el nombre de la operación, con acceso directo a la traza relacionada o a los logs vinculados a ella.
+
+La parte inferior del panel de incidentes te ofrece la posibilidad de navegar por los ejemplos de error del incidente relacionado. Cada ejemplo de error ofrece información para la resolución de problemas, como la traza de stack tecnológico del error y las características de los usuarios afectados.
+
+## Recibir alertas sobre errores nuevos o impactantes
+
+Ver un nuevo incidente en cuanto se produce te da la oportunidad de identificarlo y solucionarlo de forma proactiva antes de que se convierta en crítico. Los monitores de Error Tracking te permiten realizar un seguimiento de cualquier incidente nuevo o incidentes que tengan un alto impacto en tus sistemas o en tus usuarios (consulta [Monitores de Error Tracking][7]).
+
+Puedes exportar directamente tu consulta de búsqueda desde el Explorador para crear un monitor de Error Tracking en el contexto relacionado:
+
+{{< img src="/error_tracking/create-monitor.mp4" alt="Exportar tu consulta de búsqueda a un monitor de Error Tracking" video=true >}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/events
+[2]: /es/error_tracking/issue_team_ownership
+[3]: /es/error_tracking/suspected_causes
+[4]: /es/real_user_monitoring/explorer/search/#event-types
+[5]: /es/error_tracking/issue_states
+[6]: /es/error_tracking/regression_detection
+[7]: /es/monitors/types/error_tracking
\ No newline at end of file
diff --git a/content/es/error_tracking/guides/enable_infra.md b/content/es/error_tracking/guides/enable_infra.md
new file mode 100644
index 0000000000000..663b3060e8dea
--- /dev/null
+++ b/content/es/error_tracking/guides/enable_infra.md
@@ -0,0 +1,150 @@
+---
+further_reading:
+- link: /infrastructure
+ tag: Documentación
+ text: Más información sobre la monitorización de infraestructuras
+- link: /error_tracking/guides/enable_apm
+ tag: Guía
+ text: Activar APM
+title: Activar la monitorización de infraestructuras
+---
+
+La [Monitorización de infraestructuras][1] incluye funciones básicas de Datadog que visualizan, monitorizan y miden el rendimiento de tus hosts, contenedores y procesos. Esta guía explica cómo actualizar la configuración del Datadog Agent para habilitar la monitorización de infraestructuras y aprovechar sus funciones además del seguimiento de errores de backend independiente.
+
+{{< tabs >}}
+{{% tab "Linux host or VM" %}}
+
+Si tu Agent está desplegado en un host Linux, la actualización de la configuración depende del método que hayas utilizado para instalar el Agent.
+
+{{< collapse-content title="Instrumentación de un solo paso" level="h5" >}}
+Para un Datadog Agent instalado con el comando de instalación de una línea:
+
+1. Abre el [archivo de configuración datadog.yaml][2].
+2. Elimina el atributo de nivel superior `enable_payloads`:
+
+ ```diff
+ - enable_payloads:
+ - series: false
+ - events: false
+ - service_checks: false
+ - sketches: false
+
+ apm_config:
+ enabled: true
+ error_tracking_standalone:
+ enabled: true
+ ```
+
+3. [Reinicia el Agent][3].
+ {{< /collapse-content >}}
+
+{{< collapse-content title="Using Datadog tracing libraries" level="h5" >}}
+Para un Datadog Agent configurado manualmente para el Seguimiento de errores de backend:
+
+1. Abre el [archivo de configuración datadog.yaml][2].
+2. Elimina el atributo de nivel superior `core_agent`:
+
+ ```diff
+ - core_agent:
+ - enabled: false
+ apm_config:
+ error_tracking_standalone:
+ enabled: true
+ ```
+
+3. [Reinicia el Agent][3].
+ {{< /collapse-content >}}
+
+[2]: /es/agent/configuration/agent-configuration-files
+[3]: /es/agent/configuration/agent-commands/#restart-the-agent
+
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+
+Si tu Agent está desplegado en Kubernetes, necesitas actualizar su configuración en Datadog Operator o Helm dependiendo del método que hayas utilizado para instalar el Agent.
+
+{{< collapse-content title="Helm" level="h5" >}}
+Para un Datadog Agent instalado con Helm:
+
+1. Actualiza tu archivo `datadog-values.yaml`, sustituyendo los valores `site` y `env` adecuadamente:
+
+ ```diff
+ agents:
+ containers:
+ agent:
+ env:
+ [...]
+ - - name: DD_CORE_AGENT_ENABLED
+ - value: "false"
+ datadog:
+ - processAgent:
+ - enabled: false
+ - containerCollection: false
+ apiKeyExistingSecret: datadog-secret
+ site:
+ tags:
+ - env:
+ apm:
+ errorTrackingStandalone:
+ enabled: true
+ # Required to enable Single-Step Instrumentation
+ instrumentation:
+ enabled: true
+ libVersions:
+ java: "1"
+ dotnet: "3"
+ python: "2"
+ js: "5"
+ php: "1"
+ ```
+
+2. Una vez realizados los cambios, actualiza tu Datadog Helm chart:
+ ```shell
+ helm upgrade -f datadog-values.yaml datadog-agent datadog/datadog
+ ```
+{{< /collapse-content >}}
+
+{{< collapse-content title="Datadog Operator" level="h5" >}}
+Para un Datadog Agent instalado con el Datadog Operator:
+
+1. Actualiza tu archivo `datadog-agent.yaml`, sustituyendo los valores `site` y `env` adecuadamente:
+ ```diff
+ apiVersion: datadoghq.com/v2alpha1
+ kind: DatadogAgent
+ metadata:
+ name: datadog
+ spec:
+ global:
+ site:
+ tags:
+ - env:
+ credentials:
+ apiSecret:
+ secretName: datadog-secret
+ keyName: api-key
+ env:
+ - - name: DD_CORE_AGENT_ENABLED
+ - value: "false"
+ features:
+ apm:
+ errorTrackingStandalone:
+ enabled: true
+ instrumentation:
+ enabled: true
+ libVersions:
+ java: "1"
+ dotnet: "3"
+ python: "2"
+ js: "5"
+ php: "1"
+ ```
+2. Despliega el Datadog Agent con el archivo de configuración actualizado:
+ ```shell
+ kubectl apply -f path/to/your/datadog-agent.yaml
+ ```
+{{< /collapse-content >}}
+
+{{% /tab %}}
+{{< /tabs >}}
+
+[1]: /es/infrastructure
\ No newline at end of file
diff --git a/content/es/error_tracking/troubleshooting.md b/content/es/error_tracking/troubleshooting.md
new file mode 100644
index 0000000000000..a72e295984904
--- /dev/null
+++ b/content/es/error_tracking/troubleshooting.md
@@ -0,0 +1,55 @@
+---
+title: Solucionar problemas de Error Tracking
+---
+
+Si experimentas un comportamiento inesperado de Error Tracking, los pasos para la resolución de problemas que se indican a continuación pueden ayudarte a resolver el incidente rápidamente. Si sigues teniendo problemas, ponte en contacto con el [servicio de asistencia de Datadog][1].
+
+Datadog recomienda actualizar regularmente a la última versión de las bibliotecas de rastreo de Datadog, los SDK para móviles y los SDK web, ya que cada versión contiene mejoras y correcciones.
+
+## No se encuentran errores en Error Tracking
+
+### Logs
+
+Asegúrate de que el mensaje de error tiene los [atributos requeridos][2] y de que Error Tracking para logs está [activado][7].
+
+Este [ejemplo de consulta][3] busca logs que cumplan los criterios de inclusión en Error Tracking.
+
+### APM
+
+Para ser procesado por Error Tracking, un tramo (span) debe tener estos atributos:
+
+- `error.type`
+- `error.message`
+- `error.stack`
+
+
+Nota: El stack tecnológico debe tener al menos dos líneas y un marco significativo (un marco con un nombre de función y un nombre de archivo en la mayoría de los lenguajes).
+
+
+Este [ejemplo de consulta][5] busca tramos que cumplan los criterios de inclusión en Error Tracking.
+
+### RUM
+
+Error Tracking solo procesa errores que se envían con la fuente configurada como `custom`, `source`, `report` o `console` y contienen una traza de stack tecnológico. Los errores enviados con cualquier otra fuente (como `network`) o enviados desde extensiones del navegador no son procesados por Error Tracking.
+
+Este [ejemplo de consulta][6] muestra los errores RUM que cumplen los criterios de inclusión en Error Tracking.
+
+### Filtros de inclusión/exclusión
+
+Asegúrate de que los errores que buscas coinciden con al menos un filtro de inclusión y ningún filtro de exclusión. Comprueba la configuración de tus filtros (más información en [Gestionar la recopilación de datos][8]).
+
+## No se encontraron ejemplos de error de un incidente
+
+Se procesan todos los errores, pero solo los errores retenidos están disponibles en el panel de incidentes como un ejemplo de error.
+
+### APM
+
+Los tramos asociados al error deben retenerse con un filtro de retención personalizado para que los ejemplos de ese error aparezcan en el panel de incidentes.
+
+[1]: /es/help/
+[2]: /es/logs/error_tracking/backend/?tab=serilog#attributes-for-error-tracking
+[3]: https://app.datadoghq.com/logs?query=status%3A%28emergency%20OR%20alert%20OR%20critical%20OR%20error%29%20AND%20%28%40error.stack%3A%2A%20OR%20%40error.kind%3A%2A%29%20
+[5]: https://app.datadoghq.com/apm/traces?query=%40_top_level%3A1%20%40error.stack%3A%2A%20AND%20%40error.message%3A%2A%20AND%20error.type%3A%2A%20
+[6]: https://app.datadoghq.com/rum/sessions?query=%40type%3Aerror%20%40error.stack%3A%2A
+[7]: https://app.datadoghq.com/error-tracking/settings
+[8]: /es/error_tracking/manage_data_collection/
\ No newline at end of file
diff --git a/content/es/glossary/terms/security_agent.md b/content/es/glossary/terms/security_agent.md
new file mode 100644
index 0000000000000..f3f2eab89831a
--- /dev/null
+++ b/content/es/glossary/terms/security_agent.md
@@ -0,0 +1,7 @@
+---
+core_product:
+- workload protection
+- seguridad
+title: Agent de seguridad
+---
+Security Agent es un componente de la plataforma Datadog diseñado para proporcionar una capacidad de observación de la seguridad de tu infraestructura. Recopila datos relacionados con la seguridad, como la actividad del sistema y la red, para ayudarte a detectar posibles amenazas y vulnerabilidades de seguridad en tu entorno.
\ No newline at end of file
diff --git a/content/es/integrations/agentprofiling.md b/content/es/integrations/agentprofiling.md
new file mode 100644
index 0000000000000..7f8f853e01374
--- /dev/null
+++ b/content/es/integrations/agentprofiling.md
@@ -0,0 +1,67 @@
+---
+custom_kind: integración
+description: Genera flares con perfiles basados en umbrales de memoria y CPU definidos
+ por el usuario.
+git_integration_title: agentprofiling
+integration_id: agentprofiling
+integration_title: Check de Agent Profiling
+is_public: true
+name: agentprofiling
+public_title: Datadog-Agent Profiling
+short_description: Genera flares con perfiles basados en umbrales de memoria y CPU
+ definidos por el usuario.
+supported_os:
+- linux
+- mac_os
+- windows
+updated_for_agent: 7.66
+---
+
+## Información general
+
+Este check debe utilizarse cuando se soluciona un problema de memoria o de CPU en el Agent. Una vez superado un umbral de memoria o de CPU configurado por el usuario, se genera automáticamente un flare con perfiles. Este flare puede generarse localmente o enviarse directamente a un caso del servicio de asistencia de Datadog. Para que el flare se envíe directamente a un caso del servicio de asistencia de Datadog, se deben proporcionar un `ticket_id` y un `user_email` en `conf.yaml`. De lo contrario, se genera localmente.
+
+## Configuración
+
+### Instalación
+
+El check de sistema está incluido en el paquete del [Datadog Agent][1]. No es necesaria ninguna instalación adicional en tu servidor.
+
+### Configuración
+
+1. Edita el archivo `agentprofiling.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][2]. Para ver todas las opciones de configuración disponibles, consulta el [agentprofiling.d/conf.yaml de ejemplo][3]. *Nota**: Al menos una entrada es obligatoria en `instances` para activar el check, por ejemplo:
+
+ ```yaml
+ init_config:
+ instances:
+ - memory_threshold: 1GB
+ cpu_threshold: 50
+ ticket_id: # Given by Support
+ user_email: # Email used in correspondence with Support
+ ```
+
+2. [Reinicia el Agent][4].
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][1] y busca `agentprofiling` en la sección **Checks**.
+
+## Datos recopilados
+
+### Métricas
+
+El check de Agent Profiling no incluye métricas.
+
+### Eventos
+
+El check de Agent Profiling no incluye eventos.
+
+### Checks de servicio
+
+El check de Agent Profiling no incluye checks de servicios.
+
+[1]: /es/agent/guide/agent-commands/#agent-status-and-information
+[2]: /es/agent/guide/agent-configuration-files/#agent-configuration-directory
+[3]: https://github.com/DataDog/datadog-agent/blob/main/cmd/agent/dist/conf.d/agentprofiling.d/conf.yaml.example
+[4]: /es/agent/guide/agent-commands/#start-stop-restart-the-agent
+[5]: https://github.com/DataDog/integrations-core/blob/master/system_swap/datadog_checks/system_swap/data/conf.yaml.example
\ No newline at end of file
diff --git a/content/es/integrations/crest_data_systems_cofense_triage.md b/content/es/integrations/crest_data_systems_cofense_triage.md
new file mode 100644
index 0000000000000..1c207fd3f10bd
--- /dev/null
+++ b/content/es/integrations/crest_data_systems_cofense_triage.md
@@ -0,0 +1,179 @@
+---
+algolia:
+ subcategory: Integraciones de Marketplace
+app_id: crest-data-systems-cofense-triage
+app_uuid: 186de352-c901-4479-aa8b-429e99210856
+assets:
+ dashboards:
+ Cofense Triage - Executive Summary: assets/dashboards/crest_data_systems_cofense_triage_executive_summary.json
+ Cofense Triage - Overview: assets/dashboards/crest_data_systems_cofense_triage_overview.json
+ Cofense Triage - Reporting Output: assets/dashboards/crest_data_systems_cofense_triage_reporting_output.json
+ Cofense Triage - System Status: assets/dashboards/crest_data_systems_cofense_triage_system_status.json
+ integration:
+ auto_install: false
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: true
+ metrics:
+ check: cds.cofense_triage.health.cpu_usage_percent
+ metadata_path: metadata.csv
+ prefix: cds.cofense_triage
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 33375357
+ source_type_name: crest_data_systems_cofense_triage
+ logs:
+ source: crest-data-systems-cofense-triage
+ monitors:
+ Cofense Triage - CPU Usage Monitor: assets/monitors/crest_data_systems_cofense_triage_cpu_usage_monitor.json
+ Cofense Triage - Free Memory Available: assets/monitors/crest_data_systems_cofense_triage_memory_available.json
+ Cofense Triage - Partition Usage Monitor: assets/monitors/crest_data_systems_cofense_triage_partition_usage_monitor.json
+ Cofense Triage - System Status Monitor: assets/monitors/crest_data_systems_cofense_triage_system_status.json
+author:
+ homepage: https://www.crestdata.ai
+ name: Crest Data
+ sales_email: datadog-sales@crestdata.ai
+ support_email: datadog.integrations@crestdata.ai
+ vendor_id: crest-data-systems
+categories:
+- marketplace
+- seguridad
+- recopilación de logs
+custom_kind: integración
+dependencies: []
+display_on_public_website: true
+draft: false
+git_integration_title: crest_data_systems_cofense_triage
+integration_id: crest-data-systems-cofense-triage
+integration_title: Cofense Triage
+integration_version: ''
+is_public: true
+legal_terms:
+ eula: assets/EULA.pdf
+manifest_version: 2.0.0
+name: crest_data_systems_cofense_triage
+pricing:
+- billing_type: tag_count
+ includes_assets: true
+ metric: datadog.marketplace.crest_data_systems.cofense_triage
+ product_id: cofense-triage
+ short_description: Por host de Cofense Triage
+ tag: cds_cofense_triage_host
+ unit_label: Hosts de Cofense Triage
+ unit_price: 95.0
+public_title: Cofense Triage
+short_description: Monitorizar incidentes de phishing de Cofense Triage en Datadog
+supported_os:
+- linux
+- windows
+- macos
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::Windows
+ - Supported OS::macOS
+ - Category::Marketplace
+ - Category::Security
+ - Category::Log Collection
+ - Offering::Integration
+ - Submitted Data Type::Metrics
+ - Submitted Data Type::Logs
+ - Submitted Data Type::Events
+ configuration: README.md#Setup
+ description: Monitorizar incidentes de phishing de Cofense Triage en Datadog
+ media:
+ - caption: 'Cofense Triage: información general'
+ image_url: images/crest-data-systems-cofense-triage-overview.png
+ media_type: imagen
+ - caption: 'Cofense Triage: estado del sistema'
+ image_url: images/crest-data-systems-cofense-triage-system-status.png
+ media_type: imagen
+ - caption: 'Cofense Triage: resumen ejecutivo'
+ image_url: images/crest-data-systems-cofense-triage-executive-summary.png
+ media_type: imagen
+ - caption: 'Cofense Triage: generación de informes'
+ image_url: images/crest-data-systems-cofense-triage-reporting-output.png
+ media_type: imagen
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Cofense Triage
+ uninstallation: README.md#Uninstallation
+---
+
+
+
+
+## Información general
+
+Cofense Triage es una plataforma de gestión de amenazas de phishing que automatiza la detección, el análisis y la respuesta a correos electrónicos de phishing aprovechando los datos notificados por los usuarios. Esta integración mejora los flujos de trabajo de seguridad al proporcionar visibilidad en tiempo real de los incidentes de phishing identificados por Cofense Triage directamente en Datadog para ofrecer respuestas más rápidas y coordinadas.
+
+Esta integración recopila lo siguiente:
+
+### Métricas
+
+- Estado
+- Resumen ejecutivo
+
+### Logs
+
+- Informes
+- Indicadores de amenaza
+- Urls
+- Dominios
+- Archivos adjuntos
+- Cargas útiles de adjuntos
+- Clústeres
+- Encabezados
+- Nombres de host
+- Cuadernos de estrategias
+- Reglas
+- Categorías
+- Comentarios
+- Proveedores de identidad
+- Integraciones
+- Generación de informes dinámicos
+
+### Eventos
+
+- Autenticación
+- Validación de la configuración
+
+
+### Dashboards
+
+Esta integración incluye los siguientes dashboards predefinidos:
+
+1. **Estado**: proporciona información sobre el estado del sistema, incluido el uso de la CPU y de la partición del servidor de Cofense Triage.
+2. **Resumen ejecutivo**: ofrece un resumen de los datos de informes de Cofense Triage.
+3. **Generación de informes**: muestra una generación de informes detallada, que incluye los informes y sus datos correspondientes.
+4. **Información general**: incluye detalles seleccionados de los dashboards mencionados.
+
+## Asistencia
+
+Para solicitar asistencia o funciones, ponte en contacto con Crest Data a través de los siguientes canales:
+
+- Correo electrónico de asistencia: [datadog.integrations@crestdata.ai][1]
+- Correo electrónico de ventas: [datadog-sales@crestdata.ai][2]
+- Página web: [crestdata.ai][3]
+- FAQ: [FAQ sobre integraciones Crest Data de Datadog Marketplace][10]
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][6].
+
+
+[1]: mailto:datadog.integrations@crestdata.ai
+[2]: mailto:datadog-sales@crestdata.ai
+[3]: https://www.crestdata.ai/
+[4]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/?tab=agentv6v7
+[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/?tab=agentv6v7#start-stop-and-restart-the-agent
+[6]: https://docs.datadoghq.com/es/help/
+[7]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[8]: https://docs.datadoghq.com/es/agent/?tab=Linux
+[9]: https://docs.datadoghq.com/es/account_management/api-app-keys
+[10]: https://www.crestdatasys.com/datadog-integrations-readme/Crest_Data_Datadog_Integrations_FAQ.pdf
+[11]: https://www.crestdatasys.com/datadog-integrations-readme/Cofense_Triage.pdf
+---
+Esta aplicación está disponible a través de Datadog Marketplace y cuenta con el respaldo de un socio tecnológico de Datadog. Para utilizar esta aplicación, adquiérela en el Marketplace.
\ No newline at end of file
diff --git a/content/es/integrations/crest_data_systems_whylabs.md b/content/es/integrations/crest_data_systems_whylabs.md
new file mode 100644
index 0000000000000..4b094c6ab8ae1
--- /dev/null
+++ b/content/es/integrations/crest_data_systems_whylabs.md
@@ -0,0 +1,145 @@
+---
+algolia:
+ subcategory: Integraciones de Marketplace
+app_id: crest-data-systems-whylabs
+app_uuid: a53f983e-7d18-4e25-98d9-35cb3ce7c181
+assets:
+ dashboards:
+ WhyLabs - Datasets: assets/dashboards/crest_data_systems_whylabs_datasets.json
+ WhyLabs - Models: assets/dashboards/crest_data_systems_whylabs_models.json
+ WhyLabs Overview: assets/dashboards/crest_data_systems_whylabs_overview.json
+ integration:
+ auto_install: false
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: true
+ metrics:
+ check: cds.whylabs.dataset_metric.classification_prediction_count
+ metadata_path: metadata.csv
+ prefix: cds.whylabs.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 39158566
+ source_type_name: crest_data_systems_whylabs
+ logs:
+ source: crest-data-systems-whylabs
+author:
+ homepage: https://www.crestdata.ai
+ name: Crest Data
+ sales_email: datadog-sales@crestdata.ai
+ support_email: datadog.integrations@crestdata.ai
+ vendor_id: crest-data-systems
+categories:
+- marketplace
+- recopilación de logs
+- ai/ml
+custom_kind: integración
+dependencies: []
+display_on_public_website: true
+draft: false
+git_integration_title: crest_data_systems_whylabs
+integration_id: crest-data-systems-whylabs
+integration_title: WhyLabs
+integration_version: ''
+is_public: true
+legal_terms:
+ eula: assets/EULA.pdf
+manifest_version: 2.0.0
+name: crest_data_systems_whylabs
+pricing:
+- billing_type: flat_fee
+ includes_assets: true
+ product_id: whylabs
+ short_description: Cuota fija mensual.
+ unit_price: 50.0
+public_title: WhyLabs
+short_description: Recopilación de datos de recursos, incluidos fuentes de anomalías,
+ entradas/salidas, columnas, segmentos y métricas de rendimiento del modelo.
+supported_os:
+- linux
+- windows
+- macos
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::Windows
+ - Supported OS::macOS
+ - Category::Marketplace
+ - Category::Log Collection
+ - Categoría::IA/ML
+ - Offering::Integration
+ - Submitted Data Type::Logs
+ - Tipo de datos enviados::Métricas
+ - Submitted Data Type::Events
+ configuration: README.md#Setup
+ description: Recopilación de datos de recursos, incluidos fuentes de anomalías,
+ entradas/salidas, columnas, segmentos y métricas de rendimiento del modelo.
+ media:
+ - caption: Información general de WhyLabs
+ image_url: images/crest_data_systems_whylabs_overview.png
+ media_type: imagen
+ - caption: WhyLabs - Modelos
+ image_url: images/crest_data_systems_whylabs_models.png
+ media_type: imagen
+ - caption: WhyLabs - Conjuntos de datos
+ image_url: images/crest_data_systems_whylabs_datasets.png
+ media_type: imagen
+ overview: README.md#Overview
+ support: README.md#Support
+ title: WhyLabs
+ uninstallation: README.md#Uninstallation
+---
+
+
+
+
+## Información general
+[**WhyLabs**][1] es una plataforma creada para ayudar a organizaciones a monitorizar, gestionar y optimizar aplicaciones de inteligencia artificial (IA). Proporciona un conjunto de herramientas para garantizar que los modelos de aprendizaje automático (ML) sigan siendo fiables, transparentes y justos durante todo su ciclo de vida. La plataforma aprovecha la monitorización y las técnicas de observabilidad para rastrear el rendimiento del modelo, identificar problemas como la desviación de datos o anomalías y ayudar a los equipos a mantener predicciones de alta calidad.
+
+Esta integración ingiere datos de WhyLabs como logs, métricas y eventos en Datadog:
+
+### Métricas
+ - Rendimiento de la clasificación
+ - Rendimiento de la regresión
+
+### Logs
+ - Recursos
+ - Esquema de entidad
+ - Anomalías
+ - Segmentos
+
+### Eventos
+La configuración de la integración de Datadog se valida para garantizar que todos los parámetros requeridos estén correctamente configurados antes de continuar, seguido de un rastreo de eventos de autenticación durante la ingesta de datos para garantizar un acceso seguro y una correcta verificación del usuario tras la validación de la configuración.
+
+### Dashboards
+Esta integración incluye **tres dashboards predefinidos**:
+
+ 1. **Información general de WhyLabs**: Proporciona una visión completa de la plataforma, que te permite monitorizar y gestionar modelos de aprendizaje automático y conjuntos de datos. Destaca áreas clave como recursos, anomalías, segmentos, entradas, salidas y columnas.
+ 2. **WhyLabs - Modelos**: Se centra en elementos esenciales como el resumen del modelo, las anomalías detectadas, los segmentos, los monitores activos, las entradas y las salidas. Ofrece una visión detallada del rendimiento y el comportamiento del modelo en producción.
+ 3. **WhyLabs - Conjuntos de datos**: Muestra una información general del tipo de datos del conjunto de datos, que hace hincapié en áreas clave como el resumen del modelo, anomalías, segmentos, monitores activos, columnas y estado de discreción.
+
+## Asistencia técnica
+Para solicitar asistencia o características, ponte en contacto con Crest Data a través de los siguientes canales:
+
+- Correo electrónico de asistencia técnica: [datadog.integrations@crestdata.ai][9]
+- Correo electrónico de ventas: [datadog-sales@crestdata.ai][10]
+- Página web: [crestdata.ai][11]
+- FAQ: [FAQ de integraciones de marketplace de Crest Data y Datadog][3]
+
+
+[1]: https://whylabs.ai/
+[2]: https://docs.crestdata.ai/datadog-integrations-readme/whylabs.pdf
+[3]: https://docs.crestdata.ai/datadog-integrations-readme/Crest_Data_Datadog_Integrations_FAQ.pdf
+[4]: https://docs.datadoghq.com/es/agent/?tab=Linux
+[5]: https://docs.datadoghq.com/es/agent/configuration/agent-configuration-files/
+[6]: https://docs.datadoghq.com/es/account_management/api-app-keys/
+[7]: https://docs.datadoghq.com/es/agent/configuration/agent-commands/#start-stop-and-restart-the-agent
+[8]: https://docs.datadoghq.com/es/agent/configuration/agent-commands/#agent-status-and-information
+[9]: mailto:datadog.integrations@crestdata.ai
+[10]: mailto:datadog-sales@crestdata.ai
+[11]: https://www.crestdata.ai/
+
+---
+Esta aplicación está disponible a través de Datadog Marketplace y cuenta con el apoyo de un socio tecnológico de Datadog. Para utilizarla, adquiere esta aplicación en el Marketplace.
\ No newline at end of file
diff --git a/content/es/integrations/crowdstrike.md b/content/es/integrations/crowdstrike.md
index 792f932cc2baf..ae9ed2d85607c 100644
--- a/content/es/integrations/crowdstrike.md
+++ b/content/es/integrations/crowdstrike.md
@@ -1,34 +1,19 @@
---
+app_id: crowdstrike
categories:
- nube
- recopilación de logs
- recopilación de logs
- la red
- seguridad
-custom_kind: integration
-dependencies: []
-description: CrowdStrike
-doc_link: https://docs.datadoghq.com/integrations/crowdstrike/
-draft: false
-git_integration_title: crowdstrike
-has_logo: true
-integration_id: ''
-integration_title: CrowdStrike
-integration_version: ''
-is_public: true
-manifest_version: '1.0'
-name: crowdstrike
-public_title: CrowdStrike
-short_description: Recopila eventos de detección y alertas de CrowdStrike en tiempo
- real como logs de Datadog.
-team: integraciones-web
-version: '1.0'
+custom_kind: integración
+description: Recopila eventos de detección y alertas de CrowdStrike en tiempo real
+ como logs de Datadog.
+title: CrowdStrike
---
-
-
## Información general
-[CrowdStrike][1] es una solución de agente única cuyo objetivo es poner fin a las infracciones, el ransomware y los ciberataques mediante una visibilidad y una protección integrales en endpoints, cargas de trabajo, datos e identidades.
+[CrowdStrike](https://www.crowdstrike.com/) es una solución de agent único para detener brechas, ransomware y ciberataques con visibilidad y protección completas en endpoints, cargas de trabajo, datos e identidad.
La integración CrowdStrike te permite recopilar eventos de detección y alertas de CrowdStrike en tiempo real como logs de Datadog.
@@ -36,20 +21,20 @@ La integración CrowdStrike te permite recopilar eventos de detección y alertas
### Instalación
-No se requiere ninguna instalación.
+No requiere instalación.
### Configuración
#### Activación del streaming de eventos
-Antes de conectarte al [flujo (stream) de eventos][2], [ponte en contacto con el equipo de asistencia de CrowdStrike][3] para habilitar el streaming de API en tu cuenta de cliente.
+Antes de poder conectarte al [Event Stream](https://docs.datadoghq.com/service_management/events/explorer/), [ponte en contacto con el equipo de asistencia de CrowdStrike](https://supportportal.crowdstrike.com/) para habilitar el flujo de APIs en tu cuenta de cliente.
#### Conexión de tu cuenta de CrowdStrike
Una vez habilitado el streaming, añade un nuevo cliente de API en CrowdStrike:
1. Inicia sesión en la consola Falcon.
-1. Ve a [Support > API Clients and Keys (Soporte > Clientes y claves de API][4].
+1. Ve a [Support > API Clients and Keys] (Soporte > Clientes y claves de API)(https://falcon.crowdstrike.com/support/api-clients-and-keys).
1. Haz clic en **Add new API client** (Añadir nuevo cliente de API).
1. Introduce un nombre de cliente descriptivo que identifique a tu cliente de API en Falcon y en los logs de acciones de API (por ejemplo, `Datadog`).
1. También puedes introducir una descripción como el uso previsto de tu cliente de API.
@@ -58,14 +43,14 @@ Una vez habilitado el streaming, añade un nuevo cliente de API en CrowdStrike:
#### Habilitación de la recopilación de logs
-Añade los detalles del cliente de API en el [cuadro de la integración CrowdStrike][5] en Datadog:
+Añade los detalles del cliente de API en el [cuadro de integración de CrowdStrike](https://app.datadoghq.com/integrations/crowdstrike) en Datadog:
1. Haz clic en **Connect a CrowdStrike Account** (Conectar una cuenta de CrowdStrike).
1. Copia tu ID de cliente de API, secreto de cliente y dominio de API.
1. También puedes introducir una lista de etiquetas (tags) separadas por comas.
1. Haz clic en **Submit** (Enviar).
-Al cabo de unos minutos, aparecen [logs][6] con el origen `crowdstrike` en el [dashboard de información general de logs de Crowdstrike][7].
+Al cabo de unos minutos, aparecen [logs](https://app.datadoghq.com/logs/) con la fuente `crowdstrike` en el [dashboard de información general de logs de Crowdstrike](https://app.datadoghq.com/dash/integration/32115/crowdstrike-overview).
## Datos recopilados
@@ -77,36 +62,27 @@ La integración CrowdStrike no incluye métricas.
La integración CrowdStrike permite a Datadog ingerir los siguientes eventos:
-* Resumen de detecciones
-* Coincidencia de cortafuegos
-* Protección de la identidad
-* Resumen de detecciones de LDP
-* Resumen de incidentes
-* Eventos de autenticación
-* Actualización de estados de detección
-* IoC (Indicadores de riesgo) cargados
-* Eventos de contención en red
-* Eventos de listas de IP permitidas
-* Eventos de gestión de políticas
-* Actividad de la tienda CrowdStrike
-* Inicio/fin de sesión de respuesta en tiempo real
-* Inicio/fin de flujos de eventos
-
-Estos eventos aparecen en el [dashboard de información general de logs de Crowdstrike][7].
+- Resumen de detecciones
+- Coincidencia de cortafuegos
+- Protección de la identidad
+- Resumen de detecciones de LDP
+- Resumen de incidentes
+- Eventos de autenticación
+- Actualización de estados de detección
+- IoC (Indicadores de riesgo) cargados
+- Eventos de contención en red
+- Eventos de listas de IP permitidas
+- Eventos de gestión de políticas
+- Actividad de la tienda CrowdStrike
+- Inicio/fin de sesión de respuesta en tiempo real
+- Inicio/fin de flujos de eventos
+
+Estos eventos aparecen en el [dashboard de información general de logs de Crowdstrike](https://app.datadoghq.com/dash/integration/32115/crowdstrike-overview).
### Checks de servicio
La integración CrowdStrike no incluye checks de servicio.
-## Resolución de problemas
-
-¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8].
+## Solucionar problemas
-[1]: https://www.crowdstrike.com/
-[2]: https://docs.datadoghq.com/es/service_management/events/explorer/
-[3]: https://supportportal.crowdstrike.com/
-[4]: https://falcon.crowdstrike.com/support/api-clients-and-keys
-[5]: https://app.datadoghq.com/integrations/crowdstrike
-[6]: /es/logs/
-[7]: https://app.datadoghq.com/dash/integration/32115/crowdstrike-overview
-[8]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/).
\ No newline at end of file
diff --git a/content/es/integrations/google_workspace_alert_center.md b/content/es/integrations/google_workspace_alert_center.md
index d1392f3f1f37e..6cc8d8a3335e3 100644
--- a/content/es/integrations/google_workspace_alert_center.md
+++ b/content/es/integrations/google_workspace_alert_center.md
@@ -1,40 +1,25 @@
---
+app_id: google_workspace_alert_center
categories:
- recopilación de logs
- seguridad
custom_kind: integración
-dependencies: []
description: Recopila logs del Centro de alertas de Google Workspace.
-doc_link: https://docs.datadoghq.com/integrations/google_workspace_alert_center/
-draft: false
further_reading:
- link: https://www.datadoghq.com/blog/google-workspace-monitoring
tag: Blog
text: Monitorización de Google Workspace con Datadog
-git_integration_title: google_workspace_alert_center
-has_logo: true
-integration_id: ''
-integration_title: Centro de alertas de Google Workspace
-integration_version: ''
-is_public: true
-manifest_version: '1.0'
-name: google_workspace_alert_center
-public_title: Centro de alertas de Google Workspace
-short_description: Recopila logs del Centro de alertas de Google Workspace.
-team: integraciones-web
-version: '1.0'
+title: Centro de alertas de Google Workspace
---
-
-
## Información general
El Centro de alertas ofrece una vista completa de las alertas, las acciones y las notificaciones relacionadas con la seguridad,
en todo Google Workspace. Realiza la integración del Centro de alertas de Google Workspace con
Datadog para:
-- Visualiza y analiza tus logs de alertaa utilizando [productos de logs de Datadog][1].
-- Configura [monitores][2] para [eventos][3] de tu dominio Google Workspace.
-- Aprovecha la [Plataforma de seguridad][4] de Datadog para monitorizar y detectar amenazas en todo tu dominio Google Workspace.
+- Ve y analiza tus logs de alerta utilizando el [producto Logs de Datadog](https://app.datadoghq.com/logs/).
+- Establece [monitores](https://app.datadoghq.com/monitors/monitor_types/) en [eventos](https://app.datadoghq.com/events/) desde tu dominio de Google Workspace.
+- Aprovecha la [Plataforma de seguridad] de Datadog(https://app.datadoghq.com/security_platform/) para monitorizar y detectar amenazas en todo tu dominio de Google Workspace.
## Configuración
@@ -45,19 +30,19 @@ una conexión API entre Google y Datadog. A continuación se ofrecen instruccion
de servicio y proporcionar a Datadog las credenciales de esa cuenta de servicio, para que comience a realizar llamadas a la API.
en tu nombre.
-**Nota**: Asegúrate de haber activado la [API del Centro de alertas de Google Workspace][5].
+**Nota**: Asegúrate de que has activado la [API de Google Workspace Alert Center](https://developers.google.com/admin-sdk/alertcenter/reference/rest).
-1. Sigue las [instrucciones para la creación y la autorización de cuentas de servicio][6]. Necesitas
- acceso de superadministrador para completar estos pasos. Anota la ubicación en que guardas el archivo JSON de clave privada como parte de este proceso. Delega autoridad en todo el dominio a la cuenta de servicio, como se ha descrito, concediendo el contexto `https://www.googleapis.com/auth/apps.alerts` en el proceso.
- 1. En la página `Service account details` de tu consola GCP, haz clic en el botón `Create Google Workspace Marketplace-Compatible OAuth Client` situado en la parte inferior de la sección `Advanced settings`.
-2. Ve al [cuadro de la integración del Centro de alertas de Google Workspace en Datadog][7].
-3. En la pestaña **Configuración**, selecciona Upload Private Key File (Cargar archivo de clave privada) para integrar este proyecto.
+1. Sigue las [instrucciones de creación y autorización de cuentas de servicio](https://developers.google.com/identity/protocols/oauth2/service-account). Necesitas
+ acceso de superadministrador para completar estos pasos. Ten en cuenta la ubicación en la que guardas el archivo JSON de la clave privada como parte de ese proceso. Delega autoridad en todo el dominio a la cuenta de servicio como se ha descrito, concediendo el alcance `https://www.googleapis.com/auth/apps.alerts` en el proceso.
+1. En la página `Service account details` de tu consola GCP, haz clic en el botón `Create Google Workspace Marketplace-Compatible OAuth Client` situado en la parte inferior de la sección `Advanced settings`.
+1. Navega hasta el cuadro [de integración de Datadog Google Workspace Alert Center](http://app.datadoghq.com/integrations/google-workspace-alert-center).
+1. En la pestaña **Configuración**, selecciona Upload Private Key File (Cargar archivo de clave privada) para integrar este proyecto.
con Datadog. Selecciona el archivo JSON de clave privada que guardaste en el primer paso.
-4. Introduce el Correo electrónico del asunto, que es la dirección de correo electrónico de una cuenta de usuario o robot con
- acceso al Centro de Alertas. No utilices la dirección de correo electrónico asociada a la propia cuenta de servicio.
+1. Introduce el Correo electrónico del asunto, que es la dirección de correo electrónico de una cuenta de usuario o robot con
+ Acceso a Alert Center. No utilices la dirección de correo electrónico asociada a la propia cuenta de servicio.
La integración se hace pasar por este usuario al realizar llamadas a la API.
-Si quieres monitorizar varios proyectos, puedes repetir el proceso anterior para utilizar varias
+Si deseas monitorizar múltiples proyectos, puedes repetir el proceso anterior para utilizar múltiples
cuentas de servicio.
### Configuración
@@ -67,8 +52,8 @@ de ese proyecto en Datadog.
### Resultados
-Espera al menos cinco minutos hasta que veas aparecer [logs][1] debajo de la fuente `google.workspace.alert.center`. Puede que tengas que esperar
-más tiempo, si tu entorno genera alertas del Centro de alertas con poca frecuencia.
+Espera al menos cinco minutos para ver los [logs](https://app.datadoghq.com/logs/) debajo de la fuente `google.workspace.alert.center` . Puede que tengas que esperar
+más tiempo si tu entorno genera alertas de Alert Center con poca frecuencia.
## Datos recopilados
@@ -78,7 +63,7 @@ Este Centro de alertas de Google Workspace no incluye datos de métricas.
### Eventos
-Para obtener la lista completa de los eventos de logs, consulta la [documentación del Centro de alertas de Google Workspace][8].
+Para obtener la lista completa de eventos de log, consulta la [documentación de Google Workspace Alert Center](https://support.google.com/a/answer/9104586?hl=en&ref_topic=9105077).
### Checks de servicio
@@ -86,18 +71,8 @@ La integración del Centro de alertas de Google Workspace no incluye checks de s
## Solucionar problemas
-¿Necesitas ayuda? [Consulta el servicio de asistencia de Datadog][9].
-
-## Leer más
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/).
-{{< partial name="whats-next/whats-next.html" >}}
+## Referencias adicionales
-[1]: /es/logs/
-[2]: /es/monitors/monitor_types/
-[3]: /es/events/
-[4]: /es/security_platform/
-[5]: https://developers.google.com/admin-sdk/alertcenter/reference/rest
-[6]: https://developers.google.com/identity/protocols/oauth2/service-account
-[7]: http://app.datadoghq.com/integrations/google-workspace-alert-center
-[8]: https://support.google.com/a/answer/9104586?hl=en&ref_topic=9105077
-[9]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/es/integrations/gsuite.md b/content/es/integrations/gsuite.md
index 2226e8476034d..16801bca0f082 100644
--- a/content/es/integrations/gsuite.md
+++ b/content/es/integrations/gsuite.md
@@ -1,96 +1,62 @@
---
app_id: gsuite
-app_uuid: a1ec70d4-dbe1-4e76-8e40-062df1fff1a5
-assets:
- integration:
- auto_install: false
- events:
- creates_events: false
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 601
- source_type_name: Google Workspace
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
- recopilación de logs
- colaboración
- seguridad
custom_kind: integración
-dependencies: []
-display_on_public_website: true
-draft: false
-git_integration_title: gsuite
-integration_id: gsuite
-integration_title: Google Workspace
-integration_version: ''
-is_public: true
-manifest_version: 2.0.0
-name: gsuite
-public_title: Google Workspace
-short_description: Importación de tus logs de auditoría y seguridad de Google Workspace
+description: Importación de tus logs de auditoría y seguridad de Google Workspace
a Datadog
-supported_os: []
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Categoría::Recopilación de logs
- - Categoría::Colaboración
- - Categoría::Seguridad
- - Oferta::Integración
- configuration: README.md#Configuración
- description: Importación de tus logs de auditoría y seguridad de Google Workspace
- a Datadog
- media: []
- overview: README.md#Información general
- support: README.md#Soporte
- title: Google Workspace
+integration_version: 1.0.0
+media: []
+title: Google Workspace
---
-
-
## Información general
Importa tus logs de auditoría y seguridad de Google Workspace a Datadog. Cuando se habilita esta integración, Datadog empieza a extraer automáticamente logs para los siguientes servicios Google Workspace:
-|Servicio|Descripción|
-|---------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
-|Transparencia del acceso|Los informes de actividad de Transparencia del acceso de Google Workspace devuelven información sobre distintos tipos de eventos de actividad de Transparencia del acceso.|
-|Administración|Los informes de actividad de la aplicación Consola de administración devuelven información sobre diferentes tipos de eventos de actividad del administrador.|
-|Calendario|Los informes de actividad de la aplicación Google Calendar devuelven información sobre diferentes eventos de actividad del Calendar.|
-|Chrome|El informe de actividad de Chrome devuelve información sobre la actividad de ChromeOS de todos los usuarios de tu cuenta. Cada informe utiliza la solicitud de endpoint básica y proporciona parámetros específicos del informe, como inicios de sesión, adición o eliminación de usuarios o eventos de navegación insegura.|
-|Acceso contextual|El informe de actividad de acceso contextual devuelve información sobre denegaciones de acceso a aplicaciones a los usuarios de tu cuenta. Utiliza la solicitud de endpoint de informe básico y proporciona parámetros específicos como el ID del dispositivo y la aplicación a la que se denegó el acceso.|
-|Google Drive|Los informes de actividad de la aplicación Google Drive devuelven información sobre diferentes eventos de actividad de Google Drive. El informe de actividad de Drive sólo está disponible para los clientes de Google Workspace Business.|
-|Google Chat|El informe de actividad de Google Chat devuelve información sobre cómo los usuarios de tu cuenta utilizan y gestionan Spaces. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como cargas u operaciones de mensajes.|
-|Google Cloud|El informe de actividad de Google Cloud devuelve información sobre diferentes eventos de actividad relacionados con la API de inicio de sesión en sistemas operativos en la nube (Cloud OS).|
-|Google Keep|El informe de actividad de Google Keep devuelve información sobre cómo los usuarios de tu cuenta gestionan y modifican sus notas. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como información de carga de archivos adjuntos u operaciones de notas.|
-|Google Meet|El informe de actividad Google Meet devuelve información sobre diferentes aspectos de eventos de llamadas. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como datos de informes de abuso o datos de observación de transmisiones en directo.|
-|GPlus|Los informes de actividad de la aplicación GPlus devuelven información sobre diferentes eventos de actividad de GPlus.|
-|Grupos|Los informes de actividad de la aplicación Grupos de Google proporcionan información sobre diferentes eventos de actividad de Grupos.|
-|Grupos de empresas|Los informes de actividad de Grupos de empresas devuelven información sobre diferentes eventos de actividad de Grupos de empresa.|
-|Jamboard|El informe de actividad de Jamboard devuelve información sobre los cambios en los parámetros del dispositivo Jamboard. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como la licencia o los parámetros de emparejamiento de dispositivos.|
-|Inicio de sesión|Los informes de actividad de la aplicación de Inicio de sesión devuelven información contable sobre diferentes tipos de eventos de actividad de Inicio de sesión.|
-|Móvil|Los informes de actividad de Auditoría móvil devuelven información sobre diferentes tipos de eventos de actividad de Auditoría móvil.|
-|Reglas|Los informes de actividad de Reglas devuelven información sobre diferentes tipos de eventos de actividad de Reglas.|
-|Token|Los informes de actividad de la aplicación Token devuelven información contable sobre distintos tipos de eventos de actividad de Token.|
-|SAML|El informe de actividad de SAML devuelve información sobre los resultados de los intentos de inicio de sesión SAML. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como el tipo de fallo y el nombre de la aplicación SAML.|
-|Cuentas de usuario|Los informes de actividad de la aplicación Cuentas de usuario ofrecen información sobre diferentes tipos de eventos de actividad de Cuentas de usuario.|
+| Servicio | Descripción |
+| -------------------- | ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
+| Transparencia del acceso | Los informes de actividad de Transparencia del acceso de Google Workspace devuelven información sobre distintos tipos de eventos de actividad de Transparencia del acceso. |
+| Admin | Los informes de actividad de la aplicación Consola de administración devuelven información sobre diferentes tipos de eventos de actividad del administrador. |
+| Calendario | Los informes de actividad de la aplicación Google Calendar devuelven información sobre diferentes eventos de actividad del Calendar. |
+| Chrome | El informe de actividad de Chrome devuelve información sobre la actividad de ChromeOS de todos los usuarios de tu cuenta. Cada informe utiliza la solicitud de endpoint básica y proporciona parámetros específicos del informe, como inicios de sesión, adición o eliminación de usuarios o eventos de navegación insegura. |
+| Acceso contextual | El informe de actividad de acceso contextual devuelve información sobre denegaciones de acceso a aplicaciones a los usuarios de tu cuenta. Utiliza la solicitud de endpoint de informe básico y proporciona parámetros específicos como el ID del dispositivo y la aplicación a la que se denegó el acceso. |
+| Google Drive | Los informes de actividad de la aplicación Google Drive devuelven información sobre diferentes eventos de actividad de Google Drive. El informe de actividad de Drive sólo está disponible para los clientes de Google Workspace Business. |
+| Google Chat | El informe de actividad de Google Chat devuelve información sobre cómo los usuarios de tu cuenta utilizan y gestionan Spaces. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como cargas u operaciones de mensajes. |
+| Google Cloud | El informe de actividad de Google Cloud devuelve información sobre diferentes eventos de actividad relacionados con la API de inicio de sesión en sistemas operativos en la nube (Cloud OS). |
+| Google Keep | El informe de actividad de Google Keep devuelve información sobre cómo los usuarios de tu cuenta gestionan y modifican sus notas. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como información de carga de archivos adjuntos u operaciones de notas. |
+| Google Meet | El informe de actividad Google Meet devuelve información sobre diferentes aspectos de eventos de llamadas. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como datos de informes de abuso o datos de observación de transmisiones en directo. |
+| GPlus | Los informes de actividad de la aplicación GPlus devuelven información sobre diferentes eventos de actividad de GPlus. |
+| Grupos | Los informes de actividad de la aplicación Grupos de Google proporcionan información sobre diferentes eventos de actividad de Grupos. |
+| Grupos de empresas | Los informes de actividad de Grupos de empresas devuelven información sobre diferentes eventos de actividad de Grupos de empresa. |
+| Jamboard | El informe de actividad de Jamboard devuelve información sobre los cambios en los parámetros del dispositivo Jamboard. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como la licencia o los parámetros de emparejamiento de dispositivos. |
+| Inicio de sesión | Los informes de actividad de la aplicación de Inicio de sesión devuelven información contable sobre diferentes tipos de eventos de actividad de Inicio de sesión. |
+| Móvil | Los informes de actividad de Auditoría móvil devuelven información sobre diferentes tipos de eventos de actividad de Auditoría móvil. |
+| Reglas | Los informes de actividad de Reglas devuelven información sobre diferentes tipos de eventos de actividad de Reglas. |
+| Token | Los informes de actividad de la aplicación Token devuelven información contable sobre distintos tipos de eventos de actividad de Token. |
+| SAML | El informe de actividad de SAML devuelve información sobre los resultados de los intentos de inicio de sesión SAML. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como el tipo de fallo y el nombre de la aplicación SAML. |
+| Cuentas de usuario | Los informes de actividad de la aplicación Cuentas de usuario ofrecen información sobre diferentes tipos de eventos de actividad de Cuentas de usuario. |
+| Vault | Los logs de las acciones realizadas en la consola de Vault, como qué usuarios editaron reglas de retención o descargaron archivos de exportación. |
## Configuración
+
### Instalación
-Sigue la documentación [API de informes: Requisitos previos][1] del SDK de administración de Google Workspace antes de configurar la integración Google Workspace en Datadog.
+1. Consulta la documentación de [API de informes: requisitos previos](https://developers.google.com/admin-sdk/reports/v1/guides/prerequisites) para Google Workspace Admin SDK para confirmar los requisitos previos antes de configurar la integración Datadog y Google Workspace.
-**Nota**: Es posible que la configuración requiera ciertos contextos OAuth. Consulta la documentación [Autorizar solicitudes][2] del SDK de administración de Google Workspace.
+1. Es posible que se requieran determinados alcances de OAuth para la configuración, tal y como se documenta en la página [Solicitudes de autorización](https://developers.google.com/workspace/guides/configure-oauth-consent) de Google Workspace Admin SDK. Sigue los pasos de la sección [Configurar el consentimiento de OAuth](https://app.datadoghq.com/account/settings#integrations/gsuite) de la página para definir el alcance adecuado.
+ **Notas**:
+ \- [Elige los alcances de la API de informes](https://developers.google.com/admin-sdk/reports/v1/reference/activities/list) para proporcionar el nivel mínimo de acceso necesario.
+ \- **No** necesitas [crear credenciales de acceso](https://docs.datadoghq.com/help/) para la aplicación.
-Para configurar la integración Google Workspace en Datadog, haz clic en el botón *Connect a new Google Workspace domain* (Conectar un nuevo dominio de Google Workspace) en el [cuadro de tu integración Google Workspace en Datadog][3] y autoriza a Datadog a acceder a la API de administración de Google Workspace.
+1. Para configurar la integración de Google Workspace en Datadog, haz clic en el botón _Connect a new Google Workspace domain_ (Conectar un nuevo dominio de Google Workspace) en tu [cuadro de integración de Datadog y Google Workspace](https://app.datadoghq.com/account/settings#integrations/gsuite) y autoriza a Datadog a acceder a la API de Google Workspace Admin.
## Datos recopilados
+
### Logs
-Para obtener información detallada de los logs y su contenido, consulta la [documentación del SDK de administración de Google Workspace][4].
+Consulta la [documentación de Google Workspace Admin SDK](https://developers.google.com/admin-sdk/reports/v1/reference/activities/list) para obtener la lista completa de logs recopilados y su contenido.
**Nota**: Los logs de Groups, Grupos de empresa, Inicio de sesión, Token y Calendar se rastrean cada 90 minutos debido a una limitación en la frecuencia con la que Google sondea estos logs. Los logs de esta integración solo se envían cada 1,5-2 horas.
@@ -108,10 +74,4 @@ La integración Google Workspace no incluye checks de servicio.
## Solucionar problemas
-¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5].
-
-[1]: https://developers.google.com/admin-sdk/reports/v1/guides/prerequisites
-[2]: https://developers.google.com/admin-sdk/reports/v1/guides/authorizing#OAuth2Authorizing
-[3]: https://app.datadoghq.com/account/settings#integrations/gsuite
-[4]: https://developers.google.com/admin-sdk/reports/v1/reference/activities/list
-[5]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/).
\ No newline at end of file
diff --git a/content/es/integrations/hbase_master.md b/content/es/integrations/hbase_master.md
new file mode 100644
index 0000000000000..66fa36901ff91
--- /dev/null
+++ b/content/es/integrations/hbase_master.md
@@ -0,0 +1,245 @@
+---
+app_id: hbase-master
+app_uuid: e53ed650-6454-4f69-abfc-2cedd35ec2c3
+assets:
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ metrics:
+ check: hbase.master.assignmentmanager.rit_oldest_age
+ metadata_path: metadata.csv
+ prefix: hbase.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 10228
+ source_type_name: HBase maestro
+ logs:
+ source: hbase
+author:
+ homepage: https://github.com/DataDog/integrations-extras
+ name: Comunidad
+ sales_email: everpeace@gmail.com
+ support_email: everpeace@gmail.com
+categories:
+- almacenes de datos
+- recopilación de logs
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-extras/blob/master/hbase_master/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: hbase_master
+integration_id: hbase-master
+integration_title: Hbase maestro
+integration_version: 1.1.1
+is_public: true
+manifest_version: 2.0.0
+name: hbase_master
+public_title: Hbase maestro
+short_description: Integración de HBase maestro.
+supported_os:
+- linux
+- macos
+- windows
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::macOS
+ - Supported OS::Windows
+ - Category::Data Stores
+ - Categoría::Recopilación de logs
+ - Offering::Integration
+ configuration: README.md#Setup
+ description: Integración de HBase maestro.
+ media: []
+ overview: README.md#Información general
+ support: README.md#Soporte
+ title: Hbase maestro
+---
+
+
+
+
+## Información general
+
+Obtén métricas del servicio Hbase_master en tiempo real para:
+
+- Visualiza y monitoriza estados de Hbase_master.
+- Recibe notificaciones sobre conmutaciones por error y eventos de Hbase_master.
+
+## Configuración
+
+El check de Hbase_master no está incluido en el paquete del [Datadog Agent][1], por lo que es necesario instalarlo.
+
+### Instalación
+
+Para el Agent v7.21/v6.21 o posteriores, sigue las instrucciones a continuación para instalar el check de Hbase_master en tu host. Para instalarlo con el Agent Docker o versiones anteriores del Agent, consulta [Uso de integraciones de la comunidad][2].
+
+1. Ejecuta el siguiente comando para instalar la integración del Agent:
+
+ ```shell
+ datadog-agent integration install -t datadog-hbase_master==
+ ```
+
+2. Configura tu integración como una [integración][3] de base.
+
+### Configuración
+
+1. Edita el archivo `hbase_master.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][4] para empezar a recopilar las [métricas](#metrics) de Hbase_master. Consulta el [hbase_master.d/conf.yaml de ejemplo][5] para conocer todas las opciones de configuración disponibles.
+
+ **NOTA**: Si utilizas el Agent v6, asegúrate de modificar el archivo [`hbase_master.d/metrics.yaml`][6] y entrecomilla las claves booleanas.
+
+ ```yaml
+ - include:
+ domain: Hadoop
+ bean:
+ - Hadoop:service=HBase,name=Master,sub=Server
+ attribute:
+ # Is Active Master
+ tag.isActiveMaster:
+ metric_type: gauge
+ alias: hbase.master.server.tag.is_active_master
+ values: {"true": 1, "false": 0, default: 0}
+ ```
+
+2. [Reinicia el Agent][7]
+
+### Recopilación de logs
+
+1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent; debes habilitarla en el archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. Añade este bloque de configuración a tu archivo `hbase_master.d/conf.yaml` para empezar a recopilar tus logs de Hbase_master:
+
+ ```yaml
+ logs:
+ - type: file
+ path: /path/to/my/directory/file.log
+ source: hbase
+ ```
+
+ Cambia el valor del parámetro `path` y configúralo para tu entorno.
+ Para conocer todas las opciones de configuración disponibles, consulta el [hbase_master.d/conf.yaml de ejemplo][8].
+
+3. [Reinicia el Agent][7].
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][8] y busca `hbase_master` en la sección **Checks**.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "hbase_master" >}}
+
+
+### Eventos
+
+El check de Hbase_master no incluye eventos.
+
+### Checks de servicios
+
+El check de Hbase_master no incluye checks de servicio.
+
+## Solucionar problemas
+
+¿Necesitas ayuda? [Consulta el servicio de asistencia de Datadog][9].
+
+
+
+
+
+## Integración HBase RegionServer
+
+## Información general
+
+Obtén métricas del servicio HBase RegionServer en tiempo real para:
+
+- Visualiza y monitoriza estados de HBase RegionServer.
+- Recibe notificaciones sobre fallos y eventos de HBase RegionServer.
+
+## Configuración
+
+El check de y eventos no está incluido en el paquete del [Datadog Agent][1], por lo que es necesario instalarlo.
+
+### Instalación
+
+Para el Agent v7.21/v6.21 o posteriores, sigue las instrucciones a continuación para instalar el check de y eventos en tu host. Para instalarlo con el Agent Docker o versiones anteriores del Agent, consulta [Uso de integraciones de la comunidad][2].
+
+1. Ejecuta el siguiente comando para instalar la integración del Agent:
+
+ ```shell
+ datadog-agent integration install -t datadog-hbase_regionserver==
+ ```
+
+2. Configura tu integración como una [integración][3] de base.
+
+### Configuración
+
+1. Edita el archivo `hbase_regionserver.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][4] para empezar a recopilar las [métricas](#metrics) de HBase RegionServer. Consulta el [hbase_regionserver.d/conf.yaml de ejemplo][10] para conocer todas las opciones de configuración disponibles.
+
+2. [Reinicia el Agent][7]
+
+### Recopilación de logs
+
+1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent; debes habilitarla en el archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. Añade este bloque de configuración a tu archivo `hbase_regionserver.d/conf.yaml` para empezar a recopilar tus logs de Hbase_regionserver:
+
+ ```yaml
+ logs:
+ - type: file
+ path: /path/to/my/directory/file.log
+ source: hbase
+ ```
+
+ Cambia el valor del parámetro `path` y configúralo para tu entorno.
+ Para conocer todas las opciones de configuración disponibles, consulta el [hbase_regionserver.d/conf.yaml de ejemplo][10].
+
+3. [Reinicia el Agent][7].
+
+## Validación
+
+[Ejecuta el subcomando de estado del Agent][8] y busca `hbase_regionserver` en la sección **Checks**.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "hbase_regionserver" >}}
+
+
+### Eventos
+
+El check de HBase RegionServer check no incluye eventos.
+
+### Checks de servicios
+
+El check de HBase RegionServer check no incluye checks de servicio.
+
+## Solucionar problemas
+
+¿Necesitas ayuda? [Consulta el servicio de asistencia de Datadog][9].
+
+
+
+[1]: https://app.datadoghq.com/account/settings/agent/latest
+[2]: https://docs.datadoghq.com/es/agent/guide/use-community-integrations/
+[3]: https://docs.datadoghq.com/es/getting_started/integrations/
+[4]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/#agent-configuration-directory
+[5]: https://github.com/DataDog/integrations-extras/blob/master/hbase_master/datadog_checks/hbase_master/data/conf.yaml.example
+[6]: https://github.com/DataDog/integrations-extras/blob/master/hbase_master/datadog_checks/hbase_master/data/metrics.yaml
+[7]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[8]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#service-status
+[9]: http://docs.datadoghq.com/help
+[10]: https://github.com/DataDog/integrations-extras/blob/master/hbase_regionserver/datadog_checks/hbase_regionserver/data/conf.yaml.example
\ No newline at end of file
diff --git a/content/es/integrations/jira.md b/content/es/integrations/jira.md
new file mode 100644
index 0000000000000..a3c88443a74ba
--- /dev/null
+++ b/content/es/integrations/jira.md
@@ -0,0 +1,148 @@
+---
+app_id: jira
+categories:
+- collaboration
+- developer tools
+- issue tracking
+- notifications
+custom_kind: integración
+description: Haz que tus alertas de Datadog se autogeneren y posteriormente actualicen
+ tickets de Jira.
+title: Jira
+---
+## Información general
+
+Jira es un sistema de rastreo de problemas y proyectos para equipos de software. La integración de Datadog Jira permite crear problemas a partir de alertas, incidentes y casos activados en Datadog y ver los problemas creados en Jira como eventos de Datadog.
+
+## Configuración
+
+### Crear un enlace de aplicación en Jira
+
+#### Instrucciones de Jira Cloud
+
+1. Ve a Jira.
+
+1. Haz clic en el icono de engranaje de la esquina derecha y selecciona **Products** (Productos).
+
+1. En el menú de la izquierda, en **Integrations** (Integraciones), haz clic en **Application links** (Enlaces de aplicación) y, a continuación, en **Create link** (Crear enlace).
+
+1. Selecciona la casilla **Direct application link** (Enlace directo a la aplicación), introduce la URL `https://{{< region-param key="dd_full_site" code="true" >}}` y haz clic en **Continue** (Continuar).
+
+1. Ignora la advertencia "No response was received from the URL you entered" (No se ha recibido respuesta de la URL introducida) y haz clic en **Continue** (Continuar).
+
+1. Rellena el formulario como se indica a continuación y haz clic en **Continue** (Continuar).
+
+ | Campo | Entrada |
+ |-----------------------|--------------------------------|
+ | Nombre de la aplicación | `{Enter a name (e.g. Datadog)}`|
+ | Tipo de aplicación | Aplicación genérica |
+ | Nombre del proveedor de servicios | `{leave blank}` |
+ | Clave del consumidor | `{leave blank}` |
+ | Secreto compartido | `{leave blank}` |
+ | URL del token de solicitud | `{leave blank}` |
+ | URL del token de acceso | `{leave blank}` |
+ | Autorizar URL | `{leave blank}` |
+ | Crear enlace de entrada | Marcar la casilla |
+
+1. Rellena el siguiente formulario y haz clic en **Continue** (Continuar). Para encontrar la clave pública en el [cuadro de la integración Datadog Jira](https://app.datadoghq.com/integrations/jira), haz clic en **Add Account** (Añadir cuenta).
+
+ | Campo | Entrada |
+ |---------------|------------------------------------------------------------|
+ | Clave del consumidor | `{Enter a key name (e.g. datadog)}` |
+ | Nombre del consumidor | Datadog |
+ | Clave pública | `{Enter the public key from Datadog Jira integration tile}`|
+
+#### Instrucciones de Jira Data Center
+
+1. Ve a Jira.
+1. Haz clic en el icono de engranaje de la esquina derecha y selecciona **Applications** (Aplicaciones).
+1. En el menú de la izquierda, en **Integrations** (Integraciones), haz clic en **Application links** (Enlaces de aplicación) y, a continuación, en **Create link** (Crear enlace).
+1. En el cuadro de diálogo **Create link** (Crear enlace), selecciona **Atlassian product** (Producto Atlassian) y proporciona la URL de la aplicación como `https://{{< region-param key="dd_full_site" code="true" >}}`. Haz clic en **Continue** (Continuar).
+1. Ignora la advertencia "No response was received from the URL you entered" (No se ha recibido respuesta de la URL introducida) y haz clic en **Continue** (Continuar).
+1. Rellena el formulario utilizando los mismos parámetros que se muestran arriba en las instrucciones de Jira Cloud.
+
+### Conectar Datadog a tu instancia de Jira
+
+
+Datadog recomienda especialmente tener una cuenta de servicio Jira exclusiva (no personal) específicamente para esta integración, para obtener resultados óptimos y más coherentes.
+
+
+1. Ve al [cuadro de la integración Datadog Jira](https://app.datadoghq.com/integrations/jira) y haz clic en **Add Account** (Añadir cuenta).
+1. Introduce la URL de tu instancia de Jira y la clave de consumidor del enlace de aplicación que creaste anteriormente.
+1. Haz clic en **Connect** (Conectar) y sigue las instrucciones de la página de autorización de Jira. Asegúrate de iniciar sesión en esta cuenta antes de pulsar **Connect** (Conectar).
+ **Nota**: La integración Datadog Jira puede conectarse a instancias On-Premises/Jira Data Center. Sin embargo, muchas de estas instancias tienen listas negras de rangos de IP. Para que la integración funcione, sigue la documentación de filtrado de IP que aparece a continuación.
+
+### Filtrado de IP
+
+Si tu instancia de Jira filtra el tráfico por dirección IP, necesitas permitir conexiones desde los prefijos IP de **webhooks**
+pertenecientes a Datadog para que la integración funcione. Para consultar una lista de prefijos IP de **webhooks** de tu región, consulta [Rangos de IP de Datadog](https://docs.datadoghq.com/api/latest/ip-ranges/).
+
+### Configuración adicional
+
+Para configurar la creación automática de incidentes de Jira con sincronización bidireccional en Case Management, consulta las instrucciones para [configurar un webhook de Jira](#configure-a-jira-webhook) y la documentación de [Case Management](https://docs.datadoghq.com/service_management/case_management/settings/#jira).
+
+Para crear incidentes de Jira a partir de alertas de monitor de Datadog, consulta [Configurar una plantilla de incidentes](#configure-an-issue-template).
+
+## Configurar un webhook de Jira
+
+La configuración de un webhook permite que los casos creados en Case Management creen automáticamente incidentes en Jira y mantengan sincronizados ambos recursos.
+
+Para crear un webhook de Jira:
+
+1. En Jira, haz clic en el icono **Gear** (Engranaje) de la esquina superior derecha y selecciona **System** (Sistema).
+1. En el menú de la izquierda, en *Advanced* (Avanzado), haz clic en **Webhooks**.
+1. Haz clic en **Create a Webhook** (Crear un webhook) en la esquina derecha.
+1. Introduce `Datadog Webhook` como nombre del webhook.
+1. Mantén el estado como **Enabled** (Habilitado).
+1. Ve al [cuadro de la integración Datadog Jira](https://app.datadoghq.com/account/settings#integrations/jira).
+1. En la sección Webhooks, copia la URL del webhook.
+1. Vuelve a Jira y pega la URL del webhook en *URL*.
+1. Habilita los siguientes eventos relacionados con problemas. Si solo quieres enviar un subconjunto de eventos de problemas, puedes utilizar JQL para filtrarlos. En este ejemplo, estamos filtrando solo para los proyectos AB y CD.
+ {{< img src="integrations/jira/jira_issue_events.png" alt="Eventos de incidentes en Jira" style="width:80%;">}}
+1. Habilita los eventos relacionados con el proyecto `deleted`.
+1. Deja todo lo demás sin marcar.
+1. Haz clic en el botón **Create** (Crear) situado en la parte inferior de la página.
+
+## Configurar una plantilla de problema
+
+Las plantillas de problemas definen cómo se crean los problemas en Jira a partir de eventos de alerta de Datadog.
+
+Para crear una plantilla de problemas:
+
+1. En Datadog, haz clic en **New Issue Template** (Nueva plantilla de problema) en la sección **Connect Jira to Monitor Notifications** (Conectar Jira a notificaciones de monitor).
+1. Introduce un nombre para tu plantilla de problemas. Este nombre, prefijado con `jira-`, se convierte en el identificador que puedes utilizar en tu monitor para enviar notificaciones (como `jira-my-issue-template-name`).
+1. Selecciona una cuenta de Jira.
+1. Selecciona el proyecto y el tipo de proyecto (como **Historia**, **Épica**, **Tarea** o **Problema**).
+1. Aparece una lista de campos configurables. Introduce los valores en los campos deseados y haz clic en **Save** (Guardar).
+
+### Configurar campos del problema
+
+Los campos de plantilla de problemas definen los datos que se incluyen al crear problemas en Jira. Por ejemplo, puedes configurar tu plantilla para crear problemas con una prioridad específica o un asignatario predeterminado.
+
+Puedes utilizar los datos del evento de alerta para rellenar los valores de los campos del incidente utilizando variables de plantilla como `${EVENT_TITLE}`. Para ver una lista de posibles variables, consulta la [integración de webhooks de Datadog](https://docs.datadoghq.com/integrations/webhooks/).
+
+## Utilización
+
+#### Creación automática de problemas a partir de las alertas de Datadog
+
+Para crear problemas de Jira a partir de eventos de alerta de Datadog, introduce el identificador de notificación de una o varias plantillas de problemas como `@jira-my-issue-template` al crear un monitor en las secciones **Notify your team** o **Say what's happening** (Notifica a tu equipo o Di lo que está pasando).
+
+Los problemas se crean cuando se activa el monitor. El monitor no crea nuevos problemas hasta que se resuelve el monitor.
+
+## Datos recopilados
+
+### Métricas
+
+La integración de Jira no incluye ninguna métrica.
+
+### Eventos
+
+Todos los problemas de Jira creados aparecen como eventos en Datadog.
+
+### Checks de servicio
+
+La integración de Jira no incluye ningún check de servicio.
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
\ No newline at end of file
diff --git a/content/es/integrations/juniper_srx_firewall.md b/content/es/integrations/juniper_srx_firewall.md
new file mode 100644
index 0000000000000..32c1eeb4516a3
--- /dev/null
+++ b/content/es/integrations/juniper_srx_firewall.md
@@ -0,0 +1,246 @@
+---
+app_id: juniper-srx-firewall
+app_uuid: 0451c670-94dc-490e-86b7-b23b5a7cdceb
+assets:
+ dashboards:
+ Juniper SRX Firewall - Authentication Logs: assets/dashboards/juniper_srx_firewall_authentication_logs.json
+ Juniper SRX Firewall - Overview: assets/dashboards/juniper_srx_firewall_overview.json
+ Juniper SRX Firewall - Security Logs: assets/dashboards/juniper_srx_firewall_security_logs.json
+ Juniper SRX Firewall - Session Logs: assets/dashboards/juniper_srx_firewall_session_logs.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ source_type_id: 40625309
+ source_type_name: Juniper SRX Firewall
+ logs:
+ source: juniper-srx-firewall
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- recopilación de logs
+- seguridad
+- red
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/juniper_srx_firewall/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: juniper_srx_firewall
+integration_id: juniper-srx-firewall
+integration_title: Juniper SRX Firewall
+integration_version: 1.0.0
+is_public: true
+manifest_version: 2.0.0
+name: juniper_srx_firewall
+public_title: Juniper SRX Firewall
+short_description: Obtener información sobre logs de Juniper SRX Firewall
+supported_os:
+- linux
+- windows
+- macOS
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Sistema operativo compatible::Linux
+ - Sistema operativo compatible::Windows
+ - Sistema operativo compatible::macOS
+ - Categoría::Recopilación de logs
+ - Categoría::Seguridad
+ - Categoría::Red
+ - Oferta::Integración
+ - Tipo de datos enviados::Logs
+ configuration: README.md#Configuración
+ description: Obtener información sobre logs de Juniper SRX Firewall
+ media:
+ - caption: Juniper SRX Firewall - Información general
+ image_url: images/juniper_srx_firewall_overview.png
+ media_type: imagen
+ - caption: Juniper SRX Firewall - Logs de sesión
+ image_url: images/juniper_srx_firewall_session_logs.png
+ media_type: imagen
+ - caption: Juniper SRX Firewall - Logs de seguridad
+ image_url: images/juniper_srx_firewall_security_logs.png
+ media_type: imagen
+ - caption: Juniper SRX Firewall - Logs de autenticación
+ image_url: images/juniper_srx_firewall_authentication_logs.png
+ media_type: imagen
+ overview: README.md#Información general
+ support: README.md#Soporte
+ title: Juniper SRX Firewall
+---
+
+
+## Información general
+
+[Juniper SRX Firewall][1] protege tu borde de red, centro de datos y aplicaciones de nube mediante la detección y mitigación de intrusiones, software malicioso y otras amenazas.
+
+Esta integración analiza los siguientes tipos de logs:
+
+- **Logs de sesión**: Realiza un seguimiento del tráfico de red y las actividades de sesión, incluidas las sesiones iniciadas y denegadas, el tráfico relacionado con aplicaciones y los paquetes descartados.
+- **Logs de seguridad**: Monitoriza eventos de seguridad como detecciones de software malicioso, intentos de intrusión, ataques DoS y actividades de filtrado de contenidos.
+- **Logs de autenticación**: Captura las actividades de autenticación, incluidos los intentos exitosos y fallidos de inicio de sesión.
+
+Obtén una visibilidad detallada de estos logs mediante dashboards predefinidos y refuerza la seguridad con reglas de detección Cloud SIEM preconfiguradas para una monitorización y una respuesta proactiva en caso de amenazas.
+
+## Configuración
+
+### Instalación
+
+Para instalar la integración Juniper SRX Firewall, ejecuta el siguiente comando de instalación del Agent en tu terminal. Para obtener más información, consulta la documentación [Gestión de integraciones][2].
+
+**Nota**: Este paso no es necesario para versiones >= 7.64.0 del Agent.
+
+```shell
+sudo -u dd-agent -- datadog-agent integration install datadog-juniper_srx_firewall==1.0.0
+```
+
+### Configuración
+
+#### Configurar la recopilación de log
+
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en el archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. Añade el siguiente bloque de configuración a tu archivo `juniper_srx_firewall.d/conf.yaml` para empezar a recopilar logs. Consulta el [ejemplo `conf.yaml`][3] para ver las opciones de configuración disponibles.
+
+ ```yaml
+ logs:
+ - type: udp
+ port:
+ source: juniper-srx-firewall
+ service: juniper-srx-firewall
+ ```
+
+ **Nota**:
+
+ - `PORT`: Especifica el puerto UDP en el que escuchará Datadog (por defecto: 514).
+ - No modifiques los valores de `service` y `source`, ya que forman parte integrante del correcto procesamiento de pipelines de logs.
+
+3. [Reinicia el Agent][4].
+
+#### Configurar el reenvío de mensajes Syslog desde Juniper SRX Firewall
+
+1. Inicia sesión en la CLI de Juniper SRX Firewall.
+
+2. Ingresa en el modo de configuración:
+ ```shell
+ configure
+ ```
+
+3. Para enviar logs al Datadog Agent, ejecute los siguientes comandos:
+ ```shell
+ set system syslog host any any
+ set system syslog host port
+ set system syslog host structured-data brief
+ ```
+ **Nota**:
+ - Sustituye `` por la dirección IP del Datadog Agent.
+ - Sustituye `` por el mismo puerto configurado en [Recopilación de logs][5].
+
+4. Comprueba si `Security Logging` está activado:
+ ```shell
+ show security log mode
+ ```
+ Si está activado, el resultado mostrará `mode stream;` o `mode event-stream;`
+
+5. Si `Security Logging` está activado, configura la transmisión de logs:
+ ```shell
+ set security log stream format sd-syslog
+ set security log stream category all
+ set security log stream host
+ set security log stream host port
+ set security log transport protocol udp
+ ```
+
+6. Aplica los cambios y sal de la configuración:
+ ```
+ commit
+ exit
+ ```
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][6] y busca `juniper_srx_firewall` en la sección Checks.
+
+## Datos recopilados
+
+### Log
+
+| Formato | Tipos de evento |
+| ------------------------- | ------------------------------------------------ |
+| Structured-Data(RFC 5424) | Logs de sesión, logs de seguridad, logs de autenticación |
+
+### Métricas
+
+La integración Juniper SRX Firewall no incluye métricas.
+
+### Eventos
+
+La integración Juniper SRX Firewall no incluye eventos.
+
+### Checks de servicio
+
+La integración Juniper SRX Firewall no incluye checks de servicios.
+
+## Solucionar problemas
+
+### Permiso denegado durante la vinculación de puertos
+
+Si aparece un error de **Permission denied** (Permiso denegado) al vincular puertos en los logs del Agent:
+
+1. La vinculación a un número de puerto inferior a 1024 requiere permisos elevados. Concede acceso al puerto mediante el comando `setcap`:
+
+ ```shell
+ sudo setcap CAP_NET_BIND_SERVICE=+ep /opt/datadog-agent/bin/agent/agent
+ ```
+
+2. Comprueba que la configuración es correcta ejecutando el comando `getcap`:
+
+ ```shell
+ sudo getcap /opt/datadog-agent/bin/agent/agent
+ ```
+
+ Con el resultado esperado:
+
+ ```shell
+ /opt/datadog-agent/bin/agent/agent = cap_net_bind_service+ep
+ ```
+
+ **Nota**: Vuelve a ejecutar este comando `setcap` cada vez que actualices el Agent.
+
+3. [Reinicia el Agent][4].
+
+### No se recopilan datos
+
+Asegúrate de que la configuración del cortafuegos permite el tráfico a través del puerto configurado.
+
+### Puerto ya utilizado
+
+En los sistemas que ejecutan Syslog, el Agent puede fallar al intentar vincularse con el puerto 514 y mostrar el siguiente error:
+
+ Can't start UDP forwarder on port 514: listen udp :514: bind: address already in use
+
+Este error se produce porque Syslog utiliza el puerto 514 por defecto.
+
+Para resolverlo:
+ - Desactivar Syslog, O
+ - Configura el Agent para escuchar en un puerto diferente, disponible.
+
+Para obtener más ayuda, ponte en contacto con el [soporte de Datadog][7].
+
+[1]: https://www.juniper.net/us/en/products/security/srx-series.html
+[2]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=linux#install
+[3]: https://github.com/DataDog/integrations-core/blob/master/juniper_srx_firewall/datadog_checks/juniper_srx_firewall/data/conf.yaml.example
+[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[5]: https://docs.datadoghq.com/es/integrations/juniper_srx_firewall/#configure-log-collection
+[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[7]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/kubernetes_cluster_autoscaler.md b/content/es/integrations/kubernetes_cluster_autoscaler.md
new file mode 100644
index 0000000000000..41885cc7334a3
--- /dev/null
+++ b/content/es/integrations/kubernetes_cluster_autoscaler.md
@@ -0,0 +1,187 @@
+---
+app_id: kubernetes-cluster-autoscaler
+app_uuid: 3a3fc186-af02-48e5-8b68-ee9ef37ea566
+assets:
+ dashboards:
+ Kubernetes Cluster Autoscaler Overview: assets/dashboards/kubernetes_cluster_autoscaler_overview.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ metrics:
+ check: kubernetes_cluster_autoscaler.nodes.count
+ metadata_path: metadata.csv
+ prefix: kubernetes_cluster_autoscaler.
+ process_signatures:
+ - cluster-autoscaler
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 14391189
+ source_type_name: Kubernetes Cluster Autoscaler
+ logs:
+ source: kubernetes_cluster_autoscaler
+ monitors:
+ Kubernetes Cluster Autoscaler is not safe to autoscale: assets/monitors/KCA_not_safe_to_autosclae.json
+ Kubernetes Cluster Autoscaler reporting errors: assets/monitors/KCA_unused_nodes_forecast.json
+ Kubernetes Cluster Autoscaler too many unused nodes forecast: assets/monitors/KCA_reporting_errors.json
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- métricas
+- Kubernetes
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/kubernetes_cluster_autoscaler/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: kubernetes_cluster_autoscaler
+integration_id: kubernetes-cluster-autoscaler
+integration_title: Kubernetes Cluster Autoscaler
+integration_version: 2.2.0
+is_public: true
+manifest_version: 2.0.0
+name: kubernetes_cluster_autoscaler
+public_title: Kubernetes Cluster Autoscaler
+short_description: Integración para Kubernetes Cluster Autoscaler
+supported_os:
+- linux
+- windows
+- macOS
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Sistema operativo compatible::Linux
+ - Sistema operativo compatible::Windows
+ - Sistema operativo compatible::macOS
+ - Categoría::Métricas
+ - Categoría::Kubernetes
+ - Tipo de datos enviados::Métricas
+ - Oferta::Integración
+ configuration: README.md#Configuración
+ description: Integración para Kubernetes Cluster Autoscaler
+ media: []
+ overview: README.md#Información general
+ support: README.md#Soporte
+ title: Kubernetes Cluster Autoscaler
+---
+
+
+
+
+## Información general
+
+Este check monitoriza [Kubernetes Cluster Autoscaler][1] a través del Datadog Agent.
+
+## Configuración
+
+Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos contenedorizados, consulta las [plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones.
+
+### Instalación
+
+El check de Kubernetes Cluster Autoscaler está incluido en el paquete del [Datadog Agent][3]. (Agent >= 7.55.x)
+No es necesaria ninguna instalación adicional en tu servidor.
+
+### Configuración
+
+1. Edita el archivo `kubernetes_cluster_autoscaler.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent para empezar a recopilar los datos de rendimiento de kubernetes_cluster_autoscaler. Para ver todas las opciones de configuración disponibles, consulta el [ejemplo de kubernetes_cluster_autoscaler.d/conf.yaml][4].
+
+2. [Reinicia el Agent][5].
+
+#### Recopilación de métricas
+
+Asegúrate de que las métricas con formato Prometheus están expuestas en tu clúster `kubernetes_cluster_autoscaler`.
+Para que el Agent empiece a recopilar métricas, los pods `kubernetes_cluster_autoscaler` deben estar anotados.
+
+[Kubernetes Cluster Autoscaler][6] tiene métricas y endpoints livenessProbe a los que se puede acceder en el puerto `8085`. Estos endpoints se encuentran en `/metrics` y `/health-check`, y proporcionan información valiosa sobre el estado de tu clúster durante las operaciones de escalado.
+
+**Nota**: Para cambiar el puerto por defecto, utiliza el marcador `--address`.
+
+Para configurar el Cluster Autoscaler para exponer métricas, haz lo siguiente:
+
+1. a) Habilita el acceso a la ruta `/metrics` y expón el puerto `8085` del despliegue de tu Cluster Autoscaler:
+
+```
+ports:
+--name: app
+containerPort: 8085
+```
+
+b) Ordena a tu Prometheus que lo depure, añadiendo la siguiente anotación a tu servicio de Cluster Autoscaler:
+```
+prometheus.io/scrape: true
+```
+
+**Nota**: Los métricas enumeradas solo pueden recopilarse si están disponibles. Algunas métricas solo se generan cuando se realizan determinadas acciones.
+
+Los únicos parámetros necesarios para configurar el check `kubernetes_cluster_autoscaler` son:
+
+* NOMBRE_DEL_CONTENEDOR
+ Nombre del contenedor del controlador de Cluster Autoscaler.
+* `openmetrics_endpoint`
+ Este parámetro debe configurarse en la ubicación donde se exponen las métricas con formato Prometheus. El puerto por defecto es `8085`. Para configurar un puerto diferente, utiliza la [variable de entorno][7] `METRICS_PORT`. En entornos contenedorizados, `%%host%%` debe utilizarse para la [detección automática de hosts][2].
+
+```yaml
+apiVersion: v1
+kind: Pod
+# (...)
+metadata:
+ name: ''
+ annotations:
+ ad.datadoghq.com/.checks: |
+ {
+ "kubernetes_cluster_autoscaler": {
+ "init_config": {},
+ "instances": [
+ {
+ "openmetrics_endpoint": "http://%%host%%:8085/metrics"
+ }
+ ]
+ }
+ }
+ # (...)
+spec:
+ containers:
+ - name: ''
+# (...)
+```
+
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][8] y busca `kubernetes_cluster_autoscaler` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "kubernetes_cluster_autoscaler" >}}
+
+
+### Eventos
+
+La integración Kubernetes Cluster Autoscaler no incluye eventos.
+
+### Checks de servicio
+{{< get-service-checks-from-git "kubernetes_cluster_autoscaler" >}}
+
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [equipo de asistencia de Datadog][11].
+
+
+[1]: https://docs.datadoghq.com/es/integrations/kubernetes_cluster_autoscaler/
+[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/
+[3]: https://app.datadoghq.com/account/settings/agent/latest
+[4]: https://github.com/DataDog/integrations-core/blob/master/kubernetes_cluster_autoscaler/datadog_checks/kubernetes_cluster_autoscaler/data/conf.yaml.example
+[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[6]: https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/FAQ.md#how-can-i-monitor-cluster-autoscaler
+[7]: https://kubernetes.io/docs/tasks/inject-data-application/define-environment-variable-container/
+[8]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[9]: https://github.com/DataDog/integrations-core/blob/master/kubernetes_cluster_autoscaler/metadata.csv
+[10]: https://github.com/DataDog/integrations-core/blob/master/kubernetes_cluster_autoscaler/assets/service_checks.json
+[11]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/kubevirt_api.md b/content/es/integrations/kubevirt_api.md
new file mode 100644
index 0000000000000..d8a335975386f
--- /dev/null
+++ b/content/es/integrations/kubevirt_api.md
@@ -0,0 +1,161 @@
+---
+app_id: kubevirt-api
+app_uuid: 6b760149-4a9f-4ec7-a5bf-081fcd1d75b0
+assets:
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ metrics:
+ check:
+ - kubevirt_api.process.cpu_seconds.count
+ - kubevirt_api.proceso.open_fds
+ metadata_path: metadata.csv
+ prefix: kubevirt_api.
+ process_signatures:
+ - virt-api
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 21556836
+ source_type_name: KubeVirt API
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- rastreo
+- Kubernetes
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/kubevirt_api/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: kubevirt_api
+integration_id: kubevirt-api
+integration_title: KubeVirt API
+integration_version: 1.2.0
+is_public: true
+manifest_version: 2.0.0
+name: kubevirt_api
+public_title: KubeVirt API
+short_description: Recopila métricas clave para monitorizar el estado de tu servicio
+ KubeVirt API.
+supported_os:
+- linux
+- Windows
+- macOS
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Category::Containers
+ - Categoría::Kubernetes
+ - Sistema operativo compatible::Linux
+ - Sistema operativo compatible::Windows
+ - Sistema operativo compatible::macOS
+ - Oferta::Integración
+ - Submitted Data Type::Metrics
+ configuration: README.md#Configuración
+ description: Recopila métricas clave para monitorizar el estado de tu servicio KubeVirt
+ API.
+ media: []
+ overview: README.md#Información general
+ support: README.md#Soporte
+ title: KubeVirt API
+---
+
+
+
+
+
+Esta integración se encuentra en fase beta pública y debe activarse en cargas de trabajo de producción con precaución.
+
+
+## Información general
+
+Este check monitoriza [KubeVirt API][1] a través del Datadog Agent.
+
+## Configuración
+
+Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones.
+
+### Instalación
+
+El check de KubeVirt API está incluido en el paquete del [Datadog Agent][3].
+No es necesaria ninguna instalación adicional en tu servidor.
+
+### Configuración
+
+El caso de uso principal para ejecutar el check `kubevirt_api` es como [check a nivel de clúster][4].
+
+Para ello, tendrás que actualizar algunos permisos RBAC para proporcionar al servicio `datadog-agent` acceso de sólo lectura a los recursos `KubeVirt`, siguiendo los pasos que se indican a continuación:
+
+1. Vincula el ClusterRole `kubevirt.io:view` a la cuenta de servicio `datadog-agent`:
+
+```yaml
+apiVersion: rbac.authorization.k8s.io/v1
+kind: ClusterRoleBinding
+metadata:
+ name: datadog-agent-kubevirt
+roleRef:
+ apiGroup: rbac.authorization.k8s.io
+ kind: ClusterRole
+ name: kubevirt.io:view
+subjects:
+ - kind: ServiceAccount
+ name: datadog-agent
+ namespace:
+```
+
+Sustituye `` por el espacio de nombres donde instalaste la cuenta de servicio del `Datadog-Agent`.
+
+2. Anota la plantilla de pods de tu despliegue `virt-api` parcheando el recurso `KubeVirt` como se indica a continuación:
+
+```yaml
+apiVersion: kubevirt.io/v1
+kind: KubeVirt
+metadata:
+ name: kubevirt
+ namespace: kubevirt
+spec:
+ certificateRotateStrategy: {}
+ configuration: {}
+ customizeComponents:
+ patches:
+ - resourceType: Deployment
+ resourceName: virt-api
+ patch: '{"spec":{"template":{"metadata":{"annotations":{"ad.datadoghq.com/virt-api.check_names":"[\"kubevirt_api\"]","ad.datadoghq.com/virt-api.init_configs":"[{}]","ad.datadoghq.com/virt-api.instances":"[{\"kubevirt_api_metrics_endpoint\":\"https://%%host%%:%%port%%/metrics\",\"kubevirt_api_healthz_endpoint\":\"https://%%host%%:%%port%%/healthz\",\"kube_namespace\":\"%%kube_namespace%%\",\"kube_pod_name\":\"%%kube_pod_name%%\",\"tls_verify\":\"false\"}]"}}}}}'
+ type: strategic
+```
+
+### Validación
+
+[Ejecuta el subcomando `clusterchecks` del Cluster Agent][5] dentro de tu contenedor del Cluster Agent y busca el check `kubevirt_api` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "kubevirt_api" >}}
+
+
+### Eventos
+
+La integración KubeVirt API no incluye eventos.
+
+### Checks de servicio
+
+La integración KubeVirt API no incluye checks de servicios.
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][7].
+
+[1]: https://docs.datadoghq.com/es/integrations/kubevirt_api
+[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/
+[3]: https://app.datadoghq.com/account/settings/agent/latest
+[4]: https://docs.datadoghq.com/es/containers/cluster_agent/clusterchecks/?tab=datadogoperator
+[5]: https://docs.datadoghq.com/es/containers/troubleshooting/cluster-and-endpoint-checks/#dispatching-logic-in-the-cluster-agent
+[6]: https://github.com/DataDog/integrations-core/blob/master/kubevirt_api/metadata.csv
+[7]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/lighttpd.md b/content/es/integrations/lighttpd.md
index 3e10223db33c0..7db49f3a6a91c 100644
--- a/content/es/integrations/lighttpd.md
+++ b/content/es/integrations/lighttpd.md
@@ -1,75 +1,23 @@
---
-"app_id": "lighttpd"
-"app_uuid": "3d7ace6a-9efd-4d21-b4e6-a9956512a875"
-"assets":
- "dashboards":
- "lighttpd": "assets/dashboards/lighttpd_dashboard.json"
- "integration":
- "auto_install": true
- "configuration":
- "spec": "assets/configuration/spec.yaml"
- "events":
- "creates_events": false
- "metrics":
- "check": "lighttpd.performance.uptime"
- "metadata_path": "metadata.csv"
- "prefix": "lighttpd."
- "process_signatures":
- - "lighttpd"
- "service_checks":
- "metadata_path": "assets/service_checks.json"
- "source_type_id": !!int "58"
- "source_type_name": "Lighttpd"
- "saved_views":
- "lighttpd_processes": "assets/saved_views/lighttpd_processes.json"
-"author":
- "homepage": "https://www.datadoghq.com"
- "name": "Datadog"
- "sales_email": "info@datadoghq.com"
- "support_email": "help@datadoghq.com"
-"categories":
-- "log collection"
-"custom_kind": "integración"
-"dependencies":
-- "https://github.com/DataDog/integrations-core/blob/master/lighttpd/README.md"
-"display_on_public_website": true
-"draft": false
-"git_integration_title": "lighttpd"
-"integration_id": "lighttpd"
-"integration_title": "Lighttpd"
-"integration_version": "5.1.0"
-"is_public": true
-"manifest_version": "2.0.0"
-"name": "lighttpd"
-"public_title": "Lighttpd"
-"short_description": "Realiza un seguimiento del tiempo de actividad, de los bytes utilizados, de las solicitudes por segundo, de los códigos de respuesta y mucho más."
-"supported_os":
-- "linux"
-- "windows"
-- "macos"
-"tile":
- "changelog": "CHANGELOG.md"
- "classifier_tags":
- - "Category::Recopilación de logs"
- - "Supported OS::Linux"
- - "Supported OS::Windows"
- - "Supported OS::macOS"
- - "Offering::Integración"
- "configuration": "README.md#Configuración"
- "description": "Realiza un seguimiento del tiempo de actividad, de los bytes utilizados, de las solicitudes por segundo, de los códigos de respuesta y mucho más."
- "media": []
- "overview": "README.md#Información general"
- "resources":
- - "resource_type": "blog"
- "url": "https://www.datadoghq.com/blog/monitor-lighttpd-web-server-metrics"
- "support": "README.md#Soporte"
- "title": "Lighttpd"
+app_id: lighttpd
+categories:
+- log collection
+custom_kind: integración
+description: Seguimiento del tiempo de actividad, de los bytes utilizados, de las
+ solicitudes por segundo, de los códigos de respuesta y mucho más more.
+further_reading:
+- link: https://www.datadoghq.com/blog/monitor-lighttpd-web-server-metrics
+ tag: blog
+ text: Monitorizar métricas del servidor web Lighttpd con Datadog
+integration_version: 5.1.0
+media: []
+supported_os:
+- linux
+- windows
+- macos
+title: Lighttpd
---
-
-
-
-
-![Dashboard de Lighttpd][1]
+
## Información general
@@ -79,20 +27,21 @@ El check de Lighttpd del Agent realiza un seguimiento del tiempo de actividad, d
### Instalación
-El check de Lighttpd está incluido en el paquete del [Datadog Agent][2], por lo que no necesitas instalar nada más en tus servidores de Lighttpd.
+El check de Lighttpd está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest), por lo que no necesitas instalar nada más en tus servidores Lighttpd.
Además, instala `mod_status` en tus servidores de Lighttpd.
### Configuración
{{< tabs >}}
+
{{% tab "Host" %}}
-#### Host
+#### host
Para configurar este check para un Agent que se ejecuta en un host:
-1. Edita el archivo `lighttpd.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del [directorio de configuración del Agent][1]. Para ver todas las opciones de configuración disponibles, consulta el [ejemplo marathon.d/conf.yaml][2]:
+1. Edita el archivo `lighttpd.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory). Consulta el [ejemplo de lighttpd.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/lighttpd/datadog_checks/lighttpd/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles:
```yaml
init_config:
@@ -104,17 +53,15 @@ Para configurar este check para un Agent que se ejecuta en un host:
- lighttpd_status_url: http://localhost/server-status?auto
```
-2. [Reinicia el Agent][3].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
-[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory
-[2]: https://github.com/DataDog/integrations-core/blob/master/lighttpd/datadog_checks/lighttpd/data/conf.yaml.example
-[3]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent
{{% /tab %}}
+
{{% tab "Contenedorizado" %}}
-#### Contenedores
+#### En contenedores
-Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación.
+Para los entornos en contenedores, consulta las [Plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de los parámetros que se indican a continuación.
| Parámetro | Valor |
| -------------------- | --------------------------------------------------------------- |
@@ -122,8 +69,8 @@ Para entornos en contenedores, consulta las [plantillas de integración de Autod
| `` | en blanco o `{}` |
| `` | `{"lighttpd_status_url": "http://%%host%%/server-status?auto"}` |
-[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/
{{% /tab %}}
+
{{< /tabs >}}
#### Recopilación de logs
@@ -134,7 +81,7 @@ Para entornos en contenedores, consulta las [plantillas de integración de Autod
logs_enabled: true
```
-2. Añade este bloque de configuración a tu archivo `lighttpd.d/conf.yaml` para empezar a recopilar logs de Lighttpd:
+1. Añade este bloque de configuración a tu archivo `lighttpd.d/conf.yaml` para empezar a recopilar logs de Lighttpd:
```yaml
logs:
@@ -144,42 +91,67 @@ Para entornos en contenedores, consulta las [plantillas de integración de Autod
```
Cambia el valor del parámetro `path` y configúralo para tu entorno.
- Para ver todas las opciones de configuración disponibles, consulta el [ejemplo lighttpd.d/conf.yaml][3].
+ Consulta el [ejemplo de lighttpd.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/lighttpd/datadog_checks/lighttpd/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
-3. [Reinicia el Agent][4].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
### Validación
-[Ejecuta el subcomando `status` del Agent][5] y busca `lighttpd` en la sección Checks.
+[Ejecuta el subcomando del Agent `status` ](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `lighttpd` en la sección Checks.
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "lighttpd" >}}
+| | |
+| --- | --- |
+| **lighttpd.connections.state_handle_request**
(gauge) | \[Sólo Lighttpd 2\] Número de conexiones activas en el estado de manejo interno de la solicitud.
_Se muestra como conexión_ |
+| **lighttpd.connections.state_keep_alive**
(gauge) | \[Sólo Lighttpd 2\] Número de conexiones inactivas.
_Se muestra como conexión_ |
+| **lighttpd.connections.state_read_header**
(gauge) | \[Sólo Lighttpd 2\] Número de conexiones activas en el estado de lectura de la cabecera de la solicitud http.
_Se muestra como conexión_ |
+| **lighttpd.connections.state_start**
(gauge) | \[Sólo Lighttpd 2\] Número de conexiones activas en el estado de inicialización del temporizador de inactividad.
_Se muestra como conexión_ |
+| **lighttpd.connections.state_write_response**
(gauge) | \[Sólo Lighttpd 2\] Número de conexiones activas en el estado de escritura de la respuesta a la red.
_Se muestra como conexión_ |
+| **lighttpd.net.bytes**
(gauge) | \[Sólo Lighttpd 1\] Número de bytes enviados y recibidos desde el inicio.
_Se muestra como byte_ |
+| **lighttpd.net.bytes_in**
(rate) | \[Sólo Lighttpd 2\] Número de bytes recibidos por segundo.
_Se muestra como byte_ |
+| **lighttpd.net.bytes_in_avg**
(gauge) | \[Sólo Lighttpd 2\] Número medio de bytes recibidos por segundo desde el inicio.
_Se muestra como byte_ |
+| **lighttpd.net.bytes_in_avg_5sec**
(gauge) | \[Sólo Lighttpd 2\] Número medio de bytes recibidos por segundo durante los últimos 5 segundos.
_Se muestra como byte_ |
+| **lighttpd.net.bytes_out**
(rate) | \[Sólo Lighttpd 2\] Número de bytes enviados por segundo.
_Se muestra como byte_ |
+| **lighttpd.net.bytes_out_avg**
(gauge) | \[Sólo Lighttpd 2\] Número medio de bytes enviados por segundo desde el inicio.
_Se muestra como byte_ |
+| **lighttpd.net.bytes_out_avg_5sec**
(gauge) | \[Sólo Lighttpd 2\] Número medio de bytes enviados por segundo durante los últimos 5 segundos.
_Se muestra como byte_ |
+| **lighttpd.net.bytes_per_s**
(gauge) | \[Sólo Lighttpd 1\] Número de bytes enviados y recibidos por segundo.
_Se muestra como byte_ |
+| **lighttpd.net.connections_avg**
(gauge) | \[Sólo Lighttpd 2\] Número medio de conexiones por segundo desde el inicio.
_Se muestra como conexión_ |
+| **lighttpd.net.connections_avg_5sec**
(gauge) | \[Sólo Lighttpd 2\] Número medio de conexiones por segundo durante los últimos 5 segundos.
_Se muestra como conexión_ |
+| **lighttpd.net.connections_total**
(rate) | \[Sólo Lighttpd 2\] Número total de conexiones por segundo.
_Se muestra como conexión_ |
+| **lighttpd.net.hits**
(gauge) | \[Sólo Lighttpd 1\] Número de aciertos desde el inicio.
_Se muestra como acierto_ |
+| **lighttpd.net.request_per_s**
(gauge) | \[Sólo Lighttpd 1\] Número de solicitudes por segundo.
_Se muestra como solicitud_ |
+| **lighttpd.net.requests_avg**
(gauge) | \[Sólo Lighttpd 2\] Número medio de solicitudes por segundo desde el inicio.
_Se muestra como solicitud_ |
+| **lighttpd.net.requests_avg_5sec**
(gauge) | \[Sólo Lighttpd 2\] Número medio de solicitudes por segundo durante los últimos 5 segundos.
_Se muestra como solicitud_ |
+| **lighttpd.net.requests_total**
(rate) | \[Sólo Lighttpd 2\] Número de solicitudes por segundo.
_Se muestra como solicitud_ |
+| **lighttpd.performance.busy_servers**
(gauge) | \[Sólo Lighttpd 1\] Número de conexiones inactivas.
_Se muestra como conexión_ |
+| **lighttpd.performance.idle_server**
(gauge) | \[Sólo Lighttpd 1\] Número de conexiones inactivas.
_Se muestra como conexión_ |
+| **lighttpd.performance.memory_usage**
(gauge) | \[Sólo Lighttpd 2\] Cantidad de memoria utilizada por el servidor.
_Se muestra como byte_ |
+| **lighttpd.performance.uptime**
(gauge) | \[Sólo Lighttpd 1\] Cantidad de tiempo que el servidor ha estado activo.
_Se muestra como segundo_ |
+| **lighttpd.response.status_1xx**
(rate) | \[Sólo Lighttpd 2\] Número de códigos de estado 1xx generados por segundo.
_Se muestra como respuesta_ |
+| **lighttpd.response.status_2xx**
(rate) | \[Sólo Lighttpd 2\] Número de códigos de estado 2xx generados por segundo.
_Se muestra como respuesta_ |
+| **lighttpd.response.status_3xx**
(rate) | \[Sólo Lighttpd 2\] Número de códigos de estado 3xx generados por segundo.
_Se muestra como respuesta_ |
+| **lighttpd.response.status_4xx**
(rate) | \[Sólo Lighttpd 2\] Número de códigos de estado 4xx generados por segundo.
_Se muestra como respuesta_ |
+| **lighttpd.response.status_5xx**
(rate) | \[Sólo Lighttpd 2\] Número de códigos de estado 5xx generados por segundo.
_Se muestra como respuesta_ |
### Eventos
El check de Lighttpd no incluye eventos.
### Checks de servicio
-{{< get-service-checks-from-git "lighttpd" >}}
+**lighttpd.can_connect**
-## Solucionar problemas
-
-¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][6].
+Devuelve `CRITICAL` si el Agent no puede conectarse y recopilar métricas de la instancia de Lighttpd monitorizada, si no devuelve `OK`.
-## Referencias adicionales
+_Estados: ok, crítico_
-- [Monitoriza métricas del servidor web Lighttpd con Datadog][7].
+## Solucionar problemas
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
+## Referencias adicionales
-[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/lighttpd/images/lighttpddashboard_2.png
-[2]: https://app.datadoghq.com/account/settings/agent/latest
-[3]: https://github.com/DataDog/integrations-core/blob/master/lighttpd/datadog_checks/lighttpd/data/conf.yaml.example
-[4]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[5]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information
-[6]: https://docs.datadoghq.com/help/
-[7]: https://www.datadoghq.com/blog/monitor-lighttpd-web-server-metrics
+- [Monitorizar métricas del servidor web Lighttpd con Datadog](https://www.datadoghq.com/blog/monitor-lighttpd-web-server-metrics).
\ No newline at end of file
diff --git a/content/es/integrations/logzio.md b/content/es/integrations/logzio.md
new file mode 100644
index 0000000000000..a58f818be6039
--- /dev/null
+++ b/content/es/integrations/logzio.md
@@ -0,0 +1,59 @@
+---
+aliases:
+- /es/integrations/logzio
+app_id: logz-io
+categories:
+- event management
+- ai/ml
+custom_kind: integración
+description: ELK con tecnología de IA como servicio
+integration_version: 1.0.0
+media: []
+supported_os:
+- linux
+- windows
+- macos
+title: Logz.io
+---
+## Información general
+
+Logz.io es una plataforma SaaS unificada que recopila y analiza logs, métricas, y trazas (traces). La plataforma incluye funciones de IA para mejorar la resolución de problemas, reducir el tiempo de respuesta y ayudar a gestionar los costos.
+
+Esta integración te permite:
+
+- Ver alertas de Logz.io en tiempo real en Datadog
+
+
+
+- Incorporar eventos de alertas en un dashboard para identificar correlaciones con métricas
+
+
+
+## Configuración
+
+### Instalación
+
+Importa tus alertas a Datadog realizando los siguientes pasos:
+
+1. Utiliza una [clave de la API de Datadog](https://app.datadoghq.com/organization-settings/api-keys) para crear un nuevo endpoint de alerta en Logz.io.
+1. Crea una nueva alerta en Logz.io para una consulta específica.
+
+Para una descripción más detallada de la configuración, consulta [Correlación de logs con Logz.io y Datadog](http://logz.io/blog/log-correlation-datadog).
+
+## Datos recopilados
+
+### Métricas
+
+El check de Logz.io no incluye métricas.
+
+### Eventos
+
+El check de Logz.io no incluye eventos.
+
+### Checks de servicio
+
+El check de Logz.io no incluye checks de servicios.
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog](https://docs.datadoghq.com/help/).
\ No newline at end of file
diff --git a/content/es/integrations/meraki.md b/content/es/integrations/meraki.md
index 49a8e38be7728..e6fd1074a6a01 100644
--- a/content/es/integrations/meraki.md
+++ b/content/es/integrations/meraki.md
@@ -1,137 +1,79 @@
---
app_id: meraki
-app_uuid: c34bd865-7ddf-4336-9cf2-02e1a2f05bbd
-assets:
- dashboards:
- meraki: assets/dashboards/meraki_overview.json
- integration:
- auto_install: false
- metrics:
- check:
- - meraki.devStatus
- - snmp.devStatus
- metadata_path: metadata.csv
- prefix: meraki.
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 602
- source_type_name: Meraki
- monitors:
- A Meraki Device Uplink is Failing: assets/monitors/uplink_device_is_failing.json
- A Meraki Device is in an Alerting State: assets/monitors/device_is_in_alert_state.json
- Abnormally High Latency on a Meraki Uplink: assets/monitors/high_latency_on_uplink.json
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
- red
- recopilación de logs
- seguridad
- snmp
custom_kind: integración
-dependencies: []
-display_on_public_website: true
-draft: false
-git_integration_title: meraki
-integration_id: meraki
-integration_title: Cisco Meraki
-integration_version: ''
-is_public: true
-manifest_version: 2.0.0
-name: meraki
-public_title: Cisco Meraki
-short_description: Monitoriza tu entorno de Cisco Meraki con Network Device Monitoring,
+description: Monitoriza tu entorno de Cisco Meraki con Network Device Monitoring,
logs y Cloud SIEM
+further_reading:
+- link: https://docs.datadoghq.com/network_monitoring/devices/
+ tag: documentación
+ text: Network Device Monitoring
+- link: https://www.datadoghq.com/blog/monitor-meraki/
+ tag: blog
+ text: Monitorizar Cisco Meraki con Datadog
+media: []
supported_os:
- linux
- windows
- macos
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Category::Network
- - Category::Log Collection
- - Category::Security
- - Category::SNMP
- - Submitted Data Type::Logs
- - Submitted Data Type::Metrics
- - Supported OS::Linux
- - Supported OS::Windows
- - Supported OS::macOS
- - Offering::Integration
- configuration: README.md#Setup
- description: Monitoriza tu entorno de Cisco Meraki con Network Device Monitoring,
- logs y Cloud SIEM
- media: []
- overview: README.md#Overview
- resources:
- - resource_type: documentación
- url: https://docs.datadoghq.com/network_monitoring/devices/
- - resource_type: Blog
- url: https://www.datadoghq.com/blog/monitor-meraki/
- support: README.md#Support
- title: Cisco Meraki
+title: Cisco Meraki
---
-
-
-
## Información general
-Network Device Monitoring para Cisco Meraki está actualmente en Vista previa.
-
-Esta integración proporciona visibilidad integral de tu entorno de Cisco Meraki mediante la recopilación de métricas de [Network Device Monitoring][1], Network Event Logs y Security Event Logs para [Cloud SIEM][2].
+Esta integración proporciona una visibilidad completa de tu entorno de Cisco Meraki mediante la recopilación de métricas para [Network Device Monitoring](https://app.datadoghq.com/devices), logs de eventos de red y logs de eventos de seguridad para [Cloud SIEM](https://app.datadoghq.com/security/home).
**Network Device Monitoring**
-[Network Device Monitoring][1] ayuda a garantizar que el estado general de la infraestructura de red esté a la altura de los estándares al identificar posibles cuellos de botella y errores de configuración del dispositivo.
+[Network Device Monitoring](https://app.datadoghq.com/devices) ayuda a garantizar que el estado general de la infraestructura de red sea el adecuado mediante la identificación de posibles cuellos de botella y errores de configuración de los dispositivos.
Esta integración recopila métricas para los siguientes dispositivos:
-* _MR (Wireless Access Points):_ rastrea métricas como el recuento de clientes, el estado de la conexión y el rendimiento.
-* _MS (Switches):_ monitoriza las métricas de rendimiento del conmutador, como el estado del puerto, el tráfico y las tasas de error.
-* _MX (Security Appliances):_ recopila métricas sobre el estado de la VPN, las reglas del firewall y el rendimiento general del dispositivo.
+- _MR (Wireless Access Points):_ rastrea métricas como el recuento de clientes, el estado de la conexión y el rendimiento.
+- _MS (Switches):_ monitoriza las métricas de rendimiento del conmutador, como el estado del puerto, el tráfico y las tasas de error.
+- _MX (Security Appliances):_ recopila métricas sobre el estado de la VPN, las reglas del firewall y el rendimiento general del dispositivo.
Esta integración extrae dinámicamente etiquetas (tags) de dispositivos y metadatos de entornos de Meraki para explorar fácilmente grupos de dispositivos, localizaciones o tipos de dispositivos específicos.
**Security Event Logs**
-[Security Event Logs][3] alerta sobre eventos como detecciones de intrusiones, violaciones de reglas de firewall y detecciones de amenazas de malware para ayudar a identificar y responder a posibles amenazas de seguridad.
+Los [logs de eventos de seguridad](https://developer.cisco.com/meraki/api/get-network-appliance-security-events/) alertan sobre eventos como detecciones de intrusiones, violaciones de reglas de firewall y detecciones de amenazas de malware para ayudar a identificar y responder a posibles amenazas de seguridad.
-Crea tus propias reglas o aproveche las [reglas de Cloud SIEM predefinidas][4] para la detección de amenazas y la respuesta a incidentes en tiempo real.
+Crea tus propias reglas o aprovecha las [reglas predefinidas de Cloud SIEM](https://app.datadoghq.com/logs/pipelines?search=meraki) para la detección de amenazas en tiempo real y la respuesta a incidents (incidentes).
**Network Event Logs**
-[Network Event Logs][5] ayuda a los administradores de red a analizar eventos históricos de red y solucionar problemas de manera eficiente.
+Los [logs de eventos de red](https://developer.cisco.com/meraki/api/get-network-events/) ayudan a los administradores de red a analizar los eventos históricos de la red y a solucionar los problemas de forma eficiente.
Estos logs rastrean los siguientes temas:
-* _Cambios de configuración:_ rastrea los cambios en las configuraciones de red para garantizar el cumplimiento y solucionar problemas de conexión.
-* _Asociaciones de clientes:_ monitoriza las asociaciones de clientes con puntos de acceso inalámbricos para obtener información sobre la conectividad del usuario.
-* _Eventos de estado de la red:_ identifica y aborda problemas que afectan el estado de la red, como la alta pérdida de paquetes en conmutadores específicos.
+- _Cambios de configuración:_ rastrea los cambios en las configuraciones de red para garantizar el cumplimiento y solucionar problemas de conexión.
+- _Asociaciones de clientes:_ monitoriza las asociaciones de clientes con puntos de acceso inalámbricos para obtener información sobre la conectividad del usuario.
+- _Eventos de estado de la red:_ identifica y aborda problemas que afectan el estado de la red, como la alta pérdida de paquetes en conmutadores específicos.
Además de los monitores recomendados incluidos con esta integración, se pueden configurar monitores adicionales para notificar a los administradores sobre eventos críticos, lo que permite una gestión proactiva de la red.
-Para recopilar métricas de tu Meraki Cloud Controller, configura la [integración de SNMP][6] con el perfil Meraki.
-
+Para recopilar métricas de tu Meraki Cloud Controller, configura la [integración de SNMP](https://docs.datadoghq.com/integrations/snmp/) con el perfil de Meraki.
## Configuración
### Instalación
-1. En la aplicación, abre el [cuadro de la integración de Meraki][7].
+1. En la aplicación, abre el [ícono de integración de Meraki](https://app.datadoghq.com/integrations/meraki).
1. Haz clic en **+ Add Account** (+ Añadir cuenta).
1. Elige un nombre para tu cuenta de Meraki.
-1. Añade una clave de API Meraki. Encontrarás instrucciones sobre cómo generar una clave de API Meraki en [API del dashboard de Cisco Meraki][8].
+1. Añade una clave de la API de Meraki. Busca instrucciones sobre cómo generar una clave de la API de Meraki en la [API del Dashboard de Cisco Meraki](https://documentation.meraki.com/zGeneral_Administration/Other_Topics/The_Cisco_Meraki_Dashboard_API).
### Generar la clave de API Meraki
1. Ve al dashboard de Meraki.
-2. Habilita el acceso a la API en Organization > Settings > Dashboard API access (Organización > Parámetros > Acceso a la API del dashboard).
-3. Ve a la página Mi perfil en el dashboard de Meraki para generar la clave.
+1. Habilita el acceso a la API en Organization > Settings > Dashboard API access (Organización > Parámetros > Acceso a la API del dashboard).
+1. Ve a la página Mi perfil en el dashboard de Meraki para generar la clave.
### Recopilación de métricas
@@ -148,51 +90,65 @@ monitorean todos los dispositivos.
Para configurar la recopilación de logs de eventos de red y logs de eventos de seguridad, se requiere una clave de API Meraki.
-Para obtener más información, consulta la [API del dashboard de Cisco Meraki][9].
+Para obtener más información, consulta la [API del dashboard de Cisco Meraki](https://documentation.meraki.com/General_Administration/Other_Topics/Cisco_Meraki_Dashboard_API#Enable_API_access).
## Datos recopilados
### Métricas
-Los datos de los dispositivos Meraki (MR, MS, MX) en Network Device Monitoring, incluyendo métricas y etiquetas (tags) de nivel de red, nivel de dispositivo, nivel de enlace ascendente y nivel de interfaz (puerto de conmutación), se encuentran en fase beta.
-
-
-Las métricas de puerto a nivel de conmutador para el tráfico y el uso de puertos no están disponibles.
-
-Configura la [integración de SNMP][6] con el perfil Meraki para recopilar métricas (con el prefijo `snmp.` en la siguiente tabla) de tus dispositivos Meraki. También puedes crear un [perfil personalizado][10] para recopilar datos adicionales de tus dispositivos Meraki. Ten en cuenta que las métricas con el prefijo `meraki.` se recopilan a través de la integración de Meraki y Datadog, habilitada utilizando las instrucciones anteriores.
-
-{{< get-metrics-from-git "meraki" >}}
+Configura la [integración de SNMP](https://docs.datadoghq.com/integrations/snmp/) con el perfil de Meraki para recopilar métricas (con el prefijo `snmp.` en la siguiente tabla) de tus dispositivos de Meraki. Como alternativa, crea un [perfil personalizado](https://docs.datadoghq.com/network_monitoring/devices/guide/build-ndm-profile/) para recopilar métricas adicionales. Ten en cuenta que las métricas con el prefijo `meraki.` se recopilan a través de la integración de Meraki de Datadog, activada mediante las instrucciones anteriores.
+
+| | |
+| --- | --- |
+| **meraki.avgLatencyMs**
(gauge) | La latencia media de la red en milisegundos.
_Se muestra en milisegundos_ |
+| **meraki.clientCount**
(count) | El count de clientes por red.
_Se muestra como unidad_ |
+| **meraki.devStatus**
(count) | El estado del dispositivo.
_Se muestra como unidad_ |
+| **meraki.latencyMs**
(gauge) | La latencia de un enlace ascendente en milisegundos. Solo se admite para dispositivos MX.
_Se muestra como milisegundo_. |
+| **meraki.lossPercent**
(gauge) | Porcentaje de pérdida de un enlace ascendente en una red. Solo se admite para dispositivos MX.
_Se muestra como porcentaje_. |
+| **meraki.powerModuleStatus**
(count) | El estado del módulo de alimentación de un dispositivo.
_Se muestra como unidad_ |
+| **meraki.uplinkStatus**
(count) | Estado de un enlace ascendente en un dispositivo. Esto es solo para dispositivos de las series MX, MG, Z en la organización.
_Se muestra como unidad_. |
+| **meraki.utilization**
(count) | La utilización del canal de un AP en una red.
_Se muestra como porcentaje_ |
+| **meraki.utilization.non_wifi**
(count) | La utilización del canal no wifi de un AP en una red.
_Se muestra como porcentaje_ |
+| **meraki.utilization.wifi**
(count) | La utilización del canal wifi de un AP en una red.
_Se muestra como porcentaje_ |
+| **meraki.port.status**
(count) | El estado de un puerto en un conmutador de Meraki.
_Se muestra como unidad_ |
+| **meraki.devPerformanceScore**
(gauge) | La puntuación de rendimiento del dispositivo.
_Se muestra como unidad_ |
+| **snmp.devStatus**
(gauge) | El estado de la connection (conexión) del dispositivo al Meraki Cloud Controller
_Se muestra como unidad_. |
+| **snmp.devClientCount**
(gauge) | El número de clientes asociados actualmente al dispositivo
_Se muestra como unidad_ |
+| **meraki.interface.sent**
(gauge) | Número de bytes enviados por cada enlace ascendente de una red.
_Se muestra como byte_ |
+| **meraki.interface.received**
(gauge) | El número de bytes recibidos por cada enlace ascendente de una red.
_Se muestra como byte_ |
+| **meraki.vpn.receivedInKb**
(gauge) | El número de kilobytes recibidos por cada enlace ascendente de una red.
_Se muestra como kilobyte_ |
+| **meraki.vpn.sentInKb**
(gauge) | El número de kilobytes enviados por cada enlace ascendente de una red.
_Se muestra como kilobyte_ |
+| **meraki.vpn.avgLossPercentage**
(gauge) | Porcentaje medio de pérdida de un enlace ascendente en una red.
_Se muestra como porcentaje_ |
+| **meraki.vpn.minLossPercentage**
(gauge) | Porcentaje mínimo de pérdida de un enlace ascendente en una red.
_Se muestra como porcentaje_ |
+| **meraki.vpn.maxLossPercentage**
(gauge) | Porcentaje máximo de pérdida de un enlace ascendente en una red.
_Se muestra como porcentaje_ |
+| **meraki.vpn.avgJitter**
(gauge) | La fluctuación media de un enlace ascendente en una red.
_Se muestra en milisegundos_ |
+| **meraki.vpn.minJitter**
(gauge) | La fluctuación mínima de un enlace ascendente en una red.
_Se muestra en milisegundos_ |
+| **meraki.vpn.maxJitter**
(gauge) | La fluctuación máxima de un enlace ascendente en una red.
_Se muestra en milisegundos_ |
+| **meraki.vpn.avgMos**
(gauge) | El mos medio de un enlace ascendente en una red.
_Se muestra como unidad_ |
+| **meraki.vpn.minMos**
(gauge) | El mos mínimo de un enlace ascendente en una red.
_Se muestra como unidad_ |
+| **meraki.vpn.maxMos**
(gauge) | El mos máximo de un enlace ascendente en una red.
_Se muestra como unidad_ |
+| **meraki.vpn.status**
(count) | El estado de la VPN.
_Se muestra como unidad_ |
+| **meraki.vpn.avgLatencyMs**
(gauge) | La latencia media de la red VPN en milisegundos.
_Se muestra en milisegundos_ |
+| **meraki.vpn.maxLatencyMs**
(gauge) | La latencia máxima de la red VPN en milisegundos.
_Se muestra como milisegundo_ |
+| **meraki.vpn.minLatencyMs**
(gauge) | La latencia mínima de la red de VPN en milisegundos.
_Se muestra como milisegundo_ |
### Eventos
-La integración de Meraki no incluye evento.
+La integración de Meraki no incluye eventos.
-### Checks de servicios
+### Checks de servicio
-La integración de Meraki no incluye checks de servicios.
+La integración de Meraki no incluye checks de servicio.
## Solucionar problemas
+
A veces, Datadog tiene problemas para acceder a Meraki desde sus servidores. Añade las direcciones IP de Datadog a tu lista de direcciones IP permitidas para garantizar que el rastreo funcione como se espera.
-¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][11].
+¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog](https://docs.datadoghq.com/help/).
## Referencias adicionales
Documentación útil adicional, enlaces y artículos:
-- [Network Device Monitoring][12]
-- [Monitorización de Cisco Meraki con Datadog][13]
-
-[1]: https://app.datadoghq.com/devices
-[2]: https://app.datadoghq.com/security/home
-[3]: https://developer.cisco.com/meraki/api/get-network-appliance-security-events/
-[4]: https://app.datadoghq.com/logs/pipelines?search=meraki
-[5]: https://developer.cisco.com/meraki/api/get-network-events/
-[6]: https://docs.datadoghq.com/es/integrations/snmp/
-[7]: https://app.datadoghq.com/integrations/meraki
-[8]: https://documentation.meraki.com/zGeneral_Administration/Other_Topics/The_Cisco_Meraki_Dashboard_API
-[9]: https://documentation.meraki.com/General_Administration/Other_Topics/Cisco_Meraki_Dashboard_API#Enable_API_access
-[10]: https://docs.datadoghq.com/es/network_monitoring/devices/guide/build-ndm-profile/
-[11]: https://docs.datadoghq.com/es/help/
-[12]: https://docs.datadoghq.com/es/network_monitoring/devices/
-[13]: https://www.datadoghq.com/blog/monitor-meraki/
\ No newline at end of file
+- [Network Device Monitoring](https://docs.datadoghq.com/network_monitoring/devices/)
+- [Monitoriza Cisco Meraki con Datadog](https://www.datadoghq.com/blog/monitor-meraki/)
\ No newline at end of file
diff --git a/content/es/integrations/orca_security.md b/content/es/integrations/orca_security.md
new file mode 100644
index 0000000000000..e13a655a51654
--- /dev/null
+++ b/content/es/integrations/orca_security.md
@@ -0,0 +1,114 @@
+---
+app_id: orca-security
+app_uuid: c5503835-004d-4f4b-bf61-57845767f8e1
+assets:
+ dashboards:
+ Orca Security - Alerts: assets/dashboards/orca_security_alerts.json
+ integration:
+ auto_install: false
+ events:
+ creates_events: false
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 32538198
+ source_type_name: Orca Security
+ logs:
+ source: orca_security
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- recopilación de logs
+- seguridad
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/orca_security/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: orca_security
+integration_id: orca-security
+integration_title: Orca Security
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: orca_security
+public_title: Orca Security
+short_description: Obtén información sobre los logs de alerta de Orca Security.
+supported_os: []
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Category::Log Collection
+ - Category::Security
+ - Submitted Data Type::Logs
+ - Offering::Integration
+ configuration: README.md#Setup
+ description: Obtén información sobre los logs de alerta de Orca Security.
+ media:
+ - caption: 'Orca Security: alertas'
+ image_url: images/orca_security_alerts.png
+ media_type: imagen
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Orca Security
+---
+
+
+
+
+## Información general
+
+[Orca Security][1] es una plataforma de seguridad en la nube que identifica, prioriza y corrige los riesgos de seguridad y el cumplimiento. Ofrece funciones como visibilidad en tiempo real, gestión de vulnerabilidades, protección de cargas de trabajo, gestión de la postura de seguridad en la nube y gestión del cumplimiento.
+Esta integración ingesta el siguiente log:
+
+- Alerta: incluye información como el estado de la alerta, detalles de la cuenta, el activo donde se detectó la alerta y detalles adicionales.
+
+La integración de Orca Security ingiere sin problemas los datos de logs de alerta utilizando la integración de Orca con Datadog. Antes de ingerir los datos, normaliza y enriquece los logs, garantiza un formato de datos coherente y mejora el contenido de la información para su posterior procesamiento y análisis. La integración proporciona información sobre los logs de alertas a través de dashboard predefinidos.
+
+## Configuración
+
+### Configuración
+
+#### [Configuración de Orca Security para Datadog][2]
+
+1. Inicia sesión en la plataforma de Orca Security.
+2. Ve a **Settings** > **Connections** > **Integrations** (Configuración > Conexiones > Integraciones).
+3. En la sección **SIEM/SOAR**, selecciona **Datadog** y, a continuación, haz clic en **Connect** (Conectar).
+
+ Se abre la ventana de configuración de Datadog.
+4. Especifica los siguientes ajustes:
+ - **Clave de API**: añade la clave de API de tu plataforma de Datadog.
+ - **Región**: selecciona la región en la que se encuentra tu instancia de Datadog.
+5. Haz clic en **Save** (Guardar).
+6. Haz clic en **Configure** (Configurar) en la integración de Datadog y activa la integración.
+7. Ve a **Automations** (Automatizaciones) y haz clic en **+ Create Automation** (+ Crear automatización).
+8. En la sección **Automation Details** (Detalles de la automatización), indica el **Automation Name** (Nombre de la automatización).
+9. En la sección **Trigger Query** (Consulta de activación), selecciona todos los valores para el estado de alerta en la consulta. La consulta debe tener este aspecto: `When an alert Alert State is open,in_progress,snoozed,dismissed,closed`
+10. En la sección **Define Results** (Definir resultados), activa **Apply to Existing Alerts** (Aplicar a alertas existentes) si las alertas existentes en la plataforma de Orca Security deben reenviarse a Datadog, o desactívalo para reenviar alertas recién generadas/actualizadas.
+**Nota**: Las alertas que se actualizaron hace más de 18 horas no se pueden ingerir en Datadog.
+11. En la sección **SIEM/SOAR** bajo la sección **Define Results** (Definir resultados), marca **Datadog** y selecciona **Logs** como tipo de Datadog.
+12. Haz clic en **Create** (Crear).
+
+## Datos recopilados
+
+### Logs
+
+La integración de Orca recopila y reenvía logs de alerta de Orca a Datadog.
+
+### Métricas
+
+La integración de Orca no incluye ninguna métrica.
+
+### Eventos
+
+La integración de Orca no incluye ningún evento.
+
+## Ayuda
+
+Para obtener más ayuda, ponte en contacto con el [soporte de Datadog][3].
+
+[1]: https://docs.orcasecurity.io/docs
+[2]: https://docs.orcasecurity.io/docs/integrating-datadog
+[3]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/snmp.md b/content/es/integrations/snmp.md
index 916726175c305..77a64c403f787 100644
--- a/content/es/integrations/snmp.md
+++ b/content/es/integrations/snmp.md
@@ -17,7 +17,7 @@
"metrics":
"check": "snmp.devices_monitored"
"metadata_path": "metadata.csv"
- "prefix": "snmp."
+ "prefix": "snmp".
"service_checks":
"metadata_path": "assets/service_checks.json"
"source_type_id": !!int "78"
@@ -49,12 +49,12 @@
"git_integration_title": "snmp"
"integration_id": "snmp"
"integration_title": "SNMP"
-"integration_version": "10.0.0"
+"integration_version": "10.1.0"
"is_public": true
"manifest_version": "2.0.0"
"name": "snmp"
"public_title": "SNMP"
-"short_description": "Recopila métricas de SNMP de tus dispositivos de red."
+"short_description": "Recopila métricas de SNMP de tus dispositivos de red".
"supported_os":
- "linux"
- "windows"
@@ -70,7 +70,7 @@
- "Supported OS::macOS"
- "Offering::Integración"
"configuration": "README.md#Configuración"
- "description": "Recopila métricas de SNMP de tus dispositivos de red."
+ "description": "Recopila métricas de SNMP de tus dispositivos de red".
"media": []
"overview": "README.md#Información general"
"resources":
diff --git a/content/es/integrations/tekton.md b/content/es/integrations/tekton.md
new file mode 100644
index 0000000000000..dbcc219a3a14c
--- /dev/null
+++ b/content/es/integrations/tekton.md
@@ -0,0 +1,135 @@
+---
+app_id: tekton
+app_uuid: 4e8f129e-1c9b-4078-a966-f0099dbf9465
+assets:
+ dashboards:
+ Tekton Overview: assets/dashboards/overview.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ metrics:
+ check:
+ - tekton.pipelines_controller.go.alloc
+ - tekton.triggers_controller.go.alloc
+ metadata_path: metadata.csv
+ prefix: tekton.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 5667413
+ source_type_name: Tekton
+ monitors:
+ Increasing number of failed PipelineRuns: assets/monitors/increasing_failed_pipelineruns.json
+ Increasing number of failed TaskRuns: assets/monitors/increasing_failed_taskruns.json
+ TaskRuns are throttled: assets/monitors/throttled_taskruns.json
+ saved_views:
+ tekton_errors: assets/saved_views/tekton_errors.json
+ tekton_overview: assets/saved_views/tekton_overview.json
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- recopilación de logs
+- herramientas de desarrollo
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/tekton/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: tekton
+integration_id: tekton
+integration_title: Tekton
+integration_version: 2.2.0
+is_public: true
+manifest_version: 2.0.0
+name: tekton
+public_title: Tekton
+short_description: Realiza un seguimiento de todas tus métricas de Tekton con Datadog.
+supported_os:
+- linux
+- windows
+- macOS
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Sistema operativo compatible::Linux
+ - Sistema operativo compatible::Windows
+ - Sistema operativo compatible::macOS
+ - Categoría::Recopilación de logs
+ - Categoría::Herramientas de desarrollo
+ - Oferta::Integración
+ configuration: README.md#Configuración
+ description: Realiza un seguimiento de todas tus métricas de Tekton con Datadog.
+ media: []
+ overview: README.md#Información general
+ support: README.md#Soporte
+ title: Tekton
+---
+
+
+
+
+## Información general
+
+Este check monitoriza [Tekton][1] a través del Datadog Agent. Tekton es un marco de código abierto robusto y flexible para la creación de sistemas CI/CD, que permite a los desarrolladores crear, probar y desplegar en proveedores de nube y sistemas on-premise.
+
+## Configuración
+
+Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos contenedorizados, consulta las [plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones.
+
+### Instalación
+
+A partir del Agent versión 7.53.0, el check de Tekton está incluido en el paquete del [Datadog Agent][3]. No es necesaria ninguna instalación adicional en tu servidor.
+
+Este check utiliza [OpenMetrics][4] para recopilar métricas del endpoint expuesto por Tekton, que requiere Python v3.
+
+### Configuración
+
+1. Edita el archivo `tekton.d/conf.yaml`, en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent para empezar a recopilar tus datos de rendimiento de Tekton. Consulta el [tekton.d/conf.yaml de ejemplo][5] para ver todas las opciones de configuración disponibles.
+
+2. [Reinicia el Agent][6].
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][7] y busca `tekton` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "tekton" >}}
+
+
+### Eventos
+
+La integración Tekton no incluye eventos.
+
+### Checks de servicio
+{{< get-service-checks-from-git "tekton" >}}
+
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [equipo de asistencia de Datadog][10].
+
+## Referencias adicionales
+
+Más enlaces, artículos y documentación útiles:
+
+- [Monitorización de la salud y del rendimiento de tus pipelines CI/CD nativos del contenedor][11]
+
+
+[1]: https://tekton.dev/
+[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/
+[3]: https://app.datadoghq.com/account/settings/agent/latest
+[4]: https://docs.datadoghq.com/es/integrations/openmetrics/
+[5]: https://github.com/DataDog/integrations-core/blob/master/tekton/datadog_checks/tekton/data/conf.yaml.example
+[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[7]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[8]: https://github.com/DataDog/integrations-core/blob/master/tekton/metadata.csv
+[9]: https://github.com/DataDog/integrations-core/blob/master/tekton/assets/service_checks.json
+[10]: https://docs.datadoghq.com/es/help/
+[11]: https://www.datadoghq.com/blog/container-native-ci-cd-integrations/
\ No newline at end of file
diff --git a/content/es/integrations/temporal_cloud.md b/content/es/integrations/temporal_cloud.md
new file mode 100644
index 0000000000000..5c6d67842369e
--- /dev/null
+++ b/content/es/integrations/temporal_cloud.md
@@ -0,0 +1,136 @@
+---
+app_id: temporal-cloud
+app_uuid: 4fc358f8-ab2d-43ae-86e5-129ef4e4e6a1
+assets:
+ dashboards:
+ Temporal Cloud - Overview: assets/dashboards/temporal_cloud_overview.json
+ integration:
+ auto_install: false
+ events:
+ creates_events: false
+ metrics:
+ check: temporal.cloud.v0_frontend_service_request
+ metadata_path: metadata.csv
+ prefix: temporal.cloud.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 32597071
+ source_type_name: Temporal Cloud
+ monitors:
+ High gRPC error percentage: assets/monitors/high_grpc_error_percentage.json
+ High service latency: assets/monitors/high_service_latency.json
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- nube
+- herramientas de desarrollo
+- métricas
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/temporal_cloud/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: temporal_cloud
+integration_id: temporal-cloud
+integration_title: Temporal Cloud
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: temporal_cloud
+public_title: Temporal Cloud
+short_description: Obtén información sobre la salud del sistema, la eficiencia del
+ flujo de trabajo, la ejecución de tareas y los cuellos de botella en el rendimiento
+ de tu instancia.
+supported_os: []
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Category::Cloud
+ - Category::Developer Tools
+ - Category::Metrics
+ - Offering::Integration
+ - Submitted Data Type::Metrics
+ configuration: README.md#Setup
+ description: Obtén información sobre la salud del sistema, la eficiencia del flujo
+ de trabajo, la ejecución de tareas y los cuellos de botella en el rendimiento
+ de tu instancia.
+ media:
+ - caption: Temporal Cloud - Información general 1
+ image_url: images/temporal_cloud_overview_1.png
+ media_type: imagen
+ - caption: Temporal Cloud - Información general 2
+ image_url: images/temporal_cloud_overview_2.png
+ media_type: imagen
+ - caption: Temporal Cloud - Información general 3
+ image_url: images/temporal_cloud_overview_3.png
+ media_type: imagen
+ - caption: Temporal Cloud - Información general 4
+ image_url: images/temporal_cloud_overview_4.png
+ media_type: imagen
+ - caption: Temporal Cloud - Información general 5
+ image_url: images/temporal_cloud_overview_5.png
+ media_type: imagen
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Temporal Cloud
+---
+
+
+## Información general
+
+[Temporal Cloud][1] es una plataforma escalable para la orquestación de flujos de trabajo complejos, que permite a los desarrolladores centrarse en la creación de aplicaciones, sin preocuparse por la tolerancia a fallos y la coherencia.
+
+Esta integración reúne las métricas de Temporal Cloud en Datadog, ofreciendo información sobre la salud del sistema, la eficiencia del flujo de trabajo, la ejecución de tareas y los cuellos de botella en el rendimiento.
+
+## Configuración
+
+### Generar una URL del endpoint de métricas en Temporal Cloud
+
+1. Para generar un certificado de autoridad de certificación (CA) y un certificado de entidad final, consulta la [gestión de certificados][2].
+ - **Nota**: Un certificado de CA raíz caducado invalida todos los certificados posteriores. Para evitar interrupciones en tus sistemas, utiliza certificados con periodos de validez prolongados.
+2. Inicia sesión en [Temporal Cloud][3] con un rol de propietario de cuenta o de administrador general.
+3. Ve a **Settings** (Configuración) y selecciona la pestaña **Observabilidad**.
+4. En la sección **Certificates** (Certificados), añade tu certificado de CA raíz (contenido del archivo `.pem`) y guárdalo.
+ - **Nota**: Si ya existe un endpoint de observabilidad configurado, puedes añadir tu certificado de CA raíz.
+5. Haz clic en **Save** (Guardar) para generar la URL del endpoint en la sección **Endpoint**. La URL debe tener el siguiente aspecto: `https://.tmprl.cloud/prometheus`.
+
+
+### Conectar tu cuenta de Temporal Cloud a Datadog
+
+1. Añade tu ID de cuenta, el contenido del archivo del certificado de entidad final y el contenido del archivo de claves del certificado de entidad final.
+ |Parámetros |Descripción |
+ |--------------------|--------------------|
+ |ID de cuenta |ID de cuenta de Temporal Cloud que se utilizará como parte de la URL del endpoint de métricas: `https://.tmprl.cloud/prometheus`.|
+ |Contenido del archivo del certificado de entidad final |Contenido del certificado de entidad final para el acceso seguro y la comunicación con el endpoint de métricas.|
+ |Contenido del archivo de claves del certificado de entidad final |Contenido de la clave del certificado de entidad final para el acceso seguro y la comunicación con el endpoint de métricas.|
+
+2. Haz clic en el botón **Save** (Guardar) para guardar la configuración.
+
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "temporal_cloud" >}}
+
+
+
+### Checks de servicio
+
+La integración Temporal Cloud no incluye checks de servicios.
+
+### Eventos
+
+La integración Temporal Cloud no incluye eventos.
+
+## Ayuda
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5].
+
+[1]: https://temporal.io/cloud/
+[2]: https://docs.temporal.io/cloud/certificates#use-certstrap/
+[3]: https://cloud.temporal.io/
+[4]: https://github.com/DataDog/integrations-core/blob/master/temporal_cloud/metadata.csv
+[5]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/tibco_ems.md b/content/es/integrations/tibco_ems.md
new file mode 100644
index 0000000000000..c383c2a616ff0
--- /dev/null
+++ b/content/es/integrations/tibco_ems.md
@@ -0,0 +1,190 @@
+---
+app_id: tibco-ems
+app_uuid: 32445b00-582f-4e56-9c4d-87944d5c347b
+assets:
+ dashboards:
+ Tibco EMS Overview: assets/dashboards/overview.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ metrics:
+ check: tibco_ems.server.uptime
+ metadata_path: metadata.csv
+ prefix: tibco_ems.
+ process_signatures:
+ - tibemsd
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 19354115
+ source_type_name: tibco_ems
+ monitors:
+ Tibco EMS server uptime: assets/monitors/server_uptime.json
+ saved_views:
+ Tibco EMS Error Logs Overview: assets/saved_views/error_logs_overview.json
+ Tibco EMS Logs Overview: assets/saved_views/logs_overview.json
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- métricas
+- recopilación de logs
+- colas de mensajes
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/tibco_ems/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: tibco_ems
+integration_id: tibco-ems
+integration_title: Tibco EMS
+integration_version: 2.1.0
+is_public: true
+manifest_version: 2.0.0
+name: tibco_ems
+public_title: Tibco EMS
+short_description: Realiza un seguimiento del tamaño de las colas, del recuento de
+ consumidores, de mensajes no reconocidos, etc.
+supported_os:
+- Linux
+- macOS
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Sistema operativo compatible::Linux
+ - Sistema operativo compatible::macOS
+ - Tipo de datos enviados::Métricas
+ - Oferta::Integración
+ - Categoría::Métricas
+ - Categoría::Recopilación de logs
+ - Categoría::Colas de mensajes
+ configuration: README.md#Configuración
+ description: Realiza un seguimiento del tamaño de las colas, del recuento de consumidores,
+ de mensajes no reconocidos, etc.
+ media: []
+ overview: README.md#Información general
+ support: README.md#Soporte
+ title: Tibco EMS
+---
+
+
+
+
+## Información general
+
+Este check monitoriza [TIBCO Enterprise Message servicio][1] a través del Datadog Agent.
+
+## Configuración
+
+Sigue las instrucciones de abajo para instalar y configurar este check para un Agent que se ejecuta en un host. En el caso de entornos en contenedores, consulta las [Plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones.
+
+### Instalación
+
+El check de TIBCO EMS está incluido en el paquete del [Datadog Agent][3]. No es necesaria ninguna instalación adicional en tu servidor.
+
+### Configuración
+
+1. Edita el archivo `tibco_ems.d/conf.yaml`, en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent para empezar a recopilar tus datos de rendimiento de TIBCO EMS. Consulta el [tibco_ems.d/conf.yaml de ejemplo][4] para ver todas las opciones de configuración disponibles.
+
+2. [Reinicia el Agent][5].
+
+#### Recopilación de métricas
+
+##### Crear tu script de comandos Tibco EMS
+
+La integración Tibco EMS utiliza la herramienta de la CLI `tibemsadmin` proporcionada por Tibco EMS. Para reducir el número de llamadas a la cola `$sys.admin`, Datadog utiliza un script para organizar por lotes las consultas realizadas a Tibco. Para recopilar métricas de Tibco EMS, pasa la ruta del script y la ruta absoluta del binario `tibemsadmin` a la configuración de la integración.
+
+*Nota*: El usuario `dd-agent` necesita permisos de ejecución en el binario `tibemsadmin`.
+1. Crea un archivo llamado `show_commands` con el siguiente contenido:
+```text
+ show connections full
+ show durables
+ show queues
+ show server
+ show stat consumers
+ show stat producers
+ show topics
+```
+
+
+2. Añade este bloque de configuración a tu archivo `tibco_ems.d/conf.yaml` para empezar a recopilar [métricas de Tibco EMS](#metrics):
+
+```yaml
+init_config:
+instances:
+ ## @param script_path - string - optional
+ ## The path to the script that will be executed to collect metrics. Since the script is executed by a subprocess,
+ ## we need to know the path to the script. This must be the absolute path to the script.
+ #
+ script_path:
+
+ ## @param tibemsadmin - string - optional
+ ## The command or path to tibemsadmin (for example /usr/bin/tibemsadmin or docker exec tibemsadmin)
+ ## , which can be overwritten on an instance.
+ ##
+ ## This overrides `tibemsadmin` defined in `init_config`.
+ #
+ tibemsadmin:
+```
+
+3. [Reinicia el Agent][5] para empezar a enviar métricas de Tibco EMS a Datadog.
+
+#### Recopilación de logs
+
+Disponible para el Agent v6.0 o posterior
+
+1. La recopilación de logs está deshabilitada por defecto en el Datadog Agent. Habilita logs en tu archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. Añade este bloque de configuración a tu archivo `tibco_ems.d/conf.yaml` para empezar a recopilar logs de Tibco EMS:
+
+ ```yaml
+ logs:
+ - type: file
+ path:
+ service:
+ source: tibco_ems
+ ```
+
+ Cambia los valores de los parámetros `service` y `path` y configúralos para tu entorno. Consulta el [tibco_ems.yaml de ejemplo][4] para ver todas las opciones de configuración disponibles.
+
+3. [Reinicia el Agent][5].
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][6] y busca `tibco_ems` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "tibco_ems" >}}
+
+
+### Eventos
+
+La integración TIBCO EMS no incluye eventos.
+
+### Checks de servicios
+
+La integración TIBCO EMS no incluye checks de servicios.
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8].
+
+
+[1]: https://docs.tibco.com/products/tibco-enterprise-message-service
+[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/
+[3]: https://app.datadoghq.com/account/settings/agent/latest
+[4]: https://github.com/DataDog/integrations-core/blob/master/tibco_ems/datadog_checks/tibco_ems/data/conf.yaml.example
+[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[7]: https://github.com/DataDog/integrations-core/blob/master/tibco_ems/metadata.csv
+[8]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/trend_micro_email_security.md b/content/es/integrations/trend_micro_email_security.md
new file mode 100644
index 0000000000000..d71b32cbfe785
--- /dev/null
+++ b/content/es/integrations/trend_micro_email_security.md
@@ -0,0 +1,116 @@
+---
+app_id: trend-micro-email-security
+app_uuid: 0f19a81b-93c1-477a-ad5d-bbabed937f85
+assets:
+ dashboards:
+ Trend Micro Email Security - Mail Tracking: assets/dashboards/trend_micro_email_security_mail_tracking.json
+ Trend Micro Email Security - Policy Events: assets/dashboards/trend_micro_email_security_policy_events.json
+ integration:
+ auto_install: false
+ events:
+ creates_events: false
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 18089572
+ source_type_name: Trend Micro Email Security
+ logs:
+ source: trend-micro-email-security
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- recopilación de logs
+- seguridad
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/trend_micro_email_security/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: trend_micro_email_security
+integration_id: trend-micro-email-security
+integration_title: Trend Micro Email Security
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: trend_micro_email_security
+public_title: Trend Micro Email Security
+short_description: Obtén información sobre logs de Trend Micro Email Security.
+supported_os: []
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Categoría::Recopilación de logs
+ - Categoría::Seguridad
+ - Submitted Data Type::Logs
+ - Oferta::Integración
+ configuration: README.md#Configuración
+ description: Obtén información sobre logs de Trend Micro Email Security.
+ media:
+ - caption: Trend Micro Email Security - Seguimiento del correo electrónico
+ image_url: images/trend_micro_email_security_mail_tracking.png
+ media_type: imagen
+ - caption: Trend Micro Email Security - Eventos de políticas
+ image_url: images/trend_micro_email_security_policy_events.png
+ media_type: imagen
+ overview: README.md#Información general
+ support: README.md#Soporte
+ title: Trend Micro Email Security
+---
+
+
+## Información general
+
+[Trend Micro Email Security][1] es una solución basada en la nube que detiene los ataques de phishing, ransomware y compromiso del correo electrónico empresarial (BEC). Esta solución utiliza una combinación de técnicas contra amenazas intergeneracionales, como Machine Learning, análisis de sandbox, prevención de pérdida de datos (DLP) y otros métodos, para detener todo tipo de amenazas mediante correo electrónico.
+
+Esta integración ingiere los siguientes logs:
+
+- Eventos y detección de políticas - Estos logs proporcionan información sobre eventos y detección de políticas, lo que te permite monitorizar y responder a potenciales amenazas de seguridad de manera efectiva.
+- Seguimiento del correo - Estos logs proporcionan información sobre las actividades de correo electrónico, incluido el tráfico aceptado y bloqueado, lo que te permite realizar un seguimiento de los mensajes de correo electrónico que pasaron por el sistema y monitorizar su estado de entrega.
+
+Utiliza dashboards predefinidos para obtener información detallada sobre el análisis del tráfico de correos electrónicos, la detección en tiempo real de las amenazas, la detección y observación de la seguridad y la monitorización del cumplimiento.
+
+## Configuración
+
+### Generar credenciales de API en Trend Micro Email Security
+
+1. Inicia sesión en la consola de Trend Micro Email Security.
+2. Ve a **Administration** > **Service Integration** > **API Access** (Administración > Integración de servicios > Acceso a la API).
+3. Haz clic en **Add** (Añadir) para generar una clave de API.
+4. Cambia a la pestaña **Recuperación de logs** y asegúrate de que el **estado** de recuperación de logs esté activado.
+5. Para identificar la **región host** de tu Trend Micro Email Security, consulta este [enlace][2].
+6. El **Nombre de usuario** es el **ID de inicio de sesión** de la consola de Trend Micro Email Security.
+
+### Conectar tu cuenta de Trend Micro Email Security a Datadog
+
+1. Añade tu región host, tu nombre de usuario y tu clave de API.
+ | Parámetros | Descripción |
+ | ----------- | --------------------------------------------------------------------- |
+ | Región host | La región de tu consola de administrador de Trend Micro Email Security. |
+ | Nombre de usuario | El nombre de usuario de la consola de administrador de Trend Micro Email Security. |
+ | Clave de API | La clave API de la consola de administrador de Trend Micro Email Security. |
+
+2. Haz clic en el botón **Save** (Guardar) para guardar la configuración.
+
+## Datos recopilados
+
+### Logs
+
+La integración Trend Micro Email Security recopila y reenvía eventos y detección de políticas y el seguimiento del correo electrónico a Datadog.
+
+### Métricas
+
+La integración Trend Micro Email Security no incluye métricas.
+
+### Eventos
+
+La integración Trend Micro Email Security no incluye eventos.
+
+## Ayuda
+
+Si necesitas más ayuda, ponte en contacto con el [servicio de asistencia de Datadog][3].
+
+[1]: https://www.trendmicro.com/en_in/business/products/user-protection/sps/email-and-collaboration/email-security.html
+[2]: https://success.trendmicro.com/en-US/solution/KA-0016673#:~:text=Trend%20micro%20email%20security
+[3]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/trend_micro_vision_one_xdr.md b/content/es/integrations/trend_micro_vision_one_xdr.md
new file mode 100644
index 0000000000000..8308c2d8b0bf4
--- /dev/null
+++ b/content/es/integrations/trend_micro_vision_one_xdr.md
@@ -0,0 +1,125 @@
+---
+app_id: trend-micro-vision-one-xdr
+app_uuid: 5efb1591-f9ef-45a3-8b8e-9f716df68f16
+assets:
+ dashboards:
+ Trend Micro Vision One XDR - Observed Attack Techniques: assets/dashboards/trend_micro_vision_one_xdr_observed_attack_techniques.json
+ Trend Micro Vision One XDR - Workbench Alerts: assets/dashboards/trend_micro_vision_one_xdr_workbench_alerts.json
+ integration:
+ auto_install: false
+ events:
+ creates_events: false
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 22902543
+ source_type_name: Trend Micro Vision One XDR
+ logs:
+ source: trend-micro-vision-one-xdr
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- recopilación de logs
+- seguridad
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/trend_micro_vision_one_xdr/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: trend_micro_vision_one_xdr
+integration_id: trend-micro-vision-one-xdr
+integration_title: Trend Micro Vision One XDR
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: trend_micro_vision_one_xdr
+public_title: Trend Micro Vision One XDR
+short_description: Obtener información sobre logs de Trend Micro Vision One XDR
+supported_os: []
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Category::Log Collection
+ - Category::Security
+ - Offering::Integration
+ - Submitted Data Type::Logs
+ configuration: README.md#Setup
+ description: Obtener información sobre logs de Trend Micro Vision One XDR
+ media:
+ - caption: Trend Micro Vision One XDR - Alertas de Workbench
+ image_url: images/trend_micro_vision_one_xdr_workbench_alerts.png
+ media_type: imagen
+ - caption: Trend Micro Vision One XDR - Técnicas de ataque observadas
+ image_url: images/trend_micro_vision_one_xdr_oat.png
+ media_type: imagen
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Trend Micro Vision One XDR
+---
+
+
+## Información general
+
+[Trend Micro Vision One XDR][1] recopila y correlaciona automáticamente los datos en varias capas de seguridad: correo electrónico, endpoint, servidor, carga de trabajo en la nube y red. Esto permite una detección más rápida de las amenazas, mejora la investigación y los tiempos de respuesta mediante un análisis de seguridad mejorado.
+
+Esta integración ingiere los siguientes logs:
+
+- **Alertas de Workbench**: Este endpoint contiene información sobre todas las alertas independientes activadas por modelos de detección.
+- **Técnicas de ataque observadas**: Este endpoint contiene información sobre técnicas de ataque observadas a partir de fuentes de datos de Detecciones, Actividad de endpoint, Actividad en la nube, Actividad de correo electrónico, Actividad móvil, Actividad de red, Actividad en contenedor y Actividad de identidad.
+
+Esta integración recopila logs de las fuentes mencionadas anteriormente y las envía a Datadog para ser analizados con nuestros productos Explorador de logs y Cloud SIEM
+* [Explorador de logs][2]
+* [Cloud SIEM][3]
+
+## Configuración
+
+### Generar credenciales de API en Trend Micro Vision One XDR
+
+1. En la consola de Trend Vision One, ve al menú de la barra lateral izquierda y accede a **Administration > API Keys** (Administración > Claves de API).
+2. Genera un nuevo token de autenticación. Haz clic en **Add API key** (Añadir clave de API). Especifica la configuración de la nueva clave de API con lo siguiente:
+ - **Nombre**: Un nombre significativo que pueda ayuda identificar la clave de API.
+ - **Rol**: El rol de usuario asignado a la clave. Selecciona **SIEM** en el menú desplegable.
+ - **Tiempo de caducidad**: El tiempo de validez de la clave de API.
+ - **Estado**: Si la clave de API está habilitada.
+ - **Detalles**: Información adicional sobre la clave de API.
+3. Haz clic en **Add** (Añadir).
+4. Para identificar la región host de tu consola de Trend Micro Vision One XDR, consulta [aquí][4].
+
+### Conectar tu cuenta de Trend Micro Vision One XDR a Datadog
+
+1. Añade tu región host y tu clave de API.
+ | Parámetros | Descripción |
+ | ----------- | ------------------------------------------------------- |
+ | Región host | La región de tu consola de Trend Micro Vision One XDR. |
+ | Clave de API | La clave de API de tu consola de Trend Micro Vision One XDR. |
+
+2. Haz clic en el botón Save (Guardar) para guardar la configuración.
+
+## Datos recopilados
+
+### Logs
+La integración Trend Micro Vision One XDR recopila y reenvía alertas de Workbench y logs de las técnicas de ataque observadas a Datadog.
+
+### Métricas
+
+Trend Micro Vision One XDR no incluye métricas.
+
+### Checks de servicio
+
+Trend Micro Vision One XDR no incluye checks de servicios.
+
+### Eventos
+
+Trend Micro Vision One XDR no incluye eventos.
+
+## Ayuda
+
+Para obtener más ayuda, ponte en contacto con el [servicio de asistencia de Datadog][5].
+
+[1]: https://www.trendmicro.com/en_in/business/products/detection-response/xdr.html
+[2]: https://docs.datadoghq.com/es/logs/explorer/
+[3]: https://www.datadoghq.com/product/cloud-siem/
+[4]: https://success.trendmicro.com/en-US/solution/ka-0015959
+[5]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/velero.md b/content/es/integrations/velero.md
new file mode 100644
index 0000000000000..3d51e830eace4
--- /dev/null
+++ b/content/es/integrations/velero.md
@@ -0,0 +1,195 @@
+---
+app_id: velero
+app_uuid: e4199d9b-74fe-4af2-9afb-bbcde0f729f6
+assets:
+ dashboards:
+ Velero Overview: assets/dashboards/velero_overview.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ metrics:
+ check: velero.backup.attempt.count
+ metadata_path: metadata.csv
+ prefix: velero.
+ process_signatures:
+ - velero
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 38596867
+ source_type_name: Velero
+ monitors:
+ Backup Failures: assets/monitors/backup_failures.json
+ Backup Staleness: assets/monitors/backup_staleness.json
+ Restore Failures: assets/monitors/restore_failures.json
+ saved_views:
+ Velero Error Logs Overview: assets/saved_views/error_logs_overview.json
+ Velero Logs Overview: assets/saved_views/logs_overview.json
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- nube
+- Kubernetes
+- suministro
+- recopilación de logs
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/velero/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: velero
+integration_id: velero
+integration_title: Velero
+integration_version: 2.0.0
+is_public: true
+manifest_version: 2.0.0
+name: velero
+public_title: Velero
+short_description: Monitoriza el rendimiento y el uso de tus despliegues Velero.
+supported_os:
+- linux
+- Windows
+- macOS
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::Windows
+ - Supported OS::macOS
+ - Category::Cloud
+ - Category::Kubernetes
+ - Categoría::Suministro
+ - Category::Log Collection
+ - Offering::Integration
+ - Submitted Data Type::Metrics
+ - Submitted Data Type::Logs
+ configuration: README.md#Setup
+ description: Monitoriza el rendimiento y el uso de tus despliegues Velero.
+ media: []
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Velero
+---
+
+
+
+
+## Información general
+
+Este check monitoriza [Velero][1] a través del Datadog Agent. Recopila datos sobre las operaciones de copia de seguridad, recuperación y snapshot de Velero. Esto permite a los usuarios obtener información sobre la salud, el rendimiento y la fiabilidad de sus procesos de recuperación de desastres.
+
+## Configuración
+
+### Instalación
+
+El check de Velero está incluido en el paquete del [Datadog Agent][2].
+No es necesaria ninguna instalación adicional en tu servidor.
+
+### Configuración
+
+#### Métricas
+
+{{< tabs >}}
+{{% tab "Host" %}}
+
+Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host.
+
+1. Edita el archivo `velero.d/conf.yaml` que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent para empezar a recopilar tus datos de rendimiento de Velero. Para conocer todas las opciones de configuración disponibles, consulta el [velero.d/conf.yaml de ejemplo][1].
+
+2. [Reinicia el Agent][2].
+
+[1]: https://github.com/DataDog/integrations-core/blob/master/velero/datadog_checks/velero/data/conf.yaml.example
+[2]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+
+Consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la configuración de esta integración en un entorno contenedorizado.
+
+Ten en cuenta que es necesario consultar dos tipos de pods para recopilar todas las métricas: `velero` y `node-agent`
+Por lo tanto, asegúrate de actualizar las anotaciones del despliegue de `velero`, así como el daemonset `node-agent`.
+
+[1]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/
+{{% /tab %}}
+{{< /tabs >}}
+
+#### Logs
+
+La integración Velero puede recopilar logs de los pods Velero.
+
+{{< tabs >}}
+{{% tab "Host" %}}
+
+Para recopilar logs de los contenedores Velero en un host:
+
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en tu archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. Descomenta y edita el bloque de configuración de logs en tu archivo `velero.d/conf.yaml`. Por ejemplo:
+
+ ```yaml
+ logs:
+ - type: docker
+ source: velero
+ service: velero
+ ```
+
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+
+Para recopilar logs de un despliegue de Velero Kubernetes:
+
+1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta [Recopilación de logs de Kubernetes][1].
+
+2. Configura las integraciones de logs como anotaciones de pod. Esto también se puede configurar con un archivo, un ConfigMap o un almacén de clave-valor. Para obtener más información, consulta la sección [Recopilación de logs de Kubernetes][2].
+
+[1]: https://docs.datadoghq.com/es/agent/kubernetes/log/#setup
+[2]: https://docs.datadoghq.com/es/agent/kubernetes/log/#configuration
+{{% /tab %}}
+{{< /tabs >}}
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][3] y busca `velero` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "velero" >}}
+
+
+### Eventos
+
+La integración Velero no incluye eventos.
+
+### Checks de servicio
+
+La integración Velero no incluye checks de servicios.
+
+## Solucionar problemas
+
+Asegúrate de que tu servidor Velero expone métricas comprobando que la función está habilitada en la configuración del despliegue:
+
+```yaml
+# Settings for Velero's prometheus metrics. Enabled by default.
+metrics:
+ enabled: true
+ scrapeInterval: 30s
+ scrapeTimeout: 10s
+```
+
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][4].
+
+
+
+[1]: https://velero.io
+[2]: https://app.datadoghq.com/account/settings/agent/latest
+[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[4]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/wazuh.md b/content/es/integrations/wazuh.md
new file mode 100644
index 0000000000000..51b11e56263cd
--- /dev/null
+++ b/content/es/integrations/wazuh.md
@@ -0,0 +1,252 @@
+---
+app_id: wazuh
+app_uuid: 5b1e3f2f-419d-4d9d-bb00-002b58e28835
+assets:
+ dashboards:
+ Wazuh - Cloud Security: assets/dashboards/wazuh_cloud_security.json
+ Wazuh - File Integrity Monitoring: assets/dashboards/wazuh_file_integrity_monitoring.json
+ Wazuh - MITRE ATT&CK: assets/dashboards/wazuh_MITRE_ATT&CK.json
+ Wazuh - Malware Detection: assets/dashboards/wazuh_malware_detection.json
+ Wazuh - Overview: assets/dashboards/wazuh_overview.json
+ Wazuh - Security Operations: assets/dashboards/wazuh_security_operations.json
+ Wazuh - System: assets/dashboards/wazuh_system.json
+ Wazuh - Vulnerability Detection: assets/dashboards/wazuh_vulnerability_detection.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 26101213
+ source_type_name: Wazuh
+ logs:
+ source: wazuh
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- events
+- recopilación de logs
+- seguridad
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/wazuh/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: wazuh
+integration_id: wazuh
+integration_title: Wazuh
+integration_version: 1.0.0
+is_public: true
+manifest_version: 2.0.0
+name: wazuh
+public_title: Wazuh
+short_description: Obtén información sobre las alertas de Wazuh.
+supported_os:
+- linux
+- windows
+- macos
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::Windows
+ - Supported OS::macOS
+ - Category::Alerting
+ - Category::Log Collection
+ - Category::Security
+ - Offering::Integration
+ - Submitted Data Type::Logs
+ configuration: README.md#Setup
+ description: Obtén información sobre las alertas de Wazuh.
+ media:
+ - caption: 'Wazuh: seguridad en la nube'
+ image_url: images/wazuh-cloud-security.png
+ media_type: imagen
+ - caption: 'Wazuh: monitorización de la integridad de los archivos'
+ image_url: images/wazuh-file-integrity-monitoring.png
+ media_type: imagen
+ - caption: 'Wazuh: detección de malware'
+ image_url: images/wazuh-malware-detection.png
+ media_type: imagen
+ - caption: 'Wazuh: MITRE ATT&CK'
+ image_url: images/wazuh-mitre-attack.png
+ media_type: imagen
+ - caption: 'Wazuh: información general'
+ image_url: images/wazuh-overview.png
+ media_type: imagen
+ - caption: 'Wazuh: operaciones de seguridad'
+ image_url: images/wazuh-security-operations.png
+ media_type: imagen
+ - caption: 'Wazuh: sistema'
+ image_url: images/wazuh-system.png
+ media_type: imagen
+ - caption: 'Wazuh: detección de vulnerabilidades'
+ image_url: images/wazuh-vulnerability-detection.png
+ media_type: imagen
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Wazuh
+---
+
+
+
+
+## Información general
+
+[Wazuh][1] proporciona una solución de seguridad integral que detecta, analiza y responde a las amenazas a través de múltiples capas de infraestructura de TI. Wazuh recopila telemetría de endpoints, dispositivos de red, cargas de trabajo en la nube, APIs de terceros y otras fuentes para la monitorización de una seguridad unificada y la protección.
+
+Esta integración analiza los siguientes tipos de logs:
+- **vulnerability-detector**: eventos de vulnerabilidad generados por Wazuh.
+- **malware-detector**: eventos de rootcheck generados por Wazuh para detectar cualquier malware en el sistema.
+- **file-integrity-monitoring**: eventos relacionados con los cambios de archivos como permiso, contenido, propiedad y atributos.
+- **docker**: eventos de actividad de contenedor de Docker.
+- **github**: eventos de logs de auditoría de organizaciones de github.
+- **google-cloud**: eventos de seguridad relacionados con los servicios de la plataforma de Google Cloud.
+- **amazon**: eventos de seguridad de servicios de Amazon AWS.
+- **office365**: eventos de seguridad relacionados con office365.
+- **system**: eventos de servicios como FTPD, PAM, SSHD, syslog, Windows, dpkg, yum, sudo, su, wazuh y ossec junto con eventos internos.
+
+Visualiza información detallada de estos logs a través de dashboards predefinidos.
+
+## Configuración
+
+### Instalación
+
+Para instalar la integración de Wazuh, ejecuta el siguiente comando de instalación del Agent y los pasos que se indican a continuación. Para más información, consulta la documentación de [gestión de la integración][2].
+
+**Nota**: Este paso no es necesario para la versión 7.58.0 o posterior del Agent.
+
+Comando de Linux
+ ```shell
+ sudo -u dd-agent -- datadog-agent integration install datadog-wazuh==1.0.0
+ ```
+
+### Configuración
+
+#### Recopilación de logs
+
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+2. Añade este bloque de configuración a tu archivo `wazuh.d/conf.yaml` para empezar a recopilar tus logs.
+
+ Utiliza el método UDP para recopilar los datos de las alertas de Wazuh.
+ Ve el [wazuh.d/conf.yaml][3] de ejemplo para conocer las opciones disponibles de configuración.
+
+ ```yaml
+ logs:
+ - type: udp
+ port:
+ source: wazuh
+ service: wazuh
+ ```
+ **Nota**: Es recomendado no cambiar los valores de servicio y fuente, ya que estos parámetros son parte integral de la operación del pipeline.
+
+3. [Reinicia el Agent][4].
+
+#### Configurar el reenvío de mensajes syslog desde Wazuh
+
+ 1. Inicia sesión en la interfaz de usuario de Wazuh. Navega hasta el menú de la izquierda.
+ 2. Ve a **Server management** > **Settings** (Gestión del servidor > Configuración).
+ 3. Haz clic en **Edit configuration** (Editar configuración).
+ 4. Añade el siguiente bloque de configuración:
+
+ En este ejemplo, todas las alertas se envían a 1.1.1.1 en el puerto 8080 en formato JSON.
+ ```xml
+
+ 1.1.1.1
+ 8080
+ json
+
+ ```
+
+ * La etiqueta `server` debe contener la dirección IP donde se está ejecutando tu Datadog Agent.
+
+ * La etiqueta `port` debe contener el puerto donde tu Datadog Agent está escuchando.
+
+ Nota: El uso del formato JSON es obligatorio, ya que el pipeline de Wazuh analiza logs en formato JSON solamente.
+ 5. Pulsa el botón **Save** (Guardar).
+ 6. Después de guardar, haz clic en el botón **Restart Manager** (Reiniciar administrador).
+
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][5] y busca `wazuh` en la sección Checks.
+
+## Datos recopilados
+
+### Log
+
+| Formato | Tipos de evento |
+| --------- | -------------- |
+| JSON | vulnerability-detector, file-integrity-monitoring, malware-detector, github, docker, amazon, office365, google-cloud, system y otros |
+
+### Métricas
+
+La integración de Wazuh no incluye ninguna métrica.
+
+### Eventos
+
+La integración de Wazuh no incluye ningún evento.
+
+### Checks de servicio
+
+La integración de Wazuh no incluye ningún check de servicio.
+
+## Solucionar problemas
+
+**Permission denied while port binding** (Permiso denegado en la vinculación de puertos):
+
+Si aparece un error de **Permission denied** (Permiso denegado) al vincular puertos en los logs del Agent:
+
+1. La vinculación a un número de puerto inferior a 1024 requiere permisos elevados. Concede acceso al puerto mediante el comando `setcap`:
+ ```shell
+ sudo setcap CAP_NET_BIND_SERVICE=+ep /opt/datadog-agent/bin/agent/agent
+ ```
+
+2. Comprueba que la configuración es correcta ejecutando el comando `getcap`:
+
+ ```shell
+ sudo getcap /opt/datadog-agent/bin/agent/agent
+ ```
+
+ Con el resultado esperado:
+
+ ```shell
+ /opt/datadog-agent/bin/agent/agent = cap_net_bind_service+ep
+ ```
+
+ **Nota**: Vuelve a ejecutar este comando `setcap` cada vez que actualices el Agent.
+
+3. [Reinicia el Agent][4].
+
+A continuación, se explica cómo solucionar algunos posibles problemas.
+
+**Data is not being collected** (No se están recopilando datos):
+
+Asegúrate de que se evita el tráfico del puerto configurado si el firewall está activado.
+
+**Port already in use** (Puerto ya en uso):
+
+Si aparece el error **Port Already in Use** (Puerto n.° ya en uso), consulta las siguientes instrucciones. El ejemplo siguiente es para el puerto 514:
+
+- En los sistemas que utilizan Syslog, si el Agent escucha logs de Wazuh en el puerto 514, puede aparecer el siguiente error en los logs del Agent: `Can't start UDP Forwarder on port 514: listen udp :514: bind: address already in use`. Este error ocurre porque, por defecto, Syslog escucha en el puerto 514. Para resolver este error, toma **uno** de los siguientes pasos:
+ - Desactiva Syslog.
+ - Configura el Agent para escuchar en un puerto diferente, disponible.
+
+
+Para obtener más ayuda, ponte en contacto con el [soporte de Datadog][6].
+
+[1]: https://wazuh.com/
+[2]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=linux#install
+[3]: https://github.com/DataDog/integrations-core/blob/master/wazuh/datadog_checks/wazuh/data/conf.yaml.example
+[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[6]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/internal_developer_portal/scorecards/scorecard_configuration.md b/content/es/internal_developer_portal/scorecards/scorecard_configuration.md
new file mode 100644
index 0000000000000..a516435dca201
--- /dev/null
+++ b/content/es/internal_developer_portal/scorecards/scorecard_configuration.md
@@ -0,0 +1,133 @@
+---
+aliases:
+- /es/tracing/software_catalog/scorecards/scorecard_configuration
+- /es/tracing/service_catalog/scorecards/scorecard_configuration
+- /es/service_catalog/scorecards/scorecard_configuration
+- /es/software_catalog/scorecards/scorecard_configuration
+further_reading:
+- link: /tracing/software_catalog/
+ tag: Documentación
+ text: Catálogo de software
+- link: /api/latest/service-scorecards/
+ tag: Documentación
+ text: API de scorecards
+- link: https://www.datadoghq.com/blog/service-scorecards/
+ tag: Blog
+ text: Priorizar y promover las prácticas de observabilidad recomendadas del servicio
+ con scorecards
+- link: https://www.datadoghq.com/blog/datadog-custom-scorecards/
+ tag: Blog
+ text: Formalizar las prácticas recomendadas con scorecards
+- link: /continuous_integration/dora_metrics/
+ tag: Documentación
+ text: Seguimiento de las métricas DORA con Datadog
+title: Configuración de scorecards
+---
+
+Datadog proporciona las siguientes scorecards predefinidas basadas en un conjunto de reglas predeterminadas: Preparación para la producción, Prácticas de observabilidad recomendadas, Propiedad y documentación.
+
+## Configurar scorecards predeterminadas
+
+Para seleccionar cuáles de las reglas predefinidas se evalúan para cada una de las scorecards predeterminadas:
+
+1. Abre la página [Scorecards][1] en el Catálogo de software.
+2. Activa o desactiva las reglas para personalizar el cálculo de las puntuaciones.
+3. Haz clic en **View your scores** (Ver sus puntuaciones) para iniciar el seguimiento de tu progreso con las reglas seleccionadas a través de tus entidades definidas.
+
+{{< img src="/tracing/software_catalog/scorecards-setup.png" alt="Página de configuración de scorecards" style="width:90%;" >}}
+
+## Modo de evaluación de las entidades
+
+Una vez configuradas las scorecards por defecto, la página Scorecards del Catálogo de software muestra la lista de reglas predefinidas y el porcentaje de entidades que aprueban esas reglas. Haz clic en una regla para ver más detalles sobre las entidades que la aprueban y las que no, así como los equipos a las que pertenecen. Todas las reglas predefinidas son configuradas inicialmente para evaluar entidades de `kind:service`, pero [este contexto se puede cambiar][7] en el editor de reglas.
+
+### Preparación para la producción
+
+La puntuación del nivel de preparación para la producción de todas las entidades (salvo que se indique lo contrario) se basa en estas normas:
+
+Tener SLOs definidos
+: [Los objetivos de nivel de servicio (SLOs)][2] proporcionan un marco para definir objetivos claros en torno al rendimiento de las aplicaciones, lo que te ayuda a ofrecer una experiencia constante al cliente, equilibrar el desarrollo de funciones con la estabilidad de la plataforma y mejorar la comunicación con los usuarios internos y externos.
+
+Tener monitores definidos
+: Los monitores reducen los tiempos de inactividad ayudando a tu equipo a reaccionar rápidamente ante los problemas en tu entorno. Consulta las [plantillas de monitor][3].
+
+Guardias definidas
+: Mejora la experiencia de las guardias para todos estableciendo una propiedad clara de tus servicios. De este modo, tus ingenieros de guardia dispondrán del punto de contacto correcto durante los incidentes, lo que reducirá el tiempo necesario para resolverlos.
+
+El último despliegue se produjo en los últimos 3 meses
+: Para servicios monitorizados por APM o USM. Las prácticas de desarrollo ágil te permiten responder rápidamente a los comentarios de los usuarios y centrarte en el desarrollo de las funciones más importantes para los usuarios finales.
+
+### Prácticas de observabilidad recomendadas
+
+La puntuación de Prácticas de observabilidad recomendadas se basa en las siguientes reglas:
+
+El seguimiento del despliegue está activo
+: Para servicios monitorizados por APM o USM. [Asegúrate de que los despliegues se realizan sin problemas, implementando una versión de etiqueta (tag) con el Etiquetado unificado de servicios][4]. A medida que despliegas nuevas versiones de tu funcionalidad, Datadog detecta y alerta sobre las diferencias entre versiones en cuanto a tasas de error, número de solicitudes y más. Esto te permite saber cuándo debes volver a versiones anteriores para mejorar la experiencia del usuario final.
+
+La correlación de logs está activa
+: Para servicios APM, se evalúa en función de la última hora de logs detectados. [La correlación entre APM y logs][5] mejora la velocidad de resolución de problemas de los usuarios finales, ahorrándoles tiempo durante incidentes y cortes.
+
+### Propiedad y documentación
+
+La puntuación de Propiedad y documentación se basa en las siguientes reglas:
+
+Equipo definido
+: Definir un equipo permite a los miembros del personal de guardia saber a qué equipo deben dirigirse en caso de que la causa de un problema sea un servicio con el que no están familiarizados.
+
+Contactos definidos
+: Definir los contactos reduce el tiempo que tardan los miembros del personal de guardia en escalar al propietario de otro servicio, lo que te ayuda a recuperar más rápidamente tus servicios de cortes e incidentes.
+
+Repositorios de código definidos
+: Identificar los repositorios de código permite a tus ingenieros realizar una investigación inicial de un problema, sin tener que ponerse en contacto con el equipo propietario del servicio. Esto mejora la colaboración y ayuda a tus ingenieros a mejorar su comprensión general de los puntos de integración.
+
+Documentos definidos
+: La vinculación de la documentación del Catálogo de software proporciona a los ingenieros acceso a conocimientos específicos del servicio, como descripciones generales de la arquitectura, referencias de API y guías operativas. Esto promueve una mejor colaboración entre equipos, acelera la incorporación y profundiza la comprensión general de cómo funcionan e interactúan los servicios.
+
+## Cálculo de las puntuaciones
+
+Cada scorecard predefinida (Preparación para la producción, Prácticas de observabilidad recomendadas, Propiedad y documentación) se compone de un conjunto de reglas predeterminadas. Estas reflejan las condiciones de aprobado/no aprobado y se evalúan automáticamente una vez al día. La puntuación de una entidad con respecto a las reglas personalizadas se basa en los resultados enviados mediante la [API de scorecards][8] o [Workflow Automation][9]. Para excluir una regla personalizada concreta del cálculo de la puntuación de una entidad, define su resultado como `skip` en la API de scorecards.
+
+Las reglas individuales pueden tener restricciones basadas en la disponibilidad de los datos. Por ejemplo, las reglas relacionadas con los despliegues dependen de la disponibilidad de las etiquetas de versión a través del [Etiquetado unificado de servicios][6] de APM.
+
+Cada regla indica una puntuación del porcentaje de entidades que aprueban. Cada scorecard tiene un porcentaje de puntuación general que suma el número de entidades que aprueban entre todas las reglas, **no** el número de entidades que aprueban todas las reglas. Las reglas omitidas y desactivadas no se incluyen en este cálculo.
+
+Las puntuaciones de cada regla también se pueden visualizar **Por tipo** y **Por equipo**. Estas pestañas agregan las puntuaciones a través del tipo de entidad (por ejemplo, `service`, `queue`, `datastore` o `api`) o de equipo, como se define en el Catálogo de software. Esta puntuación se calcula promediando la puntuación individual de cada entidad dentro de cada tipo o equipo.
+
+## Agrupación de reglas por niveles
+
+Puedes agrupar las reglas por niveles para clasificarlas según su criticidad. Existen tres niveles predefinidos:
+
+- **Nivel 1 - Reglas básicas:** Estas reglas reflejan las expectativas básicas para cada entidad de producción, como tener un propietario de guardia, monitorizaciónen el lugar o un equipo definido.
+- **Nivel 2 - Reglas intermedias:** Estas reglas reflejan sólidas prácticas de ingeniería que deberían adoptarse en la mayoría de las entidades. Algunos ejemplos podrían ser la definición de SLOs o la vinculación de la documentación en el Catálogo de software.
+- **Nivel 3 - Reglas avanzadas:** Estas reglas aspiracionales representan prácticas de ingeniería maduras. Puede que no se apliquen a todas las entidades, pero son objetivos valiosos para los equipos.
+
+Puedes definir niveles para cualquier regla predefinida o personalizada. Por defecto, las reglas sin niveles se colocan automáticamente en el nivel 3. Puedes cambiar esta asignación por defecto editando la regla.
+
+{{< img src="/tracing/software_catalog/scorecard-levels.png" alt="Interfaz de usuario de scorecards agrupada por niveles" style="width:90%;" >}}
+
+Puedes agrupar reglas por scorecard o nivel en la interfaz de usuario de scorecards. En el Catálogo de software, puedes realizar un seguimiento del progreso de un servicio específico en cada nivel. Cada servicio comienza en el nivel 0. La entidad progresa al nivel 1 una vez que aprueba todas las reglas del nivel 1, hasta que alcanza un estado de nivel 3.
+
+{{< img src="/tracing/software_catalog/scorecard-levels-software-catalog.png" alt="Vista de scorecards en el Catálogo de software, que muestra el estado del servicio por nivel" style="width:90%;" >}}
+
+## Delimitar reglas de scorecards
+
+Los contextos te permiten definir a qué entidades se aplica una regla, utilizando metadatos de definiciones de entidades del Catálogo de software. Si no hay un contexto definido, una regla se aplica a todos los servicios definidos en el catálogo. Puedes delimitar por un `kind` de entidad, así como por cualquier campo en la entidad de una definición, incluyendo `team`, `tier` y etiquetas (tags) personalizadas.
+
+Por defecto, una entidad debe coincidir con todas las condiciones especificadas para ser evaluada según la regla. Puedes utilizar las sentencias `OR` para incluir varios valores para el mismo campo.
+
+{{< img src="/tracing/software_catalog/scorecard-edit-scope.png" alt="Página de configuración de scorecards" style="width:90%;" >}}
+
+Puedes configurar contextos tanto para las reglas predefinidas y personalizadas. Al añadir un contexto a una regla, los resultados registrados anteriormente de las entidades que ya no coinciden con el contexto se ocultan de la interfaz de usuario y se excluyen de los cálculos de puntuación. Si luego eliminas el contexto, estos resultados vuelven a aparecer y se contabilizan de nuevo.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/services/scorecard
+[2]: /es/service_management/service_level_objectives/
+[3]: https://app.datadoghq.com/monitors/recommended
+[4]: /es/tracing/services/deployment_tracking/
+[5]: /es/tracing/other_telemetry/connect_logs_and_traces/
+[6]: /es/getting_started/tagging/unified_service_tagging/
+[7]: /es/internal_developer_portal/scorecards/scorecard_configuration#scope-scorecard-rules
+[8]: /es/api/latest/service-scorecards/
+[9]: /es/internal_developer_portal/scorecards/custom_rules#evaluate-custom-rules-using-workflow-automation
\ No newline at end of file
diff --git a/content/es/observability_pipelines/destinations/crowdstrike_ng_siem.md b/content/es/observability_pipelines/destinations/crowdstrike_ng_siem.md
new file mode 100644
index 0000000000000..4325430810ddc
--- /dev/null
+++ b/content/es/observability_pipelines/destinations/crowdstrike_ng_siem.md
@@ -0,0 +1,31 @@
+---
+disable_toc: false
+title: Destino CrowdStrike Next-Gen SIEM
+---
+
+Utiliza el destino CrowdStrike Next-Gen SIEM de Observability Pipelines para enviar logs a CrowdStrike Next-Gen SIEM.
+
+## Configuración
+
+Define el destino CrowdStrike NG-SIEM y sus variables de entorno cuando [configures un pipeline][1]. La información a continuación se configura en la interfaz de usuario de los pipelines.
+
+### Configurar el destino
+
+{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}}
+
+### Configurar las variables de entorno
+
+{{% observability_pipelines/configure_existing_pipelines/destination_env_vars/crowdstrike_ng_siem %}}
+
+## Cómo funciona el destino
+
+### Colocación de eventos en lotes
+
+Un lote de eventos se descarga cuando se cumple uno de estos parámetros. Consulta los [eventos por lotes][2] para obtener más información.
+
+| Eventos máximos | Bytes máximos | Tiempo de espera (segundos) |
+|----------------|-----------------|---------------------|
+| Ninguno | 1,000,000 | 1 |
+
+[1]: https://app.datadoghq.com/observability-pipelines
+[2]: /es/observability_pipelines/destinations/#event-batching
\ No newline at end of file
diff --git a/content/es/observability_pipelines/guide/get_started_with_the_custom_processor.md b/content/es/observability_pipelines/guide/get_started_with_the_custom_processor.md
new file mode 100644
index 0000000000000..8b5778af51be0
--- /dev/null
+++ b/content/es/observability_pipelines/guide/get_started_with_the_custom_processor.md
@@ -0,0 +1,478 @@
+---
+disable_toc: false
+further_reading:
+- link: observability_pipelines/processors/custom_processor/
+ tag: Documentación
+ text: Más información sobre el procesador personalizado
+- link: observability_pipelines/set_up_pipelines/
+ tag: Documentación
+ text: Configurar pipelines
+- link: https://www.datadoghq.com/blog/migrate-historical-logs/
+ tag: Blog
+ text: Migrar logs históricos de Splunk y Elasticsearch utilizando Observability
+ Pipelines
+title: Empezando con el procesador personalizado
+---
+
+## Información general
+
+Observability Pipelines te permite transformar tus logs antes de enviarlos a tus destinos. Utiliza el procesador personalizado para crear scripts con funciones personalizadas que modifiquen condicionalmente los campos, los valores y los eventos de logs.
+
+Esta guía te explica cómo utilizar las siguientes funciones en el script de tu procesador personalizado:
+
+- [Decodificar Base64](#decode-base64)
+- [Decodificar un evento Base64 completo](#decode-an-entire-base64-encoded-event)
+- [Codificar Base64](#encode-base64)
+
+También incluye scripts de ejemplo que abordan casos de uso frecuentes, como:
+
+- [Reasignar marcas de tiempo de logs históricos)(#remap-timestamps-for-historical-logs)
+- [Extraer un campo de la matriz de etiquetas (tags) de Datadog (`ddtags`)](#extract-a-field-from-the-datadog-tags-array)
+- [Hacer referencia al valor de otro campo](#reference-another-fields-value)
+- [Eliminar atributos que contengan valores nulos](#remove-attributes-containing-null-values)
+- [Fusionar atributos anidados en el nivel raíz](#merge-nested-attributes-to-root-level)
+- [Serializar logs salientes en formato _raw](#serialize-outbound-logs-in-_raw-format)
+
+## Decodificar Base64
+
+Para los campos o eventos de logs entrantes codificados en Base64, utiliza la función [`decode_base64`][1] para descodificar el campo o evento. La sintaxis de esta función también funciona para [`decode_base16`][1].
+
+### Ejemplo
+
+#### Entrada
+
+Ejemplo de evento de log que contiene un campo Base64 para decodificar:
+
+```json
+{
+ "timestamp": "2025-05-28T19:30:00Z",
+ "level": "info",
+ "source": "auth-service",
+ "user_id": "user_9876",
+ "payload": "VXNlciByZXF1ZXN0ZWQgYWNjZXNzIHRvIHByb3RlY3RlZCByZXNvdXJjZQ=="
+}
+```
+
+#### Función personalizada
+
+Utiliza la función `decode_base64` para decodificar `payload` y almacenar el resultado en un nuevo campo llamado `decoded_payload`.
+
+```yaml
+.decoded_payload = decode_base64!(.payload)
+```
+
+
+Alternativamente, puedes reescribir el valor original `payload` con el valor decodificado sustituyendo `decoded_payload` en la función anterior por `payload`.
+
+```yaml
+.payload = decode_base64!(.payload)
+```
+
+#### Salida
+
+El resultado cuando se utiliza `decoded_payload` para almacenar el valor decodificado.
+
+```json
+{
+ "timestamp": "2025-05-28T19:30:00Z",
+ "level": "info",
+ "source": "auth-service",
+ "user_id": "user_9876",
+ "payload": "VXNlciByZXF1ZXN0ZWQgYWNjZXNzIHRvIHByb3RlY3RlZCByZXNvdXJjZQ==",
+ "decoded_payload": "User requested access to protected resource"
+}
+```
+
+## Decodificar un evento completo codificado en Base64
+
+### Ejemplo
+
+#### Entrada
+
+Ejemplo de entrada de un evento codificado en Base64:
+
+```json
+{
+ "raw": "eyJ0aW1lc3RhbXAiOiAiMjAyNS0wNS0yOFQxOTozMDowMFoiLCAibGV2ZWwiOiAiaW5mbyIsICJtessagemIjogIlVzZXIgbG9naW4gc3VjY2Vzc2Z1bCJ9"
+}
+```
+
+#### Función personalizada
+
+El script para decodificar todo el evento codificado en Base64 `raw`.
+
+```yaml
+.json_string = decode_base64!(.raw)`
+.full_event = parse_json!(.json_string)
+. = .full_event
+```
+
+**Nota:** La sintaxis `. = .full_event` es una forma abreviada de sustituir todo el evento por el contenido de un campo.
+
+#### Salida
+
+```json
+{
+ "timestamp": "2025-05-28T19:30:00Z",
+ "level": "info",
+ "message": "User login successful"
+}
+```
+
+## Codificar Base64
+
+Para los campos o eventos de logs salientes codificados en Base64, utiliza la función [`encode_base64`][1] para decodificar el campo o evento. La sintaxis de esta función también funciona para [`encode_base16`][3].
+
+### Ejemplo
+
+#### Entrada
+
+Ejemplo de evento de log que contiene un campo `message` que debes codificar en Base64:
+
+```json
+{
+ "timestamp": "2025-05-28T19:30:00Z",
+ "level": "info",
+ "source": "auth-service",
+ "user_id": "user_9876",
+ "message": "User login successful"
+}
+```
+
+#### Función personalizada
+
+Utiliza la función `encode_base64` para decodificar `message` y almacenar el resultado en un nuevo campo llamado `encoded_message`.
+
+```yaml
+.encoded_message = encode_base64!(.message)
+```
+
+Alternativamente, puedes sobreescribir el campo del valor original (`message`) con el valor decodificado sustituyendo `encoded_message` en la función anterior por `message`.
+
+```yaml
+.message = encode_base64!(.message)
+```
+
+#### Salida
+
+El resultado cuando se utiliza `encoded_message` para almacenar el valor codificado.
+
+```json
+{
+ "timestamp": "2025-05-28T19:30:00Z",
+ "level": "info",
+ "source": "auth-service",
+ "message": "User login successful",
+ "encoded_message": "VXNlciBsb2dpbiBzdWNjZXNzZnVs"
+}
+```
+
+## Reasignación de marcas de tiempo para logs históricos
+
+Si quieres migrar logs archivados de otras plataformas, es esencial asegurarte de que esos logs tienen la marca de tiempo histórica correcta. La reasignación de logs con marcas de tiempo históricas te permite gestionar logs más antiguos almacenados con fines de cumplimiento, auditoría y archivado.
+
+### Ejemplo
+
+#### Entrada
+
+Si el Worker no encuentra el campo `timestamp` en un log, se utiliza la marca de tiempo de cuando el Worker recibió el log. Este es un ejemplo de log que muestra la marca de tiempo de cuando el Worker recibió el log, así como la marca de tiempo histórica del log (`historical_ts`), que es el valor que el Worker busca.
+
+```json
+{
+ "timestamp": "2025-05-28T19:30:00Z",
+ "historical_ts": "2019-03-14T17:30:00Z",
+ "level": "info",
+ "message": "User login successful"
+}
+```
+
+#### Función personalizada
+
+En el ejemplo anterior, puedes crear una función que almacene la marca de tiempo ingerida en un nuevo campo y reasigne `timestamp` al valor `historical_ts`.
+
+```yaml
+#Create a new field for the ingested/processed timestamp
+.ingested_ts = {{.timestamp}}
+
+#Remap timestamp to be the historical field
+.timestamp = {{.historical_ts}}
+
+#Remove the original historical timestamp
+del(.historical_ts)
+
+```
+
+#### Salida
+
+```json
+{
+ "timestamp": "2019-03-14T17:30:00Z",
+ "ingested_ts": "2025-05-28T19:30:00Z",
+ "level": "info",
+ "message": "User login successful"
+}
+```
+
+## Extraer un campo de la matriz de etiquetas de Datadog
+
+Los campos anidados dentro de la matriz de etiquetas de Datadog (`ddtags`) pueden contener información útil. Es posible que quieras extraer estos campos como pares clave-valor de nivel superior o como valores para otros campos.
+
+### Ejemplo
+
+#### Entrada
+
+Log de ejemplo que contiene la matriz `ddtags` con etiquetas de Datadog.
+
+```json
+{
+ "timestamp": "2025-005-27T05:26:18.205Z",
+ "status": "info",
+ "service": "chaos-engineering",
+ "ddsource": "python",
+ "hostname": "gke-prod-node-abc123.internal",
+ "message": "2025-05-27 05:26:17,609 -- Sending request to rails: checkout_v2",
+ "source_type": "datadog_agent",
+ "ddtags": [
+ "env:prod",
+ "team:sre",
+ "service:chaos-engineering",
+ "version:1.0.0",
+ "pod_name:load-generator-main-abcde"
+ ]
+}
+```
+
+#### Función personalizada para extraer el campo env
+
+```yaml
+#Extract a tag from ddtags array and elevate as log attribute
+.my_tag, err = filter(array!(.ddtags)) -> |_index, value| {
+ #Keep any elements that have the key name "env"
+ starts_with(value, "env:")
+}
+#Assign env to be value of the key
+.env = split!(.my_tag[0], ":")[1]
+del(.my_tag)
+
+```
+
+#### Salida
+
+```json
+{
+ "ddsource": "python",
+ "ddtags": [
+ "env:prod",
+ "team:sre",
+ "service:chaos-engineering",
+ "version:1.0.0",
+ "pod_name:load-generator-main-abcde"
+ ],
+ "env": "prod",
+ "hostname": "gke-prod-node-abc123.internal",
+ "message": "2025-05-27 05:26:17,609 -- Sending request to rails: checkout_v2",
+ "service": "chaos-engineering",
+ "source_type": "datadog_agent",
+ "status": "info",
+ "timestamp": "2025-005-27T05:26:18.205Z"
+}
+```
+
+## Hacer referencia al valor de otro campo
+
+Si quieres que el valor de un campo se base en otro campo, puedes hacer referencia dinámicamente al valor del otro campo.
+
+### Ejemplo
+
+#### Entrada
+
+En este ejemplo, tienes un campo de servicio que contiene un nombre de servicio incorrecto y tú quieres utilizar el valor de `app_id` para el servicio.
+
+```json
+{
+ "timestamp": "2025-05-27T05:26:18.205Z",
+ "status": "info",
+ "service": "mywrongservice",
+ "app_id": "web-store"
+}
+```
+
+#### Función personalizada
+
+```yaml
+#Overwrite service to be the value of app_id
+.service = {{.app_id}}
+```
+
+#### Salida
+
+```json
+{
+ "timestamp": "2025-05-27T05:26:18.205Z",
+ "status": "info",
+ "service": "web-store",
+ "app_id": "web-store"
+}
+```
+
+## Eliminar atributos que contienen valores nulos
+
+Los atributos con valores nulos o vacíos pueden sobrecargar innecesariamente tu log. Elimina los valores nulos para recortar el log y enviar solo los atributos que proporcionan información. En el script siguiente, la sección `empty_patterns` contiene la lista de patrones vacíos que debes comprobar en tus logs. Puedes añadir y eliminar patrones para adaptarlos a tu caso de uso.
+
+```json
+# Define your empty patterns
+empty_patterns = ["null", "NULL", "N/A", "n/a", "none", "NONE", "-", "undefined"]
+
+# Apply generic cleanup
+. = compact(map_values(., recursive: true) -> |v| {
+ if is_null(v) ||
+ includes(empty_patterns, v) ||
+ (is_string(v) && strip_whitespace!(v) == "") ||
+ (is_array(v) && length!(v) == 0) ||
+ (is_object(v) && length!(v) == 0) {
+ null
+ } else {
+ v
+ }
+})
+```
+
+## Fusionar atributos anidados en el nivel raíz
+
+La selección de objetos o campos anidados en una consulta de filtro puede requerir la definición de varias rutas. Esto es habitual cuando se trabaja con el campo de mensaje, en el que el contenido analizado resultante está anidado en un objeto. Cuando se utiliza la sintaxis de filtro de Observability Pipelines' el acceso a un campo anidado requiere la notación `.`.
+
+Por ejemplo, este log contiene un mensaje convertido en cadena JSON:
+
+```json
+{
+ "level": "info",
+ "message": "{\"event_type\":\"user_login\",\"result\":\"success\",\"login_method\":\"oauth\",\"user_agent\":\"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36\",\"ip_address\":\"192.168.1.100\",\"session_id\":\"sess_abc123xyz\",\"duration_ms\":245}",
+ "timestamp": "2019-03-12T11:30:00Z",
+ "processed_ts": "2025-05-22T14:30:00Z",
+ "user_id": "12345",
+ "app_id": "streaming-services",
+ "ddtags": [
+ "kube_service:my-service",
+ "k8_deployment:your-host",
+ "kube_cronjob:myjob"
+ ]
+}
+```
+
+Este es el resultado después de analizar el campo `message`. El contenido analizado se anida en el objeto `message`.
+
+```json
+{
+ "app_id": "streaming-services",
+ "ddtags": [
+ "kube_service:my-service",
+ "k8_deployment:your-host",
+ "kube_cronjob:myjob"
+ ],
+ "level": "info",
+ "message": {
+ "duration_ms": 245,
+ "event_type": "user_login",
+ "ip_address": "192.168.1.100",
+ "login_method": "oauth",
+ "result": "success",
+ "session_id": "sess_abc123xyz",
+ "user_agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36"
+ },
+ "processed_ts": "2025-05-22T14:30:00Z",
+ "timestamp": "2019-03-12T11:30:00Z",
+ "user_id": "12345"
+}
+```
+En este caso, para filtrar por `event_type`, es necesario especificar `@message.event_type`. Para filtrar directamente por `event_type` u otro campo dentro de un objeto, Datadog recomienda aplanar el objeto hasta el nivel raíz.
+
+Para fusionar los eventos del objeto `message` en el nivel raíz, utiliza este script:
+
+```json
+if is_object(.message) {
+ . = merge!(., .message)
+ del(.message)
+}
+```
+
+**Nota**: Este script funciona con cualquier objeto JSON. Solo tienes que sustituir el atributo `message` por el nombre del campo que estás intentando aplanar.
+
+El resultado es el log con atributos aplanados que puedes filtrar directamente:
+
+```json
+{
+ "app_id": "streaming-services",
+ "ddtags": [
+ "kube_service:my-service",
+ "k8_deployment:your-host",
+ "kube_cronjob:myjob"
+ ],
+ "duration_ms": 245,
+ "event_type": "user_login",
+ "ip_address": "192.168.1.100",
+ "level": "info",
+ "login_method": "oauth",
+ "processed_ts": "2025-05-22T14:30:00Z",
+ "result": "success",
+ "session_id": "sess_abc123xyz",
+ "timestamp": "2019-03-12T11:30:00Z",
+ "user_agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36",
+ "user_id": "12345"
+}
+```
+
+**Nota**: Si aplanas el campo del mensaje, el log resultante ya no tendrá un objeto de mensaje. Esto significa que si el log se envía a Datadog, cuando veas el log en Explorador de logs, no verás una sección **Log Message** (Mensaje de log) en el panel lateral del log.
+
+## Serializar logs salientes en formato _raw
+
+Splunk y CrowdStrike prefieren un formato llamado `_raw` para la ingesta de logs. El envío de datos en `_raw` normaliza tus logs y te permite beneficiarte de sus dashboards, monitores y contenidos de detección de amenazas predefinidos. Para garantizar que se aplica el formato de log `_raw`, puedes serializar el evento saliente en `_raw`.
+
+**Notas**:
+- Debes añadir otros pasos de procesamiento, reasignación y análisis antes de serializar tus logs en formato `_raw`.
+- Selecciona `Raw` como opción de codificación cuando configures el destino Splunk HEC o CrowdStrike.
+
+Un ejemplo de log de entrada:
+
+```json
+{
+ "app_id": "streaming-services",
+ "level": "info",
+ "message": {
+ "duration_ms": 245,
+ "event_type": "user_login",
+ "ip_address": "192.168.1.100",
+ "login_method": "oauth",
+ "result": "success",
+ "session_id": "sess_abc123xyz",
+ "user_agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36"
+ },
+ "processed_ts": "2025-05-22T14:30:00Z",
+ "timestamp": "2019-03-12T11:30:00Z",
+ "user_id": "12345"
+}
+```
+
+Esta función personalizada serializa el evento en formato `_raw`:
+
+```json
+# Serialize the entire event into _raw
+._raw = encode_key_value(.)
+# Only keep _raw
+. = { "_raw": ._raw }
+```
+
+Este es el resultado del ejemplo de log después de haber sido procesado por el script personalizado:
+
+```json
+{
+ "_raw": "app_id=streaming-services level=info message.duration_ms=245 message.event_type=user_login message.ip_address=192.168.1.100 message.login_method=oauth message.result=success message.session_id=sess_abc123xyz message.user_agent=\"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36\" processed_ts=2025-05-22T14:30:00Z timestamp=2019-03-12T11:30:00Z user_id=12345"
+}
+```
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/observability_pipelines/processors/custom_processor/#decode_base16
+[2]: /es/observability_pipelines/processors/custom_processor/#encode_base64
+[3]: /es/observability_pipelines/processors/custom_processor/#encode_base16
\ No newline at end of file
diff --git a/content/es/observability_pipelines/set_up_pipelines/run_multiple_pipelines_on_a_host.md b/content/es/observability_pipelines/set_up_pipelines/run_multiple_pipelines_on_a_host.md
new file mode 100644
index 0000000000000..67c87cb8b0619
--- /dev/null
+++ b/content/es/observability_pipelines/set_up_pipelines/run_multiple_pipelines_on_a_host.md
@@ -0,0 +1,137 @@
+---
+disable_toc: false
+further_reading:
+- link: /observability_pipelines/set_up_pipelines/
+ tag: Documentación
+ text: Establecer un pipeline
+- link: /observability_pipelines/environment_variables/
+ tag: Documentación
+ text: Variable de entorno para fuentes, procesadores y componentes
+title: Ejecutar múltiples pipelines en un host
+---
+
+## Información general
+
+Si quieres ejecutar múltiples pipelines en un único host para enviar logs desde diferentes fuentes, necesitas añadir manualmente los archivos de Worker para cualquier Worker adicional. Este documento explica qué archivos necesitas añadir y modificar para ejecutar esos Workers.
+
+## Requisitos previos
+
+[Configura el primer pipeline][1] e instala el Worker en tu host.
+
+## Crear un pipeline adicional
+
+[Configura otro pipeline][1] para el Worker adicional que quieras ejecutar en el mismo host. Cuando estés en la página Instalar, sigue los siguientes pasos para ejecutar el Worker para ese pipeline.
+
+## Ejecutar el Worker del pipeline adicional
+
+Cuando hayas instalado el primer Worker, por defecto tendrás:
+
+- Un servicio binario: `/usr/bin/observability-pipelines-worker`
+- Un archivo de definición de servicio similar a:
+ {{< code-block lang="bash" filename="/lib/systemd/system/observability-pipelines-worker.service" >}}
+ [Unidad]
+ Description="Observability Pipelines Worker"
+ Documentation=https://docs.datadoghq.com/observability_pipelines/
+ After=network-online.target
+ Wants=network-online.target
+
+ [Servicio]
+ User=observability-pipelines-worker
+ Group=observability-pipelines-worker
+ ExecStart=/usr/bin/observability-pipelines-worker run
+ Restart=always
+ AmbientCapabilities=CAP_NET_BIND_SERVICE
+ EnvironmentFile=-/etc/default/observability-pipelines-worker
+
+ [Instalar]
+ WantedBy=multi-user.target
+ {{< /code-block >}}
+- Un archivo de entorno similar a:
+ {{< code-block lang="bash" filename="/etc/default/observability-pipelines-worker" >}}
+ DD_API_KEY=
+ DD_SITE=
+ DD_OP_PIPELINE_ID=
+ {{< /code-block >}}
+- Un directorio de datos: `/var/lib/observability-pipelines-worker`
+
+### Configurar el Worker adicional
+
+Para este ejemplo se creó otro pipeline con la fuente Fluent. Para configurar un Worker para este pipeline:
+
+1. Ejecuta el siguiente comando para crear un nuevo directorio de datos, sustituyendo `op-fluent` por un nombre de directorio que se ajuste a tu caso de uso:
+ ```shell
+ sudo mkdir /var/lib/op-fluent
+ ```
+1. Ejecuta el siguiente comando para cambiar el propietario del directorio de datos a `observability-pipelines-worker:observability-pipelines-worker`. Asegúrate de actualizar `op-fluent` con el nombre de tu directorio de datos.
+ ```
+ sudo chown -R observability-pipelines-worker:observability-pipelines-worker /var/lib/op-fluent/
+ ```
+1. Crea un archivo de entorno para el nuevo servicio systemd, como `/etc/default/op-fluent`, donde `op-fluent` se sustituye por tu nombre de archivo específico. Ejemplo del contenido del archivo:
+ {{< code-block lang="bash" filename="/etc/default/op-fluent" >}}
+ DD_API_KEY=
+ DD_OP_PIPELINE_ID=
+ DD_SITE=
+
+ DD_OP_SOURCE_FLUENT_ADDRESS=0.0.0.0:9091
+ DD_OP_DATA_DIR=/var/lib/op-fluent
+ {{< /code-block >}}
+ En este ejemplo:
+ - `DD_OP_DATA_DIR` está configurado como `/var/lib/op-fluent`. Sustituye `/var/lib/op-fluent` por la ruta a tu directorio de datos.
+ - `DD_OP_SOURCE_FLUENT_ADDRESS=0.0.0.0:9091` es la variable de entorno necesaria para la fuente Fluent de este ejemplo. Sustitúyela por la [variable de entorno][2] de tu fuente.
+
+ Además, asegúrate de sustituir:
+ - `` por tu [clave de API Datadog][3].
+ - `` por el ID del [pipeline][1] de este Worker.
+ - `` por tu [sitio Datadog][4].
+ - `` por las [variables de entorno][2] de tus destinos.
+1. Crea una nueva entrada de servicio systemd, como `/lib/systemd/system/op-fluent.service`. Ejemplo de contenido de la entrada:
+ {{< code-block lang="bash" filename="/lib/systemd/system/op-fluent.service" >}}
+ [Unidad]
+ Description="OPW for Fluent Pipeline"
+ Documentation=https://docs.datadoghq.com/observability_pipelines/
+ After=network-online.target
+ Wants=network-online.target
+
+ [Servicio]
+ User=observability-pipelines-worker
+ Group=observability-pipelines-worker
+ ExecStart=/usr/bin/observability-pipelines-worker run
+ Restart=always
+ AmbientCapabilities=CAP_NET_BIND_SERVICE
+ EnvironmentFile=-/etc/default/op-fluent
+
+ [Instalar]
+ WantedBy=multi-user.target
+ {{< /code-block >}}
+ En este ejemplo:
+ - El nombre del servicio es `op-fluent`, ya que el pipeline está utilizando la fuente Fluent. Sustituye `op-fluent.service` por un nombre de servicio para tu caso de uso.
+ - La `Description` es `OPW for Fluent pipeline`. Sustituye `OPW for Fluent pipeline` por una descripción para tu caso de uso.
+ - `EnvironmentFile` se configura como `-/etc/default/op-fluent`. Sustituye `-/etc/default/op-fluent` por el archivo de variables de entorno del servicio systemd que creaste para tu Worker.
+1. Ejecuta este comando para volver a cargar systemd:
+ ```shell
+ sudo systemctl daemon-reload
+ ```
+1. Ejecuta este comando para iniciar el nuevo servicio:
+ ```shell
+ sudo systemctl enable --now op-fluent
+ ```
+1. Ejecuta este comando para comprobar que el servicio se está ejecutando:
+ ```shell
+ sudo systemctl status op-fluent
+ ```
+
+Además, puedes utilizar el comando `sudo journalctl -u op-fluent.service` para ayudarte a corregir cualquier problema.
+
+## Desplegar el pipeline
+
+1. Ve a la página Instalar del pipeline adicional.
+1. En la sección **Deploy your pipeline** (Desplegar tu pipeline), deberías ver tu Worker adicional detectado. Haz clic en **Deploy** (Desplegar).
+
+[1]: https://docs.datadoghq.com/es/observability_pipelines/set_up_pipelines/?tab=pipelineui
+[2]: https://docs.datadoghq.com/es/observability_pipelines/environment_variables/?tab=sources
+[3]: https://app.datadoghq.com/organization-settings/api-keys
+[4]: https://docs.datadoghq.com/es/getting_started/site/
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/es/opentelemetry/integrations/apache_metrics.md b/content/es/opentelemetry/integrations/apache_metrics.md
new file mode 100644
index 0000000000000..f047c42c2fb9e
--- /dev/null
+++ b/content/es/opentelemetry/integrations/apache_metrics.md
@@ -0,0 +1,38 @@
+---
+further_reading:
+- link: /opentelemetry/collector_exporter/
+ tag: Documentación
+ text: Configuración de OpenTelemetry Collector
+title: Métricas de Apache Web Server
+---
+
+## Información general
+
+{{< img src="/opentelemetry/collector_exporter/apache_metrics.png" alt="Métricas de OpenTelemetry Apache en un dashboard de Apache" style="width:100%;" >}}
+
+El [receptor de Apache][1] permite recopilar métricas de Apache Web Server. Configura el receptor de acuerdo con las especificaciones de la última versión de `apachereceiver`.
+
+Para más información, consulta la documentación del proyecto de OpenTelemetry para el [receptor de Apache][1].
+
+## Configuración
+
+Para recopilar métricas de Apache Web Server con OpenTelemetry para su uso con Datadog:
+
+1. Configura el [receptor de Apache][1] en tu configuración de OpenTelemetry Collector.
+2. Asegúrate de que OpenTelemetry Collector está [configurado para exportar a Datadog][4].
+
+Consulta la [documentación del receptor de Apache][1] para obtener información detallada sobre las opciones y requisitos de configuración.
+
+## Datos recopilados
+
+{{< mapping-table resource="apache.csv">}}
+
+Consulta [Asignación de métricas de OpenTelemetry][2] para obtener más información.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/receiver/apachereceiver
+[2]: /es/opentelemetry/guide/metrics_mapping/
+[4]: /es/opentelemetry/setup/collector_exporter/
\ No newline at end of file
diff --git a/content/es/opentelemetry/integrations/nginx_metrics.md b/content/es/opentelemetry/integrations/nginx_metrics.md
new file mode 100644
index 0000000000000..baeeb281c3c99
--- /dev/null
+++ b/content/es/opentelemetry/integrations/nginx_metrics.md
@@ -0,0 +1,39 @@
+---
+further_reading:
+- link: /opentelemetry/collector_exporter/
+ tag: Documentación
+ text: Configuración de OpenTelemetry Collector
+title: Métricas de NGINX
+---
+
+## Información general
+
+{{< img src="/opentelemetry/collector_exporter/nginx_metrics.png" alt="Métricas de OpenTelemetry NGINX en un dashboard de NGINX" style="width:100%;" >}}
+
+El [receptor de NGINX][1] permite recopilar métricas de NGINX y acceder al dashboard de [información general de NGINX][4]. Configura el receptor de acuerdo con las especificaciones de la última versión de `nginxreceiver`.
+
+Para más información, consulta la documentación del proyecto de OpenTelemetry para el [receptor de NGINX][1].
+
+## Configuración
+
+Para recopilar métricas de NGINX con OpenTelemetry para su uso con Datadog:
+
+1. Configura el [receptor de NGINX][1] en tu configuración de OpenTelemetry Collector.
+2. Asegúrate de que OpenTelemetry Collector está [configurado para exportar a Datadog][5].
+
+Consulta la [documentación del receptor de NGINX][1] para obtener información detallada sobre las opciones y requisitos de configuración.
+
+## Datos recopilados
+
+{{< mapping-table resource="nginx.csv">}}
+
+Consulta [Asignación de métricas de OpenTelemetry][2] para obtener más información.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/receiver/nginxreceiver
+[2]: /es/opentelemetry/guide/metrics_mapping/
+[4]: https://app.datadoghq.com/dash/integration/21/nginx---overview
+[5]: /es/opentelemetry/setup/collector_exporter/
\ No newline at end of file
diff --git a/content/es/opentelemetry/mapping/_index.md b/content/es/opentelemetry/mapping/_index.md
index 57ef97b46a0ae..7db747fe41db6 100644
--- a/content/es/opentelemetry/mapping/_index.md
+++ b/content/es/opentelemetry/mapping/_index.md
@@ -4,7 +4,7 @@ aliases:
further_reading:
- link: /opentelemetry/correlate/
tag: Documentación
- text: Explorar datos en Datadog
+ text: Correlacionar datos
title: Mapeo semántico
---
diff --git a/content/es/opentelemetry/setup/otlp_ingest/_index.md b/content/es/opentelemetry/setup/otlp_ingest/_index.md
new file mode 100644
index 0000000000000..8143b494e277a
--- /dev/null
+++ b/content/es/opentelemetry/setup/otlp_ingest/_index.md
@@ -0,0 +1,34 @@
+---
+aliases:
+- /es/opentelemetry/setup/intake_endpoint/
+- /es/opentelemetry/setup/agentless/
+further_reading:
+- link: /opentelemetry/setup
+ tag: Documentación
+ text: Envía datos a Datadog
+title: Endpoint de ingreso del OTLP de Datadog
+---
+
+{{< callout header="false" btn_hidden="true">}}
+ El endpoint de ingreso del OTLP de Datadog está en Vista previa. Para solicitar acceso, ponte en contacto con tu representante de cuenta.
+{{< /callout >}}
+
+## Información general
+
+El endpoint de la API de ingreso del protocolo OpenTelemetry (OTLP) de Datadog te permite enviar datos de observabilidad directamente a Datadog. Con esta función, no necesitas ejecutar el [Agent][1] u [OpenTelemetry Collector + Datadog Exporter][2].
+
+{{< img src="/opentelemetry/setup/direct-ingest.png" alt="Diagrama: El SDK de OpenTelemetry envía datos directamente a Datadog a través del endpoint de ingreso." style="width:100%;" >}}
+
+Es posible que prefieras esta opción si buscas una configuración sencilla y quieres enviar telemetría directamente a Datadog sin utilizar el Datadog Agent u OpenTelemetry Collector.
+
+- [Endpoint de ingreso de logs del OTLP][3]
+- [Endpoint de ingreso de métricas del OTLP][4]
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/opentelemetry/otlp_ingest_in_the_agent/
+[2]: /es/opentelemetry/setup/collector_exporter/
+[3]: /es/opentelemetry/setup/intake_endpoint/otlp_logs
+[4]: /es/opentelemetry/setup/intake_endpoint/otlp_metrics
\ No newline at end of file
diff --git a/content/es/product_analytics/guide/rum_and_product_analytics.md b/content/es/product_analytics/guide/rum_and_product_analytics.md
new file mode 100644
index 0000000000000..2a51441e77bc0
--- /dev/null
+++ b/content/es/product_analytics/guide/rum_and_product_analytics.md
@@ -0,0 +1,87 @@
+---
+description: Guía para usuarios existentes de RUM que deseen comprender la relación
+ entre RUM y Product Analytics.
+further_reading:
+- link: /real_user_monitoring/
+ tag: Documentación
+ text: Más información sobre RUM
+title: Comprensión de RUM y Product Analytics
+---
+
+## ¿Qué es Product Analytics?
+
+Product Analytics es una oferta específica creada para jefes de producto, propietarios de producto, líderes de ingeniería y otras personas que desean aprovechar el comportamiento real de los usuarios para obtener información sobre el producto y el negocio, sin necesidad de conocer otros productos de observabilidad de Datadog.
+
+{{< img src="product_analytics/guide/understanding-PANA-RUM-summary.png" alt="Product Analytics en Datadog. El meú izquierdo muestra Product Analytics como título y contiene los elementos de navegación Inicio, Tablas, Dashboards, Session Replay, Usuarios y Segmentos." style="width:100%;" >}}
+
+## Product Analytics y RUM
+
+Anteriormente, **Pathways** y **Retention Analysis** formaban parte de Datadog Real User Monitoring (RUM). Estas funciones se trasladan a Datadog Product Analytics.
+
+Esta transición sucederá el **1 de junio de 2025**.
+
+
+## Preguntas frecuentes
+
+### ¿Cuál es la diferencia entre RUM y Product Analytics?
+
+- Tanto Product Analytics como Real User Monitoring se basan en los SDKs para navegadores o móviles.
+- Product Analytics ofrece una retención de 15 meses sobre los eventos de comportamiento (Sesiones, Vistas y Acciones). Real User Monitoring se dedica a la monitorización del rendimiento.
+- Los usuarios tienen la opción de adquirir ambos productos juntos o cada uno por separado.
+
+### ¿Cómo se ven afectados los clientes de RUM?
+
+Como parte de la introducción de Product Analytics, se están realizando los siguientes cambios tanto para los clientes existentes como para los nuevos clientes de RUM:
+
+- **Product Analytics Summary**, **Retention Analytics** y **Pathways** ahora son parte de **Product Analytics** y ya no están disponibles en RUM.
+
+- **Heatmaps** (Mapas de calor) siguen estando disponibles, pero se han reubicado en la pestaña **Session Replay** para facilitar el acceso y la relevancia contextual.
+
+- Las pestañas **Funnel** (Túnel) y **Conversion** (Conversión) siguen estando disponibles en el **RUM Explorer**. Para ver los detalles de la conversión, selecciona la visualización **Túnel** y haz clic en cualquier paso para abrir el panel **Conversión**.
+
+Estas actualizaciones garantizan una separación más clara de los casos de uso entre RUM y Product Analytics, lo que permite flujos de trabajo más centrados y perspectivas más profundas.
+
+### ¿Cómo configuro Product Analytics?
+
+Product Analytics utiliza los mismos SDKs y configuración que RUM. Para activar Product Analytics, ve a la página [Gestión de aplicaciones][3] y activa los productos deseados.
+
+Si RUM ya está configurado, no se requiere instrumentación adicional para Product Analytics.
+
+### ¿Por qué ya no puedo acceder a Sankeys y Retention Analysis?
+- Estas funciones formaban parte de una versión preliminar y estaban disponibles para los clientes de RUM como versión beta, pero no formaban parte de la oferta principal de RUM. Estas funciones están disponibles exclusivamente para los clientes con un contrato de Product Analytics.
+
+### ¿Session Replay está disponible con Product Analytics?
+
+[Session Replay][1] es una oferta independiente que puede adquirirse junto con Product Analytics.
+
+### ¿De qué disponen los clientes de RUM y de qué disponen los clientes de Product Analytics?
+Consulta a continuación la tabla comparativa completa de funciones.
+
+| Función | RUM | Análisis de productos |
+|---------|-----|-------------------|
+| Conservación de datos | De 15 a 30 días | 15 meses |
+| Eventos de Sesión, Vista y Acción | {{< X >}} (con 30 días de retención) | {{< X >}} |
+| Eventos de Error, Recurso, Tarea larga y Vitales | {{< X >}} (con 30 días de retención para Errores,
15 días para el resto) | |
+| Atributos de usuario | {{< X >}} | {{< X >}} |
+| Señales de frustración | {{< X >}} | {{< X >}} |
+| Core Web Vitals y Mobile Vitals | {{< X >}} | {{< X >}} |
+| Resumen de resultados | {{< X >}} | |
+| Resumen analítico | {{< X >}} (ofrecido como vista previa en Product Analytics) | {{< X >}} |
+| Solucionar problemas con los eventos vitales | {{< X >}} (solo navegador) | |
+| Eventos vitales personalizados | {{< X >}} (solo navegador) | |
+| Rendimiento de Feature Flags/Página de Deployment Tracking | {{< X >}} | |
+| Error Tracking/Informe de fallos | {{< X >}} | |
+| Correlación de RUM <> APM | {{< X >}} | |
+| Retention Analysis | | {{< X >}} |
+| Embudos | {{< X >}} | {{< X >}} |
+| Pathways | | {{< X >}} |
+| Segmentación | | {{< X >}} |
+| Mapas de calor (Heatmaps) | {{< X >}} (cuando se compra con Session Replay)| {{< X >}} (cuando se compra con Session Replay) |
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://www.datadoghq.com/pricing/?product=real-user-monitoring#products
+[3]: https://app.datadoghq.com/rum/list?
\ No newline at end of file
diff --git a/content/es/profiler/profiler_troubleshooting/java.md b/content/es/profiler/profiler_troubleshooting/java.md
index b1988c400bad9..6989707c54a6e 100644
--- a/content/es/profiler/profiler_troubleshooting/java.md
+++ b/content/es/profiler/profiler_troubleshooting/java.md
@@ -11,7 +11,7 @@ type: lenguaje de código múltiple
## Perfiles faltantes en la página de búsqueda de perfiles
-Si has configurado el generador de perfiles y no ves perfiles en la página de búsqueda de perfiles, activa el [modo de depuración][1] y [abre un ticket de asistencia][1]. En el ticket de asistencia, incluye los archivos de depuración junto con la siguiente información:
+Si has configurado el generador de perfiles y no ves perfiles en la página de búsqueda de perfiles, activa el [modo de depuración][1] y [abre un ticket de asistencia][2]. En el ticket de asistencia, incluye los archivos de depuración junto con la siguiente información:
- Tipo y versión del sistema operativo (por ejemplo, Linux Ubuntu 20.04)
- Tipo de tiempo de ejecución, versión y proveedor (por ejemplo, Java OpenJDK 11 AdoptOpenJDK)
@@ -19,43 +19,27 @@ Si has configurado el generador de perfiles y no ves perfiles en la página de b
## Reducción de la sobrecarga de la configuración por defecto
-Si la sobrecarga de configuración por defecto no es aceptable, puedes utilizar el generador de perfiles con parámetros de configuración mínimo. La configuración mínima tiene los siguientes cambios en comparación con la configuración por defecto:
+Si la sobrecarga de configuración por defecto no es aceptable, puedes utilizar el generador de perfiles con parámetros de configuración mínimo. La configuración mínima presenta los siguientes cambios, en comparación con la configuración por defecto:
-- Aumenta el umbral de muestreo a 500 ms para eventos `ThreadSleep`, `ThreadPark` y `JavaMonitorWait` en comparación con los 100 ms por defecto.
+- Aumenta el umbral de muestreo a 500 ms para eventos `ThreadSleep`, `ThreadPark` y `JavaMonitorWait`, en comparación con los 100 ms por defecto.
- Deshabilita eventos `ObjectAllocationInNewTLAB`, `ObjectAllocationOutsideTLAB`, `ExceptionSample`, `ExceptionCount`
-Para utilizar la configuración mínima, asegúrate de que dispones de `dd-java-agent` versión`0.70.0` y, a continuación, cambia la invocación de servicios por lo siguiente:
+Para utilizar la configuración mínima, asegúrate de que dispones de `dd-java-agent` versión `0.70.0` y, a continuación, cambia la invocación de servicios por lo siguiente:
-```shell
-java -javaagent:dd-java-agent.jar -Ddd.profiling.enabled=true -Ddd.profiling.jfr-template-override-file=minimal -jar .jar
```
-
-## Modificación de la profundidad máxima del stack tecnológico para trazas (traces) de stack tecnológico recopiladas
-
-Si la profundidad máxima del stack tecnológico por defecto de 512 no es suficiente para tu caso de uso o está causando problemas de rendimiento,
-puedes aumentarla configurando la propiedad del sistema `dd.profiling.stackdepth`.
-
-Por ejemplo, para reducir la profundidad máxima del stack tecnológico a 256, inicia tu servicio con la siguiente configuración de máquina virtual Java:
-
-```shell
-java -javaagent:dd-java-agent.jar -Ddd.profiling.enabled=true -Ddd.profiling.stackdepth=256 -jar .jar
+java -javaagent:dd-java-agent.jar -Ddd.profiling.enabled=true -Ddd.profiling.jfr-template-override-file=minimal -jar .jar
```
-Se utilizará el mismo límite para los datos recopilados por el archivo JFR y el generador de perfiles de Datadog.
-
-**Nota**: Si se proporciona el argumento JVM `-XX:FlightRecorderOptions=stackdepth=, la profundidad máxima del stack tecnológico definida a través de
-la propiedad del sistema `dd.profiling.stackdepth` será ignorada en los datos recopilados por el JFR, por razones técnicas.
-
## Aumento de la especificidad de la información del generador de perfiles
-Si quieres obtener una mayor especificidad en tus datos de generación de perfiles, puedes especificar la configuración `comprehensive`. Ten en cuenta que para ofrecerte una mayor especificidad, esta estrategia aumentará la sobrecarga de tu generador de perfiles. Una configuración completa muestra los siguientes cambios con respecto a la configuración por defecto:
+Si quieres obtener una mayor especificidad en tus datos de generación de perfiles, puedes especificar la configuración `comprehensive`. Ten en cuenta que para ofrecerte una mayor especificidad, esta estrategia aumentará la sobrecarga de tu generador de perfiles. Una configuración completa muestra los siguientes cambios, en comparación con la configuración por defecto:
-- Reduce el umbral de muestreo a 10 ms para eventos `ThreadSleep`, `ThreadPark` y `JavaMonitorWait` en comparación con los 100 ms por defecto
+- Reduce el umbral de muestreo a 10 ms para eventos `ThreadSleep`, `ThreadPark` y `JavaMonitorWait`, en comparación con los 100 ms por defecto
- Habilita eventos `ObjectAllocationInNewTLAB`, `ObjectAllocationOutsideTLAB`, `ExceptionSample`, `ExceptionCount`
-Para utilizar la configuración completa, asegúrate de que dispones de `dd-java-agent` versión`0.70.0` y, a continuación, cambia la invocación de servicios por lo siguiente:
+Para utilizar la configuración completa, asegúrate de que dispones de `dd-trace-java` versión `0.70.0` y, a continuación, cambia la invocación de servicios por lo siguiente:
-```shell
+```
java -javaagent:dd-java-agent.jar -Ddd.profiling.enabled=true -Ddd.profiling.jfr-template-override-file=comprehensive -jar .jar
```
@@ -75,17 +59,21 @@ jdk.ObjectAllocationOutsideTLAB#enabled=true
[Aprende a utilizar las plantillas de anulación.](#creating-and-using-a-jfr-template-override-file).
## Habilitación del generador de perfiles de heap
-La función del generador de perfiles de heap Java está en fase beta.
Esta función requiere al menos Java 11.0.12, 15.0.4, 16.0.2, 17.0.3 o 18 y posteriores.
-Para habilitar el generador de perfiles de heap, inicia tu aplicación con el parámetro de máquina virtual Java `-Ddd.profiling.heap.enabled=true` o la variable de entorno `DD_PROFILING_HEAP_ENABLED=true`.
+Para activar el perfilador de montón, inicia tu aplicación con la configuración de JVM `-Ddd.profiling.heap.enabled=true` o la variable de entorno `DD_PROFILING_HEAP_ENABLED=true`.
-También puedes habilitar los siguientes eventos en tu [archivo de plantillas de anulación](#creating-and-using-a-jfr-template-override-file) de `jfp`:
+Alternativamente, puedes activar los siguientes eventos en tu `jfp` [archivo de plantilla de sustitución](#creating-and-using-a-jfr-template-override-file):
```
jdk.OldObjectSample#enabled=true
```
-[Aprende a utilizar las plantillas de anulación.](#creating-and-using-a-jfr-template-override-file).
+[Aprende a utilizar las plantillas de sustitución](#creating-and-using-a-jfr-template-override-file)
+
+## Activar métricas de histograma de montón
+Esta función requiere al menos Java 17.0.9 o posterior y no funciona con ZGC.
+
+Para activar métricas de histograma de montón, inicia tu aplicación con la configuración de JVM `-Ddd.profiling.heap.histogram.enabled=true` o la variable de entorno `DD_PROFILING_HEAP_HISTOGRAM_ENABLED=true`.
## Eliminación de información confidencial de los perfiles
@@ -109,8 +97,9 @@ jdk.ObjectAllocationOutsideTLAB#enabled=false
[Aprende a utilizar las plantillas de anulación.](#creating-and-using-a-jfr-template-override-file).
## La detección de fugas de memoria ralentiza el recopilador de basura
-
-Para desactivar la detección de fugas de memoria, deshabilita el siguiente evento en tu [archivo de plantillas de anulación](#creating-and-using-a-jfr-template-override-file) de `jfp`:
+{{< tabs >}}
+{{% tab "JFR" %}}
+Para desactivar la detección de fugas de memoria, desactiva el siguiente evento en tu `jfp` [archivo de plantilla de sustitución](#creating-and-using-a-jfr-template-override-file):
```
jdk.OldObjectSample#enabled=false
@@ -118,13 +107,24 @@ jdk.OldObjectSample#enabled=false
[Aprende a utilizar las plantillas de anulación.](#creating-and-using-a-jfr-template-override-file).
+{{% /tab %}}
+{{% tab "Datadog Profiler" %}}
+Si estás utilizando la función alfa de perfiles de montón en vivo, puedes ajustar la sobrecarga cambiando el porcentaje
+de las muestras de asignación rastreadas.
+```shell
+# track only 10% of the allocation samples
+java -javaagent:dd-java-agent.jar -Ddd.profiling.enabled=true -Ddd.profiling.ddprof.liveheap.enabled=true -Ddd.profiling.ddprof.liveheap.sample_percent=10 -jar .jar
+```
+{{% /tab %}}
+{{< /tabs >}}
+
## Excepciones que saturan el generador de perfiles
-En condiciones normales, el generador de perfiles de excepciones de Datadog ocupa poco espacio y tiene poca sobrecarga. Si se crean y lanzan muchas excepciones, se puede causar una sobrecarga significativa para el generador de perfiles. Esto puede ocurrir cuando se utilizan excepciones para el flujo (flow) de control. Si tienes una tasa de excepciones inusualmente alta, desactive temporalmente la generación de perfiles de excepciones hasta que soluciones la causa.
+En condiciones normales, el generador de perfiles de excepciones de Datadog ocupa poco espacio y tiene poca sobrecarga. Si se crean y lanzan muchas excepciones, se puede causar una sobrecarga significativa para el generador de perfiles. Esto puede ocurrir cuando se utilizan excepciones para el flujo (flow) de control. Si tienes una tasa de excepciones inusualmente alta, desactiva temporalmente la generación de perfiles de excepciones hasta que soluciones la causa.
Para deshabilitar la generación de perfiles de excepciones, inicia el rastreador con la configuración de máquina virtual Java `-Ddd.integration.throwables.enabled=false`.
-Recuerda volver a activar este ajuste cuando hayas recuperado una tasa de excepciones más habitual.
+Recuerda volver a activar este ajuste, cuando hayas recuperado una tasa de excepciones más habitual.
## Compatibilidad con Java 8
@@ -139,14 +139,14 @@ Los siguientes proveedores de OpenJDK 8 son compatibles con la generación de pe
| Bell-Soft (Liberica) | u262 |
| Versiones posteriores de todos los proveedores | u272 |
-Si tu proveedor no está en lista, [abre un ticket de asistencia][2], ya que puede haber otros proveedores en desarrollo o disponibles para la compatibilidad beta.
+Si tu proveedor no está en la lista, [abre un ticket de asistencia][2], ya que otros proveedores pueden estar en desarrollo o disponibles en asistencia de Vista previa.
## Creación y uso de un archivo de anulación de plantillas JFR
Las plantillas de anulación te permiten especificar las propiedades de la generación de perfiles que quieres anular. Sin embargo, los parámetros predeterminados están equilibrados para lograr un buen balance entre la sobrecarga y la densidad de datos, presentes en la mayoría de los casos de uso. Para utilizar un archivo de anulación, sigue estos pasos:
-1. Crea un archivo de anulación en un directorio accesible por `dd-java-agent` durante la invocación del servicio:
- ```shell
+1. Crea un archivo de anulación en un directorio accesible por `dd-java-agent`, durante la invocación del servicio:
+ ```
touch dd-profiler-overrides.jfp
```
@@ -160,14 +160,43 @@ Las plantillas de anulación te permiten especificar las propiedades de la gener
3. Cuando ejecutes tu aplicación con `dd-java-agent`, la invocación a tu servicio debe apuntar al archivo de anulación con `-Ddd.profiling.jfr-template-override-file=`, por ejemplo:
- ```shell
+ ```
java -javaagent:/path/to/dd-java-agent.jar -Ddd.profiling.enabled=true -Ddd.logs.injection=true -Ddd.profiling.jfr-template-override-file= -jar path/to/your/app.jar
```
+## Gestión de problemas relacionados con la carpeta tmp
+
+El Continuous Profiler puede encontrar errores relacionados con el uso del directorio del sistema `/tmp`, particularmente en entornos con seguridad estricta o permisos de ejecución limitados (por ejemplo, Docker, Kubernetes, o sistemas habilitados para SELinux). Estos problemas pueden dar lugar a:
+
+- Perfilar los fallos de arranque
+- Imposibilidad de cargar las bibliotecas nativas de `.so`
+- Acumulación de archivos temporales obsoletos tras reinicios o bloqueos de la JVM
+
+A continuación, se indican los pasos básicos para resolver estos problemas:
+
+- Utiliza dd-trace-java versión 1.47.0 o posterior
+ A partir de la versión 1.47.0, Profiler utiliza subdirectorios específicos de PID dentro del directorio temporal configurado. Esto reduce el desorden y los conflictos potenciales de los archivos huérfanos cuando los procesos de JVM salen inesperadamente.
+
+- Especificar un directorio temporal ejecutable personalizado
+ Para garantizar un funcionamiento correcto en todos los entornos, configura explícitamente un directorio temporal ejecutable y con permisos de escritura mediante la siguiente opción de JVM:
+ ```
+ -Ddd.profiling.tempdir=
+ ```
+ Requisitos del directorio:
+ - Debe ser escribible por el proceso de JVM
+ - Debe tener permisos de ejecución en todos los niveles de la ruta
+ - Debe cumplir las políticas de SELinux, si se aplican
+
+ Ejemplo:
+ ```
+ mkdir -p /opt/datadog-profiler-tmp
+ chmod 755 /opt/datadog-profiler-tmp
+ java -Ddd.profiling.tempdir=/opt/datadog-profiler-tmp -javaagent:/path/to/dd-java-agent.jar ...
+ ```
## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
-[1]: /es/tracing/troubleshooting/#tracer-debug-logs
+[1]: /es/tracing/troubleshooting/#debugging-and-logging
[2]: /es/help/
\ No newline at end of file
diff --git a/content/es/profiler/profiler_troubleshooting/nodejs.md b/content/es/profiler/profiler_troubleshooting/nodejs.md
new file mode 100644
index 0000000000000..623072847856d
--- /dev/null
+++ b/content/es/profiler/profiler_troubleshooting/nodejs.md
@@ -0,0 +1,62 @@
+---
+code_lang: nodejs
+code_lang_weight: 10
+further_reading:
+- link: /tracing/troubleshooting
+ tag: Documentación
+ text: Solucionar problemas de APM
+title: Solucionar problemas de Node.js Profiler
+type: multi-code-lang
+---
+
+## Perfiles faltantes en la page (página) de búsqueda de perfiles
+
+Si has configurado el generador de perfiles y no ves perfiles en la page (página) de búsqueda de perfiles, activa el [modo de depuración][1] y [abre un ticket de asistencia][2]. En el ticket de asistencia, incluye los archivos de depuración junto con la siguiente información:
+
+- Tipo y versión del sistema operativo (por ejemplo, Linux Ubuntu 20.04)
+- Tipo de tiempo de ejecución, versión y proveedor (por ejemplo, Node.js 18.19.01)
+
+## Profiler no encuentra el componente nativo
+
+Es posible que el generador de perfiles no encuentre su componente nativo. En esta situación, los logs de tu aplicación o la consola muestran un mensaje de error similar a:
+
+```
+Error: No native build was found for runtime=node abi=109 platform=linuxglibc arch=x64
+```
+
+Si estás utilizando un bundler como esbuild o webpack, que es utilizado por marcos como Next.js, consulta [Bundling con el rastreador de Node.js][3]. El rastreador y el generador de perfiles de Datadog tienen requisitos especiales cuando se utilizan con bundlers.
+
+Las versiones de Node disponibles a través de los gestores de paquete pueden a veces informar incorrectamente de su versión de ABI (Interfaz binaria de aplicación). Por ejemplo, Ubuntu Linux 24.04.01 LTS incluye un paquete de Node 18 que informa incorrectamente de su versión de ABI como 109, en lugar de la versión correcta, 108, para Node 18.
+
+El generador de perfiles incluye binarios precreados para todas las combinaciones admitidas de plataformas, arquitecturas de CPU y versiones de ABI de Node en los archivos `node_modules/@Datadog/pprof/prebuilds/${platform}-${arch}/node-${abi}.node`. Si tu versión de Node informa una versión de ABI incompatible, no habrá un binario precreado disponible, lo que hace que el generador de perfiles no se inicie.
+
+Para resolver este problema, descarga e instala Node desde el [sitio web de Node.js][4] en lugar de utilizar el gestor de paquete de tu sistema operativo o bien
+actualiza tu sistema operativo a una versión más reciente que pueda incluir una versión actualizada de Node.js sin este problema.
+
+## Profiler no puede cargar el componente nativo
+
+Es posible que el generador de perfiles encuentre el componente nativo, pero no lo cargue. Si esto ocurre, verás un mensaje de error como el siguiente:
+```
+Error: Error relocating /app/node_modules/@datadog/pprof/prebuilds/linuxmusl-x64/node-108.node: _ZSt28__throw_bad_array_new_lengthv: symbol not found
+```
+y más abajo el sack trace:
+```
+code: 'ERR_DLOPEN_FAILED'
+```
+
+Este problema suele producirse en sistemas Linux que utilizan una versión incompatible de la biblioteca estándar musl C, como Alpine Linux. Para resolverlo:
+
+1. Asegúrate de que esté utilizando la última versión de la biblioteca de dd-trace.
+2. Si el problema persiste, intenta actualizar musl o tu distribución de Linux.
+
+Si crees que tu versión de musl debería ser compatible, ponte en contacto con [asistencia técnica de Datadog][5].
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/tracing/troubleshooting/tracer_debug_logs/?code-lang=nodejs#enable-debug-mode
+[2]: /es/help/
+[3]: /es/tracing/trace_collection/automatic_instrumentation/dd_libraries/nodejs/#bundling
+[4]: https://nodejs.org/
+[5]: /es/help
\ No newline at end of file
diff --git a/content/es/real_user_monitoring/browser/setup/server/ibm.md b/content/es/real_user_monitoring/browser/setup/server/ibm.md
new file mode 100644
index 0000000000000..cf7e10f59ec8a
--- /dev/null
+++ b/content/es/real_user_monitoring/browser/setup/server/ibm.md
@@ -0,0 +1,126 @@
+---
+beta: true
+code_lang: ibm
+code_lang_weight: 4
+description: Configura IBM HTTP Server para inyectar automáticamente el SDK del navegador
+ RUM en las respuestas HTML utilizando el módulo Datadog.
+further_reading:
+- link: /real_user_monitoring/browser/setup/server/
+ tag: Documentación
+ text: Instrumentación automática de la monitorización de navegadores
+title: Instrumentación de IBM Server
+type: lenguaje de código múltiple
+---
+
+Para probar la vista previa de la Instrumentación automática RUM, sigue las instrucciones de esta página.
+
+## Información general
+
+La Instrumentación automática de RUM funciona inyectando el SDK del navegador RUM en las respuestas HTML que se entregan a través de un servidor web o proxy. Este método aprovecha la [funcionalidad de los módulos httpd de IBM][3] para implementar un filtro de cuerpo de respuesta. El filtro inyecta el SDK del navegador RUM en el cuerpo de la respuesta de aquellas respuestas
+identificadas como HTML. Una vez configurada la instrumentación automática, puedes gestionar las configuraciones desde la interfaz de usuario.
+
+Para conocer las limitaciones importantes y los requisitos de compatibilidad, consulta [Limitaciones][1].
+
+## Requisitos previos
+
+El [Datadog Agent][2] está instalado y configurado.
+
+## Configurar tu aplicación RUM
+
+Para instrumentar automáticamente tu aplicación RUM:
+
+1. En Datadog, ve a **Digital Experience > Manage Applications Page** (Experiencia digital > Página de gestión de aplicaciones), haz clic en [**New Application** (Nueva aplicación)][4] y selecciona el tipo de aplicación JavaScript (JS).
+2. Selecciona **Auto-Instrumentación** (Instrumentación automática) y **IBM httpd** (httpd IBM).
+3. Configura los parámetros de tu aplicación. Consulta el [ejemplo de guía de configuración][5].
+4. Copia y ejecuta el comando de instalación para cargar el módulo httpd Datadog con el inyector de SDK RUM en httpd.
+5. Una vez que el instalador haya instalado correctamente el inyector de SDK, reinicia IBM HTTP Server para empezar a recopilar sesiones RUM.
+6. (Opcional) Para verificar si el módulo inyecta correctamente el SDK del navegador RUM en páginas HTML, comprueba si hay mensajes relevantes en los logs de errores. El módulo genera logs de los pasos importantes durante el proceso de inyección. Asegúrate de que IBM HTTP Server está configurado con al menos el nivel de log `info`.
+
+También puedes instalar y configurar [manualmente](#alternative-installation-method) el módulo.
+
+## Actualización de la aplicación RUM
+
+Puedes ajustar las frecuencias de muestreo de tus sesiones y de Session Replay desde la página Gestión de aplicaciones.
+
+Para actualizar tu solicitud RUM:
+
+1. Ve a tu aplicación RUM desde la lista de [Gestión de aplicaciones][4].
+2. En la página de **Configuración del SDK**, ajusta el control deslizante o introduce un porcentaje específico en el campo de entrada de Session Sampling o Session Replay Sampling.
+3. Copia y pega el fragmento de configuración en tu archivo `/opt/datadog-httpd/datadog.conf`.
+
+## Solucionar problemas
+
+### No se inyecta RUM
+
+Si observas que RUM no se inyecta en las páginas HTML, considera las siguientes causas posibles:
+
+- **No coincide el tipo de contenido**: RUM sólo se inyecta en páginas HTML. Si la cabecera `Content-Type` no indica correctamente `text/html`, se omite la inyección.
+
+### Limitaciones
+
+Consulta otras [limitaciones][1].
+
+## Desinstalar
+
+Para eliminar manualmente RUM de tu servidor web instrumentado automáticamente:
+
+1. Busca el archivo de configuración de IBM HTTP Server (`httpd`) ejecutando `httpd -V`. Dependiendo de la distribución Linux utilizada, este archivo binario podría llamarse `http`, `apachectl`, `apache2` o `apache2ctl`. En los pasos siguientes se utiliza `httpd` como ejemplo. En este caso, la ubicación del archivo podría ser: `/usr/local/apache2/conf/httpd.conf`.
+2. Al final del archivo, elimina la línea: `Include /opt/datadog-httpd/datadog.conf`.
+3. Elimina el directorio `/opt/datadog-httpd/` y todo su contenido.
+4. Reinicia o recarga IBM HTTP Server.
+
+## Método de instalación alternativo
+
+Si necesitas un control más preciso de más parámetros que los que proporciona la instrumentación automática, puedes cargar manualmente el módulo en tu servidor web, en lugar de ejecutar el script de instalación.
+
+Para instrumentar manualmente tu aplicación RUM:
+
+### Descargar el archivo del módulo
+
+1. Descarga el [módulo comprimido][6].
+2. Extrae el zip para obtener el archivo `mod_datadog.so`. Muévelo a una ubicación a la que tenga acceso IBM HTTP Server (a la que se hará referencia como `` en los pasos siguientes).
+
+### Actualizar la configuración de IBM HTTP Server
+
+1. Busca el archivo de configuración. Puedes utilizar `apachectl -V` para encontrar la ruta de configuración por defecto. Añade la siguiente línea para cargar el módulo:
+
+ ```javascript
+ LoadModule datadog_module
+ ```
+
+2. Dentro de la sección **root** o **location** correspondiente, añada lo siguiente:
+
+ ```javascript
+ # APM Tracing is enabled by default. The following line disables APM Tracing
+ DatadogTracing Off
+ DatadogRum On
+
+ DatadogRumOption "applicationId" ""
+ DatadogRumOption "clientToken" ""
+ DatadogRumOption "site" ""
+ DatadogRumOption "service" "my-web-application"
+ DatadogRumOption "env" "production"
+ DatadogRumOption "version" "1.0.0"
+ DatadogRumOption "sessionSampleRate" "100"
+ DatadogRumOption "sessionReplaySampleRate" "100"
+ DatadogRumOption "trackResources" "true"
+ DatadogRumOption "trackLongTasks" "true"
+ DatadogRumOption "trackUserInteractions" "true"
+
+ ```
+
+### Reiniciar el servidor
+
+1. Reinicia IBM HTTP Server para comenzar a recopilar datos de tu aplicación Datadog RUM. Por defecto, el SDK RUM se inyecta en todos los documentos HTML. Puede que necesites borrar la caché de tu navegador.
+2. (Opcional) Para verificar que el módulo está inyectando con éxito el navegador RUM kit de desarrollo de software (SDK) en páginas HTML, compruebe el error httpd logs para los mensajes pertinentes. El módulo logs pasos importantes durante el proceso de inyección. Asegúrese de que IBM HTTP Server está configurado con al menos el nivel `info` log .
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/real_user_monitoring/browser/setup/server/#limitations
+[2]: /es/agent/
+[3]: https://httpd.apache.org/modules/
+[4]: https://app.datadoghq.com/rum/list
+[5]: /es/real_user_monitoring/guide/sampling-browser-plans/
+[6]: https://rum-auto-instrumentation.s3.amazonaws.com/httpd/latest/mod_datadog-amd64.zip
\ No newline at end of file
diff --git a/content/es/real_user_monitoring/browser/setup/server/nginx.md b/content/es/real_user_monitoring/browser/setup/server/nginx.md
new file mode 100644
index 0000000000000..791157c48d33e
--- /dev/null
+++ b/content/es/real_user_monitoring/browser/setup/server/nginx.md
@@ -0,0 +1,213 @@
+---
+beta: true
+code_lang: nginx
+code_lang_weight: 5
+description: Configura el servidor NGINX para inyectar automáticamente el SDK del
+ navegador RUM en las respuestas HTML utilizando el módulo dinámico de Datadog.
+further_reading:
+- link: /real_user_monitoring/browser/setup/server/
+ tag: Documentación
+ text: Instrumentación automática de la monitorización de navegadores
+title: Instrumentación del servidor NGINX
+type: lenguaje de código múltiple
+---
+
+Para probar la vista previa de la Instrumentación automática RUM, sigue las instrucciones de esta página.
+
+## Información general
+
+La Instrumentación automática de RUM funciona inyectando el SDK del navegador RUM en las respuestas HTML que se entregan a través de un servidor web o proxy. Este método aprovecha la [funcionalidad de los módulos dinámicosde IBM][3] para implementar un filtro de cuerpo de respuesta. El filtro inyecta el SDK del navegador RUM en el cuerpo de la respuesta de aquellas respuestas identificadas como HTML. Una vez configurada la instrumentación automática, puedes gestionar las configuraciones desde la interfaz de usuario.
+
+Para conocer las limitaciones importantes y los requisitos de compatibilidad, consulta [Limitaciones][1].
+
+## Requisitos previos
+
+El [Datadog Agent][2] está instalado y configurado.
+
+## Configurar tu aplicación RUM
+
+Para instrumentar automáticamente tu aplicación RUM:
+
+1. En Datadog, ve a **Digital Experience > Manage Applications Page** (Experiencia digital > Página de gestión de aplicaciones), haz clic en [**New Application** (Nueva aplicación)][4] y selecciona el tipo de aplicación JavaScript (JS).
+2. Selecciona **Instrumentación automática** y **NGINX**.
+3. Configura los parámetros de tu aplicación. Consulta el [ejemplo de guía de configuración][5].
+4. Copia y ejecuta el comando de instalación para cargar el módulo NGINX Datadog con el inyector de SDK RUM en NGINX.
+5. Una vez que el instalador haya instalado correctamente el inyector de SDK, reinicia NGINX para comenzar a recopilar sesiones RUM.
+6. (Opcional) Para comprobar que el módulo está inyectando correctamente el SDK del navegador RUM en páginas HTML, consulta los [logs de error de NGINX][43] para ver si hay mensajes importantes. El módulo registra pasos importantes durante el proceso de inyección. Asegúrate de que NGINX está configurado con al menos el nivel de log `INFO` con lo siguiente:
+
+ ```javascript
+ error_log info;
+ ```
+
+También puedes instalar y configurar [manualmente](#alternative-installation-method) el módulo.
+
+## Actualización de la aplicación RUM
+
+Puedes ajustar las frecuencias de muestreo de tus sesiones y de Session Replay desde la página Gestión de aplicaciones.
+
+Para actualizar tu solicitud RUM:
+
+1. Ve a tu aplicación RUM desde la lista de [Gestión de aplicaciones][4].
+2. En la página de **Configuración del SDK**, ajusta el control deslizante o introduce un porcentaje específico en el campo de entrada de Session Sampling o Session Replay Sampling.
+3. Copia y pega el fragmento de configuración en tu archivo `nginx.conf`.
+
+## Solucionar problemas
+
+### NGINX deja de responder
+
+Dado que el módulo se encuentra en vista previa, es posible que NGINX deje de entregar solicitudes, especialmente después de la instalación. Si experimentas este problema, ponte en contacto con el [servicio de asistencia de Datadog][6] con la siguiente información, para ayudarnos a investigar y solucionar el problema:
+
+- Tu archivo de configuración de NGINX
+- Cualquier log de error relevante
+
+### No se inyecta RUM
+
+Si observas que RUM no se inyecta en las páginas HTML, considera las siguientes causas posibles:
+
+- **No coincide el tipo de contenido**: RUM sólo se inyecta en páginas HTML. Si la cabecera `Content-Type` no indica correctamente `text/html`, se omite la inyección.
+
+### Limitaciones
+
+Consulta otras [limitaciones][1].
+
+## Desinstalar
+
+Para eliminar manualmente RUM de tu servidor web instrumentado automáticamente:
+
+1. Busca el archivo de configuración NGINX ejecutando `nginx -T`. Por ejemplo: `/etc/nginx/nginx.conf`.
+2. Al principio del archivo, elimina la línea: `load_module /opt/datadog-nginx/ngx_http_datadog_module.so;`.
+3. En el archivo, elimina todas las secciones `datadog_*` existentes dentro de la directiva `http`. Las secciones tienen un aspecto similar al siguiente, dependiendo de la configuración de su sistema:
+
+ ```
+ datadog_agent_url http://datadog-agent:8126;
+ datadog_tracing off;
+ datadog_rum on;
+ datadog_rum_config {
+ # ... specific RUM configuration
+ }
+ ```
+
+4. Elimina el directorio `/opt/datadog-nginx/` y todo su contenido.
+5. Reinicia o recarga tu servidor web NGINX.
+
+## Método de instalación alternativo
+
+Si necesitas un control más preciso de más parámetros que los que proporciona la instrumentación automática, puedes cargar manualmente el módulo en tu servidor web, en lugar de ejecutar el script de instalación.
+
+Para instrumentar manualmente tu aplicación RUM:
+
+### Descarga el archivo `.tgz` correspondiente
+
+1. Utiliza el archivo `.tgz` correspondiente a tu versión de NGINX. Puedes encontrar todos los archivos `.tgz` relevantes presentados por versión de NGINX en [Referencia](#reference).
+2. Extrae el tarball para extraer el archivo `ngx_http_datadog_module.so`. Desplázalo hacia una localización a la que NGINX tenga acceso (citada como `` en los pasos siguientes).
+
+### Actualizar la configuración de NGINX
+
+1. El archivo `nginx.conf` se encuentra normalmente en el directorio de configuración de NGINX. Añade la siguiente línea para cargar el módulo:
+
+ ```javascript
+ load_module ;
+ ```
+
+2. A continuación, en la sección **http/server/location**, añade lo siguiente:
+
+ ```javascript
+ # APM Tracing is enabled by default. The following line disables APM Tracing.
+ datadog_disable;
+ datadog_rum on;
+ datadog_rum_config "v5" {
+ "applicationId" "";
+ "clientToken" "";
+ "site" "";
+ "service" "my-web-application";
+ "env" "production";
+ "version" "1.0.0";
+ "sessionSampleRate" "100";
+ "sessionReplaySampleRate" "100";
+ "trackResources" "true";
+ "trackLongTasks" "true";
+ "trackUserInteractions" "true";
+ }
+ ```
+
+### Reiniciar el servidor
+
+1. Reinicia el servidor NGINX para comenzar a recopilar datos de tu aplicación RUM Datadog. Por defecto, el SDK RUM se inyecta en todos los documentos HTML. Es posible que necesites borrar la memoria caché de tu navegador.
+2. (Opcional) Para comprobar que el módulo está inyectando correctamente el SDK del navegador RUM en páginas HTML, consulta los logs de error de NGINX para ver si hay mensajes importantes. El módulo registra pasos importantes durante el proceso de inyección. Asegúrate de que NGINX está configurado con al menos el nivel de log `INFO` con lo siguiente:
+
+ ```javascript
+ error_log info;
+ ```
+
+## Referencia
+
+### Módulos NGINX
+
+| Versión de NGINX | amd64 | arm 64 |
+|---------------|-------|--------|
+| 1.24.0 | [ngx_http_datadog-amd64-1.24.0][7] | [ngx_http_datadog-arm64-1.24.0][8] |
+| 1.25.0 | [ngx_http_datadog-amd64-1.25.0][9] | [ngx_http_datadog-arm64-1.25.0][10] |
+| 1.25.1 | [ngx_http_datadog-amd64-1.25.1][11] | [ngx_http_datadog-arm64-1.25.1][12] |
+| 1.25.2 | [ngx_http_datadog-amd64-1.25.2][13] | [ngx_http_datadog-arm64-1.25.2][14] |
+| 1.25.3 | [ngx_http_datadog-amd64-1.25.3][15] | [ngx_http_datadog-arm64-1.25.3][16] |
+| 1.25.4 | [ngx_http_datadog-amd64-1.25.4][17] | [ngx_http_datadog-arm64-1.25.4][18] |
+| 1.25.5 | [ngx_http_datadog-amd64-1.25.5][19] | [ngx_http_datadog-arm64-1.25.5][20] |
+| 1.26.0 | [ngx_http_datadog-amd64-1.26.0][21] | [ngx_http_datadog-arm64-1.26.0][22] |
+| 1.26.1 | [ngx_http_datadog-amd64-1.26.1][23] | [ngx_http_datadog-arm64-1.26.1][24] |
+| 1.26.2 | [ngx_http_datadog-amd64-1.26.2][25] | [ngx_http_datadog-arm64-1.26.2][26] |
+| 1.26.3 | [ngx_http_datadog-amd64-1.26.3][27] | [ngx_http_datadog-arm64-1.26.3][28] |
+| 1.27.0 | [ngx_http_datadog-amd64-1.27.0][29] | [ngx_http_datadog-arm64-1.27.0][30] |
+| 1.27.1 | [ngx_http_datadog-amd64-1.27.1][31] | [ngx_http_datadog-arm64-1.27.1][32] |
+| 1.27.2 | [ngx_http_datadog-amd64-1.27.2][33] | [ngx_http_datadog-arm64-1.27.2][34] |
+| 1.27.3 | [ngx_http_datadog-amd64-1.27.3][35] | [ngx_http_datadog-arm64-1.27.3][36] |
+| 1.27.4 | [ngx_http_datadog-amd64-1.27.4][37] | [ngx_http_datadog-arm64-1.27.4][38] |
+| 1.27.5 | [ngx_http_datadog-amd64-1.27.5][39] | [ngx_http_datadog-arm64-1.27.5][40] |
+| 1.28.0 | [ngx_http_datadog-amd64-1.28.0][41] | [ngx_http_datadog-arm64-1.28.0][42] |
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/real_user_monitoring/browser/setup/server/#limitations
+[2]: /es/agent/
+[3]: https://docs.nginx.com/nginx/admin-guide/dynamic-modules/dynamic-modules/
+[4]: https://app.datadoghq.com/rum/list
+[5]: /es/real_user_monitoring/guide/sampling-browser-plans/
+[6]: /es/help
+[7]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.24.0.so.tgz
+[8]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.24.0.so.tgz
+[9]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.25.0.so.tgz
+[10]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.25.0.so.tgz
+[11]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.25.1.so.tgz
+[12]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.25.1.so.tgz
+[13]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.25.2.so.tgz
+[14]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.25.2.so.tgz
+[15]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.25.3.so.tgz
+[16]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.25.3.so.tgz
+[17]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.25.4.so.tgz
+[18]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.25.4.so.tgz
+[19]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.25.5.so.tgz
+[20]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.25.5.so.tgz
+[21]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.26.0.so.tgz
+[22]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.26.0.so.tgz
+[23]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.26.1.so.tgz
+[24]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.26.1.so.tgz
+[25]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.26.2.so.tgz
+[26]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.26.2.so.tgz
+[27]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.26.3.so.tgz
+[28]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.26.3.so.tgz
+[29]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.27.0.so.tgz
+[30]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.27.0.so.tgz
+[31]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.27.1.so.tgz
+[32]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.27.1.so.tgz
+[33]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.27.2.so.tgz
+[34]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.27.2.so.tgz
+[35]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.27.3.so.tgz
+[36]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.27.3.so.tgz
+[37]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.27.4.so.tgz
+[38]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.27.4.so.tgz
+[39]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.27.5.so.tgz
+[40]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.27.5.so.tgz
+[41]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.28.0.so.tgz
+[42]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.28.0.so.tgz
+[43]: https://nginx.org/en/docs/ngx_core_module.html#error_log
\ No newline at end of file
diff --git a/content/es/real_user_monitoring/mobile_and_tv_monitoring/react_native/setup/expo.md b/content/es/real_user_monitoring/mobile_and_tv_monitoring/react_native/setup/expo.md
new file mode 100644
index 0000000000000..df6c6105298b7
--- /dev/null
+++ b/content/es/real_user_monitoring/mobile_and_tv_monitoring/react_native/setup/expo.md
@@ -0,0 +1,295 @@
+---
+aliases:
+- /es/real_user_monitoring/reactnative/expo/
+- /es/real_user_monitoring/reactnative-expo/
+- /es/real_user_monitoring/mobile_and_tv_monitoring/setup/expo
+code_lang: expo
+code_lang_weight: 2
+description: Monitoriza tus proyectos de React Native utilizando Expo y Expo Go con
+ Datadog.
+further_reading:
+- link: /real_user_monitoring/mobile_and_tv_monitoring/react_native/advanced_configuration
+ tag: Documentación
+ text: Configuración avanzada de RUM React Native
+- link: https://github.com/DataDog/dd-sdk-reactnative
+ tag: Código fuente
+ text: Código fuente de dd-sdk-reactnative
+- link: https://www.datadoghq.com/blog/react-native-monitoring/
+ tag: Blog
+ text: Monitorizar aplicaciones React Native
+- link: real_user_monitoring/explorer/
+ tag: Documentación
+ text: Aprender a explorar tus datos de RUM
+title: Expo Setup
+type: lenguaje de código múltiple
+---
+
+## Información general
+
+En esta page (página), se describe cómo instrumentar tus aplicaciones para [Real User Monitoring (RUM)][1] y para [Error Tracking][2] con el kit de desarrollo de software (SDK) de React Native. Puedes seguir los siguientes steps (UI) / pasos (generic) para instrumentar tus aplicaciones para RUM (incluye Error Tracking) o Error Tracking si lo has adquirido como producto independiente.
+
+El SDK de React Native de RUM es compatible con Expo y Expo Go. Para utilizarlo, instala `expo-datadog` y `@datadog/mobile-react-native`.
+
+`expo-datadog` es compatible con Expo a partir del SDK 45 y las versiones del complemento siguen las versiones de Expo. Por ejemplo, si utilizas Expo SDK 45, utiliza `expo-datadog` versión `45.x.x`. Datadog recomienda utilizar **Expo SDK 45** como versión mínima; las versiones anteriores pueden requerir pasos manuales.
+
+Si tienes algún problema al configurar el kit de desarrollo de software (SDK) de Datadog con una aplicación Expo, puedes consultar nuestra [aplicación de ejemplo][3] como referencia.
+
+## Configuración
+
+Para instalar con NPM, ejecuta:
+
+```sh
+npm install expo-datadog @datadog/mobile-react-native
+```
+
+Para instalar con Yarn, ejecuta:
+
+```sh
+yarn add expo-datadog @datadog/mobile-react-native
+```
+
+### Rastrear la navegación de la vista
+
+Para ver las sesiones de RUM o Error Tracking poblar en Datadog, necesitas implementar el rastreo de vistas, que puede inicializarse manual o automáticamente.
+
+#### Rastreo manual
+
+Puedes iniciar y detener manualmente una vista utilizando los siguientes métodos `startView()` y `stopView()`.
+
+```js
+import {
+ DdRum
+} from 'expo-datadog';
+
+// Start a view with a unique view identifier, a custom view name, and an object to attach additional attributes to the view
+DdRum.startView(
+ '', // has to be unique, for example it can be ViewName-unique-id
+ 'View Name',
+ { 'custom.foo': 'something' },
+ Date.now()
+);
+// Stops a previously started view with the same unique view identifier, and an object to attach additional attributes to the view
+DdRum.stopView('', { 'custom.bar': 42 }, Date.now());
+```
+
+### Rastreo automático
+
+El rastreo automático de vistas es compatible con los siguientes módulos:
+
+- React Navigation: [@Datadog/mobile-react-navigation][10]
+- React Native Navigation: [@Datadog/mobile-react-native-navigation][11]
+
+En este proyecto de ejemplo de Datadog, el rastreo de la vista se consigue a través de `@datadog/mobile-react-navigation` y se configura utilizando el `NavigationContainer`:
+
+```tsx
+ {
+ DdRumReactNavigationTracking.startTrackingViews(
+ navigationRef.current,
+ );
+ }}>
+```
+
+## Utilización
+
+### Inicializar la biblioteca con el contexto de la aplicación
+
+Añade el siguiente fragmento de código a tu archivo de inicialización:
+
+```js
+import { DdSdkReactNative, DdSdkReactNativeConfiguration } from 'expo-datadog';
+
+const config = new DdSdkReactNativeConfiguration(
+ '',
+ '',
+ '',
+ true, // track user interactions such as tapping on a button. You can use the 'accessibilityLabel' element property to give the tap action a name, otherwise the element type is reported.
+ true, // track XHR resources.
+ true // track errors.
+);
+// Optional: Select your Datadog website ("US1", "US3", "US5", "EU1", or "US1_FED"). Default is "US1".
+config.site = 'US1';
+// Optional: Enable or disable native crash reports.
+config.nativeCrashReportEnabled = true;
+// Optional: Sample RUM sessions, for example: 80% of sessions are sent to Datadog. Default is 100%.
+config.sessionSamplingRate = 80;
+// Optional: Sample tracing integrations for network calls between your app and your backend, for example: 80% of calls to your instrumented backend are linked from the RUM view to the APM view. Default is 20%.
+// You need to specify the hosts of your backends to enable tracing with these backends.
+config.resourceTracingSamplingRate = 80;
+config.firstPartyHosts = ['example.com']; // Matches 'example.com' and subdomains like 'api.example.com'.
+// Optional: Let the Datadog SDK print internal logs above or equal to the provided level. Default is undefined, which means no logs.
+config.verbosity = SdkVerbosity.WARN;
+
+await DdSdkReactNative.initialize(config);
+
+// Once the Datadog SDK is initialized, you need to setup view tracking in order to see data in the RUM dashboard.
+```
+
+#### Tarifas de las sesiones de ejemplo
+
+Para controlar los datos que tu aplicación envía a Datadog RUM, puedes especificar una tasa de muestreo para las sesiones de RUM mientras [inicializas el kit de desarrollo de software (SDK) de Expo][4]. Para configurar esta tasa, utiliza el parámetro `config.sessionSamplingRate` y especifica un porcentaje entre 0 y 100.
+
+### Cargar mapas fuente en las compilaciones de EAS
+
+Si no has activado el informe de bloqueos, puedes omitir este paso.
+
+Añade `expo-datadog` a tus complementos en el archivo `app.json`:
+
+```json
+{
+ "expo": {
+ "plugins": ["expo-datadog"]
+ }
+}
+```
+
+Este complemento se encarga de cargar los dSYM, los mapas fuente y los archivos de asignación de Proguard en cada compilación de EAS.
+
+Añade `@datadog/datadog-ci` como dependencia de desarrollo. Este paquete contiene scripts para cargar los mapas fuente. Puedes instalarlo con NPM:
+
+```sh
+npm install @datadog/datadog-ci --save-dev
+```
+
+o con Yarn:
+
+```sh
+yarn add -D @datadog/datadog-ci
+```
+
+Ejecuta `eas secret:create` para configurar `DATADOG_API_KEY` en tu clave de la API de Datadog y `DATADOG_SITE` en el host de tu sitio Datadog (por ejemplo, `datadoghq.com`).
+
+Para obtener información sobre el rastreo de los bloqueos de Expo, consulta [Informe de bloqueos de Expo y Rastreo de errores][5].
+
+## Rastrear pantallas de Expo Router
+
+Si utilizas [Expo Router][6], rastrea tus pantallas en tu archivo `app/_layout.js`:
+
+```javascript
+import { useEffect } from 'react';
+import { usePathname, useSearchParams, useSegments, Slot } from 'expo-router';
+
+export default function Layout() {
+ const pathname = usePathname();
+ const segments = useSegments();
+ const viewKey = segments.join('/');
+
+ useEffect(() => {
+ DdRum.startView(viewKey, pathname);
+ }, [viewKey, pathname]);
+
+ // Export all the children routes in the most basic way.
+ return ;
+}
+```
+
+## Expo Go
+
+Si estás utilizando Expo Go, cambia a las compilaciones de desarrollo (recomendado) o sigue utilizando Expo Go sin Datadog, mientras lo ejecutas en tu aplicación independiente (no recomendado).
+
+### Cambia de Expo Go a las compilaciones de desarrollo
+
+Las [compilaciones de desarrollo][7] de tu aplicación son compilaciones de depuración que contienen el paquete `expo-dev-client`.
+
+1. Activa el [código nativo personalizado para ejecutar][8] con `expo run:android` y `expo run:ios`.
+2. Para empezar a utilizar tu aplicación de desarrollo, ejecuta `expo install expo-dev-client` y `expo start --dev-client`. Se instala y se inicia el [paquete `expo-dev-client`][9] para ejecutar el código nativo añadido en el modo de desarrollador.
+
+### Desarrollar con Expo Go
+
+Cuando tu aplicación se ejecuta dentro de Expo Go, no puedes añadir ningún código nativo personalizado que no forme parte de la aplicación Expo Go. Dado que el kit de desarrollo de software (SDK) de React Native depende de cierto código nativo personalizado para ejecutarse, puedes desarrollar tu aplicación dentro de Expo Go sin Datadog y utilizar Datadog en tus compilaciones independientes.
+
+Tu aplicación se bloquea en Expo Go cuando se llama a algún código nativo (que no está incluido). Para utilizar Datadog con tu aplicación independiente y seguir utilizando Expo Go en el desarrollo, añade el siguiente archivo TypeScript a tu proyecto:
+
+```typescript
+// mockDatadog.ts
+// Datadog does not recommend this approach, consider moving to Expo development builds instead.
+// This file is not officially maintained and might not be up-to-date with new releases.
+
+import { DdLogs, DdTrace, DdRum, DdSdkReactNative } from 'expo-datadog';
+
+if (__DEV__) {
+ const emptyAsyncFunction = () => new Promise(resolve => resolve());
+
+ DdLogs.debug = emptyAsyncFunction;
+ DdLogs.info = emptyAsyncFunction;
+ DdLogs.warn = emptyAsyncFunction;
+ DdLogs.error = emptyAsyncFunction;
+
+ DdTrace.startSpan = () =>
+ new Promise(resolve => resolve('fakeSpanId'));
+ DdTrace.finishSpan = emptyAsyncFunction;
+ DdRum.startView = emptyAsyncFunction;
+ DdRum.stopView = emptyAsyncFunction;
+ DdRum.startAction = emptyAsyncFunction;
+ DdRum.stopAction = emptyAsyncFunction;
+ DdRum.addAction = emptyAsyncFunction;
+ DdRum.startResource = emptyAsyncFunction;
+ DdRum.stopResource = emptyAsyncFunction;
+ DdRum.addError = emptyAsyncFunction;
+ DdRum.addTiming = emptyAsyncFunction;
+
+ DdSdkReactNative.initialize = emptyAsyncFunction;
+ DdSdkReactNative.setUser = emptyAsyncFunction;
+ DdSdkReactNative.setAttributes = emptyAsyncFunction;
+ DdSdkReactNative.setTrackingConsent = emptyAsyncFunction;
+}
+```
+
+A continuación, impórtalo antes de inicializar el SDK de React Native de Datadog:
+
+```typescript
+import './mockDatadog';
+import { DdSdkReactNative } from 'expo-datadog';
+
+const config = new DdSdkReactNativeConfiguration(/* your config */);
+DdSdkReactNative.initialize(config);
+```
+
+## Envío de datos cuando el dispositivo está desconectado
+
+RUM garantiza la disponibilidad de los datos cuando el dispositivo del usuario está desconectado. En caso de zonas con baja red, o cuando la batería del dispositivo está demasiado baja, todos los eventos se almacenan primero en el dispositivo local por lotes.
+
+Cada lote sigue la especificación de entrada. Se envían tan pronto como la red está disponible y la batería está lo suficientemente cargada como para garantizar que el SDK de Datadog no afecte la experiencia del usuario final. Si la red no está disponible mientras tu aplicación está en primer plano o si falla una carga de datos, el lote se conserva hasta que se lo pueda enviar con éxito.
+
+Esto significa que incluso si los usuarios abren tu aplicación mientras están desconectados, no se pierde ningún dato. Para garantizar que el SDK no utilice demasiado espacio de disco, los datos del disco se descartan automáticamente si son demasiado antiguos.
+
+## Solucionar problemas
+
+### La aplicación produce muchos recursos de /logs
+
+Cuando el rastreo de recursos está activado y la verbosidad del kit de desarrollo de software (SDK) está configurada en `DEBUG`, cada recurso activa una llamada de `/logs` al servidor de desarrollo de Expo para imprimir el log, que a su vez crea un nuevo recurso de RUM y crea así un bucle infinito.
+Los patrones más comunes de la URL del host del servidor de desarrollo de Expo se filtran con el SDK, por lo tanto, es posible que no te encuentres con este error en la mayoría de las situaciones.
+Si se produce este error, añade el siguiente asignador de recursos para filtrar las llamadas:
+
+```js
+import { DdSdkReactNativeConfiguration } from 'expo-datadog';
+import Constants from 'expo-constants';
+
+const config = new DdSdkReactNativeConfiguration(/* your config */);
+config.resourceEventMapper = event => {
+ if (
+ event.resourceContext?.responseURL ===
+ `http://${Constants.expoConfig.hostUri}/logs`
+ ) {
+ return null;
+ }
+ return event;
+};
+```
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/real_user_monitoring/
+[2]: /es/error_tracking/
+[3]: https://github.com/DataDog/dd-sdk-reactnative-examples/tree/main/rum-expo-react-navigation
+[4]: /es/real_user_monitoring/mobile_and_tv_monitoring/setup/expo#initialize-the-library-with-application-context
+[5]: /es/real_user_monitoring/error_tracking/mobile/expo/
+[6]: https://expo.github.io/router/docs/
+[7]: https://docs.expo.dev/development/introduction/
+[8]: https://docs.expo.dev/workflow/customizing/#releasing-apps-with-custom-native-code-to
+[9]: https://docs.expo.dev/development/getting-started/
+[10]: https://www.npmjs.com/package/@datadog/mobile-react-navigation
+[11]: https://www.npmjs.com/package/@datadog/mobile-react-native-navigation
\ No newline at end of file
diff --git a/content/es/security/access_control.md b/content/es/security/access_control.md
new file mode 100644
index 0000000000000..8b2fe555fe308
--- /dev/null
+++ b/content/es/security/access_control.md
@@ -0,0 +1,42 @@
+---
+disable_toc: false
+further_reading:
+- link: logs/processing/pipelines
+ tag: Documentación
+ text: Pipelines de procesamiento de logs
+products:
+- icon: siem
+ name: Cloud SIEM
+ url: /security/cloud_siem/
+- icon: cloud-security-management
+ name: Workload Protection
+ url: /security/workload_protection/
+- icon: app-sec
+ name: Protección de aplicaciones y API
+ url: /security/application_security/
+title: Control de acceso
+---
+
+{{< product-availability >}}
+
+## Información general
+
+El sistema de gestión de acceso de Datadog utiliza un control de acceso basado en roles que te permite definir el nivel de acceso de los usuarios a los recursos de Datadog. Se asignan roles a los usuarios, que definen los permisos de sus cuentas, incluidos los datos que pueden leer y los activos de cuenta que pueden modificar. Cuando se conceden permisos a un rol, cualquier usuario asociado a ese rol recibe esos permisos. Consulta la documentación [Control de acceso de gestión de cuentas][1] para obtener más información.
+
+Para los productos de Datadog Security, el [control de acceso granular][3] está disponible para [reglas de detección](#restrict-access-to-detection-rules) y [supresiones](#restrict-access-to-suppression-rules), que te permite restringir el acceso por equipos, roles o cuentas de servicio.
+
+## Permisos
+
+Consulta la [lista de permisos][2] para los productos de Security.
+
+## Restringir el acceso a las reglas de detección
+
+{{% security-products/detection-rules-granular-access %}}
+
+## Restringir el acceso a las reglas de supresión
+
+{{% security-products/suppressions-granular-access %}}
+
+[1]: /es/account_management/rbac/#role-based-access-control
+[2]: /es/account_management/rbac/permissions/#cloud-security-platform
+[3]: /es/account_management/rbac/granular_access/
\ No newline at end of file
diff --git a/content/es/security/application_security/setup/php.md b/content/es/security/application_security/setup/php.md
new file mode 100644
index 0000000000000..c5e7b7127eb47
--- /dev/null
+++ b/content/es/security/application_security/setup/php.md
@@ -0,0 +1,115 @@
+---
+aliases:
+- /es/security_platform/application_security/getting_started/php
+- /es/security/application_security/getting_started/php
+- /es/security/application_security/enabling/tracing_libraries/threat_detection/php/
+- /es/security/application_security/threats/setup/threat_detection/php
+- /es/security/application_security/threats_detection/php
+- /es/security/application_security/setup/aws/fargate/php
+code_lang: php
+code_lang_weight: 40
+further_reading:
+- link: /security/application_security/add-user-info/
+ tag: Documentación
+ text: Añadir información del usuario a trazas
+- link: https://github.com/DataDog/dd-trace-php
+ tag: Código fuente
+ text: Código fuente de la biblioteca de rastreo PHP de Datadog
+- link: /security/default_rules/?category=cat-application-security
+ tag: Documentación
+ text: Reglas predefinidas de App and API Protection
+- link: /security/application_security/troubleshooting
+ tag: Documentación
+ text: Solución de problemas de App and API Protection
+title: Habilitar AAP para PHP
+type: multi-code-lang
+---
+
+Puedes monitorizar aplicaciones App and API Protection para PHP que se ejecutan en entornos basados en host o en contenedores, como Docker, Kubernetes, AWS ECS y AWS EKS.
+
+{{% appsec-getstarted %}}
+
+## Habilitación de la detección de amenazas
+### Para empezar
+
+1. **Instala la última versión de la biblioteca PHP de Datadog** descargando y ejecutando el instalador:
+ ```shell
+ wget https://github.com/DataDog/dd-trace-php/releases/latest/download/datadog-setup.php -O datadog-setup.php
+ php datadog-setup.php --php-bin all --enable-appsec
+ ```
+ Para comprobar si el lenguaje y las versiones del marco de tu servicio son compatibles con las funciones de AAP, consulta [Compatibilidad][1].
+
+2. **Habilita la biblioteca en tu código** reiniciando PHP-FPM o Apache. En un entorno contenedorizado, si previamente instalaste la biblioteca sin habilitar AAP, opcionalmente podrás habilitarla más tarde configurando la siguiente variable de entorno:
+ {{< tabs >}}
+{{% tab "CLI Docker" %}}
+
+Actualiza tu contenedor de configuración para APM añadiendo el siguiente argumento en tu comando `docker run`:
+
+```shell
+docker run [...] -e DD_APPSEC_ENABLED=true [...]
+```
+
+{{% /tab %}}
+{{% tab "Dockerfile" %}}
+
+Añade el siguiente valor de variable de entorno a tu contenedor Dockerfile:
+
+```Dockerfile
+ENV DD_APPSEC_ENABLED=true
+```
+
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+
+Actualiza el contenedor del archivo yaml de configuración para APM y añade la variable de entorno AppSec:
+
+```yaml
+spec:
+ template:
+ spec:
+ containers:
+ - name:
+ image: /
+ env:
+ - name: DD_APPSEC_ENABLED
+ value: "true"
+```
+
+{{% /tab %}}
+{{% tab "AWS ECS" %}}
+
+Actualiza tu archivo JSON de definición de tarea de ECS añadiendo esto en la sección de entorno:
+
+```json
+"environment": [
+ ...,
+ {
+ "name": "DD_APPSEC_ENABLED",
+ "value": "true"
+ }
+]
+```
+
+{{% /tab %}}
+
+{{< /tabs >}}
+
+{{% appsec-getstarted-2-canary %}}
+
+{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Vídeo que muestra el explorador de señales y detalles y el explorador de vulnerabilidades y detalles." video="true" >}}
+
+## Uso de AAP sin el rastreo APM
+
+Si quieres utilizar Application & API Protection sin la funcionalidad de rastreo APM, puedes desplegarla con el rastreo desactivado:
+
+1. Configura tu biblioteca de rastreo con la variable de entorno `DD_APM_TRACING_ENABLED=false`, además de la variable de entorno `DD_APPSEC_ENABLED=true`.
+2. Esta configuración reduce la cantidad de datos de APM enviados a Datadog al mínimo requerido por los productos App and API Protection.
+
+Para obtener más información, consulta [App and API Protection individual][standalone_billing_guide].
+[guía_de_facturación_individual]: /security/application_security/guide/standalone_application_security/
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/security/application_security/setup/compatibility/php/
\ No newline at end of file
diff --git a/content/es/security/application_security/setup/ruby.md b/content/es/security/application_security/setup/ruby.md
new file mode 100644
index 0000000000000..43ff0e4039223
--- /dev/null
+++ b/content/es/security/application_security/setup/ruby.md
@@ -0,0 +1,238 @@
+---
+aliases:
+- /es/security_platform/application_security/getting_started/ruby
+- /es/security/application_security/getting_started/ruby
+- /es/security/application_security/enabling/tracing_libraries/threat_detection/ruby/
+- /es/security/application_security/threats/setup/threat_detection/ruby
+- /es/security/application_security/threats_detection/ruby
+- /es/security/application_security/setup/aws/fargate/ruby
+code_lang: ruby
+code_lang_weight: 30
+further_reading:
+- link: /security/application_security/add-user-info/
+ tag: Documentación
+ text: Añadir información del usuario a trazas
+- link: https://github.com/DataDog/dd-trace-rb
+ tag: Código fuente
+ text: Código fuente de la biblioteca Ruby de Datadog
+- link: /security/default_rules/?category=cat-application-security
+ tag: Documentación
+ text: Reglas predefinidas de App and API Protection
+- link: /security/application_security/troubleshooting
+ tag: Documentación
+ text: Solución de problemas de App and API Protection
+title: Habilitar AAP para Ruby
+type: multi-code-lang
+---
+
+Puedes monitorizar aplicaciones App and API Protection para Ruby que se ejecutan en Docker, Kubernetes, Amazon ECS y AWS Fargate.
+
+{{% appsec-getstarted %}}
+
+## Habilitación de la detección de amenazas
+
+### Para empezar
+
+1. **Actualiza tu Gemfile para incluir la biblioteca de Datadog**:
+
+ ```ruby
+ gem 'datadog', '~> 2.0' # Use 'ddtrace' if you're using v1.x
+ ```
+
+ Para comprobar si el lenguaje y las versiones del marco de tu servicio son compatibles con las funciones de AAP, consulta [Compatibilidad][1].
+
+ Para obtener más información sobre la actualización a la v2 desde una versión `dd-trace` 1.x, consulta [la guía de actualización del rastreador Ruby][2].
+
+2. **Habilita AAP** activando el rastreador APM. Las siguientes opciones describen una configuración rápida que cubre los casos más frecuentes. Consulta la [documentación del rastreador Ruby][3] para obtener más detalles.
+
+ Puedes activar AAP en tu código:
+
+ {{< tabs >}}
+
+{{% tab "Rails" %}}
+ Habilita el rastreador APM añadiendo un inicializador en el código de la aplicación:
+
+ ```ruby
+ # config/initializers/datadog.rb
+
+ require 'datadog/appsec'
+
+ Datadog.configure do |c|
+ # enable the APM tracer
+ c.tracing.instrument :rails
+
+ # enable AAP
+ c.appsec.enabled = true
+ c.appsec.instrument :rails
+ end
+ ```
+
+ O habilita el rastreador APM a través de la instrumentación automática actualizando tu Gemfile para instrumentar automáticamente:
+
+ ```ruby
+ gem 'datadog', '~> 2.0', require: 'datadog/auto_instrument'
+ ```
+
+ Y también habilita `appsec`:
+
+ ```ruby
+ # config/initializers/datadog.rb
+
+ require 'datadog/appsec'
+
+ Datadog.configure do |c|
+ # the APM tracer is enabled by auto-instrumentation
+
+ # enable AAP
+ c.appsec.enabled = true
+ c.appsec.instrument :rails
+ end
+ ```
+
+{{% /tab %}}
+
+{{% tab "Sinatra" %}}
+ Habilita el rastreador APM añadiendo lo siguiente al inicio de la aplicación:
+
+ ```ruby
+ require 'sinatra'
+ require 'datadog'
+ require 'datadog/appsec'
+
+ Datadog.configure do |c|
+ # enable the APM tracer
+ c.tracing.instrument :sinatra
+
+ # enable AAP for Sinatra
+ c.appsec.enabled = true
+ c.appsec.instrument :sinatra
+ end
+ ```
+
+ O habilita el rastreador APM a través de la instrumentación automática:
+
+ ```ruby
+ require 'sinatra'
+ require 'datadog/auto_instrument'
+
+ Datadog.configure do |c|
+ # the APM tracer is enabled by auto-instrumentation
+
+ # enable AAP for Sinatra
+ c.appsec.enabled = true
+ c.appsec.instrument :sinatra
+ end
+ ```
+
+{{% /tab %}}
+
+{{% tab "Rack" %}}
+ Habilita el rastreador APM añadiendo lo siguiente al archivo `config.ru`:
+
+ ```ruby
+ require 'datadog'
+ require 'datadog/appsec'
+
+ Datadog.configure do |c|
+ # enable the APM tracer
+ c.tracing.instrument :rack
+
+ # enable AAP for Rack
+ c.appsec.enabled = true
+ c.appsec.instrument :rack
+ end
+
+ use Datadog::Tracing::Contrib::Rack::TraceMiddleware
+ use Datadog::AppSec::Contrib::Rack::RequestMiddleware
+ ```
+
+{{% /tab %}}
+
+{{< /tabs >}}
+
+ O uno de los siguientes métodos, dependiendo de dónde se ejecute la aplicación:
+
+ {{< tabs >}}
+{{% tab "Docker CLI" %}}
+
+Actualiza tu contenedor de configuración para APM añadiendo el siguiente argumento en tu comando `docker run`:
+
+```shell
+docker run [...] -e DD_APPSEC_ENABLED=true [...]
+```
+
+{{% /tab %}}
+{{% tab "Dockerfile" %}}
+
+Añade el siguiente valor de variable de entorno a tu contenedor Dockerfile:
+
+```Dockerfile
+ENV DD_APPSEC_ENABLED=true
+```
+
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+
+Actualiza el contenedor del archivo yaml de configuración para APM y añade la variable de entorno AppSec:
+
+```yaml
+spec:
+ template:
+ spec:
+ containers:
+ - name:
+ image: /
+ env:
+ - name: DD_APPSEC_ENABLED
+ value: "true"
+```
+
+{{% /tab %}}
+{{% tab "Amazon ECS" %}}
+
+Actualiza tu archivo JSON de definición de tarea de ECS añadiendo esto en la sección de entorno:
+
+```json
+"environment": [
+ ...,
+ {
+ "name": "DD_APPSEC_ENABLED",
+ "value": "true"
+ }
+]
+```
+
+{{% /tab %}}
+{{% tab "AWS Fargate" %}}
+
+Inicializa AAP en tu código o configura la variable de entorno `DD_APPSEC_ENABLED` como true en la invocación de tu servicio:
+
+```shell
+env DD_APPSEC_ENABLED=true rails server
+```
+
+{{% /tab %}}
+
+{{< /tabs >}}
+
+{{% appsec-getstarted-2-canary %}}
+
+{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Vídeo que muestra el explorador de señales y detalles y el explorador de vulnerabilidades y detalles." video="true" >}}
+
+## Uso de AAP sin el rastreo APM
+
+Si quieres utilizar Application & API Protection sin la funcionalidad de rastreo APM, puedes desplegarla con el rastreo desactivado:
+
+1. Configura tu biblioteca de rastreo con la variable de entorno `DD_APM_TRACING_ENABLED=false`, además de la variable de entorno `DD_APPSEC_ENABLED=true`.
+2. Esta configuración reduce la cantidad de datos de APM enviados a Datadog al mínimo requerido por los productos App and API Protection.
+
+Para obtener más información, consulta [App and API Protection individual][standalone_billing_guide].
+[guía_de_facturación_individual]: /security/application_security/guide/standalone_application_security/
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/security/application_security/setup/compatibility/ruby/
+[2]: https://github.com/DataDog/dd-trace-rb/blob/master/docs/UpgradeGuide2.md
+[3]: /es/tracing/trace_collection/dd_libraries/ruby/
\ No newline at end of file
diff --git a/content/es/security/application_security/threats/protection.md b/content/es/security/application_security/threats/protection.md
new file mode 100644
index 0000000000000..83bcffc0b40d2
--- /dev/null
+++ b/content/es/security/application_security/threats/protection.md
@@ -0,0 +1,126 @@
+---
+further_reading:
+- link: /security/application_security/
+ tag: Documentación
+ text: App and API Protection con Datadog
+is_beta: true
+title: Protección
+---
+
+## Información general
+
+Si tu servicio está ejecutando [un Agent con la configuración remota habilitada y una versión de biblioteca de rastreo compatible][2], puedes bloquear ataques y atacantes desde la interfaz de usuario de Datadog sin una configuración adicional del Agent o bibliotecas de rastreo.
+
+App and API Protection (AAP) te permite frenar los ataques y a los atacantes _bloqueándolos_. Las trazas (trace) de seguridad son bloqueadas en tiempo real por las bibliotecas de rastreo de Datadog. Los bloqueos se guardan en la plataforma Datadog, se recuperan de forma automática y segura en el Agent, se despliegan en tu infraestructura y se aplican a tus servicios.
+
+## Requisitos previos
+
+Para utilizar las funciones de protección con tu servicio:
+
+- [Actualiza tu Datadog Agent][3] al menos a la versión 7.41.1.
+- [Activa AAP][1].
+- [Activa la configuración remota][2].
+- Actualiza tu biblioteca de rastreo al menos a la versión mínima necesaria para activar la protección. Para obtener más información, consulta la sección de compatibilidad con las fiuncionalidades de AAP en [Compatibilidad][12] para el lenguaje de tu servicio.
+- Si tienes previsto utilizar el bloqueo de usuarios autenticados, [añade información de usuario a trazas][4].
+
+## Bloqueo de atacantes (IPs y usuarios autenticados)
+
+Puedes bloquear a los atacantes indicados en [Security Signals][5] de AAP de forma temporal o permanente. En Signals Explorer, haz clic en una señal para ver qué usuarios y direcciones IP están generando la señal y, opcionalmente, bloquearlos.
+
+A partir de allí, todos los servicios protegidos por AAP bloquean las solicitudes entrantes realizadas por la IP o el usuario bloqueados, durante el tiempo especificado. Todas las trazas bloqueadas se etiquetan con `security_response.block_ip` o `security_response.block_user` y se muestran en el [Trace Explorer][6]. Los servicios en los que AAP está desactivado no están protegidos. Consulta [Investigar Security Signals][20] para obtener más información.
+
+## Responder a las amenazas en tiempo real automatizando el bloqueo de atacantes
+
+Además de bloquear manualmente a los atacantes, puedes configurar reglas de automatización para que AAP bloquee automáticamente a los atacantes indicados en Security Signals.
+
+Para empezar, ve a **Security > App and API Protection > Protection > [Detection Rules] (Seguridad > App and API Protection > Protección > Reglas de detección)[14]**. Puedes crear una nueva regla o editar una existente con el tipo _App and API Protection_. Por ejemplo, puedes crear una regla para activar señales de gravedad `Critical`, cuando se detectan ataques de Relleno de Credenciales, y bloquear automáticamente las direcciones IP de los atacantes asociados durante 30 minutos.
+
+**Nota**: Debes instrumentar tus servicios para poder bloquear atacantes autenticados. Consulta [Monitorización y protección de usuarios][15] para obtener más detalles.
+
+## Bloquear atacantes en el perímetro: integrar AAP con tus despliegues WAF existentes
+
+Datadog AAP permite a los clientes bloquear a los atacantes en el perímetro, directamente desde la señal de seguridad. AAP se integra con [Workflows][17] para enviar las direcciones IP de los atacantes a Web Application Firewalls perimetrales (AWS WAF, Cloudflare, Fastly) y garantizar que las solicitudes de estos atacantes se bloqueen en el perímetro, incluso antes de que lleguen al entorno del cliente.
+Crea flujos de trabajo a partir de los [planos][18] disponibles y ejecútalos directamente desde el panel lateral de señales de AAP.
+
+## Lista de denegados
+
+Las direcciones IP de los atacantes y los usuarios autenticados que se bloquean de forma permanente o temporal se añaden a la _Lista de denegados_. Gestiona la lista en la [página Lista de denegados][7]. Una lista de denegados admite el bloqueo de IPs individuales, así como de un rango de IPs (bloques CIDR).
+
+## Lista de aprobados
+
+Puedes utilizar la _Lista de aprobados_ para permitir permanentemente el acceso de direcciones IP específicas a tu aplicación. Por ejemplo, puede que desees añadir direcciones IP internas a tu lista de aprobados, o direcciones IP que ejecutan regularmente auditorías de seguridad en tu aplicación. También puedes añadir rutas específicas para garantizar un acceso ininterrumpido. Gestiona la lista desde la [página Lista de aprobados][8].
+
+## Bloqueo de intentos de ataque con WAF en la aplicación
+
+WAF en la aplicación (cortafuegos de aplicaciones web) de AAP combina las técnicas de detección de los WAF basados en perímetro con el contexto enriquecido que proporciona Datadog, lo que ayuda a tus equipos a proteger sus sistemas con confianza.
+
+Dado que AAP conoce las rutas de una aplicación, la protección puede aplicarse de forma granular a servicios específicos y no necesariamente a todas las aplicaciones y al tráfico. Esta eficacia contextual reduce el esfuerzo de inspección y la tasa de falsos positivos en comparación con un WAF perimetral. No hay periodo de aprendizaje, ya que la mayoría de los marcos web proporcionan un mapa estructurado de rutas. AAP puede ayudar a tu equipo a desplegar protecciones contra vulnerabilidades de día cero automáticamente, poco después de que se divulgue la vulnerabilidad, al tiempo que se dirige a las aplicaciones vulnerables, limitando el riesgo de falsos positivos.
+
+### Cómo WAF en la aplicación bloquea las de trazas seguridad
+
+Además de los modos `monitoring` y `disabled` ofrecidos para cada una de las más de 130 reglas WAF en la aplicación, las reglas también tienen el modo `blocking`. Cada regla especifica condiciones sobre la solicitud entrante para definir lo que la biblioteca considera sospechoso. Cuando un patrón de regla determinado coincide con una solicitud HTTP en curso, la solicitud es bloqueada por la biblioteca.
+
+Las políticas gestionadas definen el modo en que cada una de las reglas de WAF en la aplicación se comporta en las coincidencias: `monitoring`, `blocking`, o `disabled`. Dado que dispone del contexto completo de tus aplicaciones, AAP sabe qué reglas aplicar para proteger tus aplicaciones mientras limita el número de falsos positivos.
+
+Para un control más preciso, puedes clonar una política gestionada por Datadog o crear una política personalizada y establecer el modo que mejor se adapte a tus necesidades. Si estableces la política en `auto-updating`, tus aplicaciones estarán protegidas por las últimas detecciones desplegadas por Datadog. También tienes la opción de fijar una política a una versión específica del conjunto de reglas.
+
+A medida que las reglas de WAF en la aplicación cambian de modo, los cambios se reflejan casi en tiempo real para servicios con la [configuración remota activada][2]. Para otros servicios, puedes actualizar la política en la [página de WAF en la aplicación][9] y luego [definir reglas de WAF en la aplicación][10] para que se aplique el cambio de comportamiento.
+
+Gestiona WAF en la aplicación yendo a Security --> App and API Protection --> Configuration --> [In-App WAF] (Seguridad --> App and API Protection --> Configuración --> WAF en la aplicación)[9].
+
+Ve las trazas de seguridad bloqueadas en el [Trace Explorer][11] filtrando por la faceta `Blocked:true`.
+
+{{< img src="security/application_security/app_sec_blocked.png" alt="AAP Trace Explorer filtrado utilizando la faceta Blocked (Bloqueado) configurada como true (verdadero)." style="width:100%;" >}}
+
+### Configurar WAF en la aplicación
+
+1. [**Habilita la configuración remota**][2] para que tus servicios habilitados por AAP aparezcan en WAF en la aplicación. Esto es necesario para enviar de forma segura la configuración de WAF en la aplicación desde tu backend Datadog a la biblioteca de rastreo de tu infraestructura.
+
+2. **Asocia tus servicios habilitados por la configuración remota de AAP con una política**. Una vez activada la configuración remota en un servicio, ve a **Security --> App and API Protection --> [In-App WAF] (Seguridad --> App and API Protection --> Protección --> WAF en la aplicación)[9]**. El servicio aparece en la política _Solo monitorización Datadog_ de forma predeterminada. La política Solo monitorización Datadog es una política gestionada de solo lectura, lo que significa que no puedes modificar el estado (monitorización, bloqueo o desactivación) de reglas individuales.
+
+ Si necesitas un control detallado, clona una de las políticas disponibles para crear una política personalizada en la que se puedan modificar los estados de las reglas. Asocia uno o varios de tus servicios a esta política personalizada.
+
+ Para cambiar la política aplicada por defecto a tus servicios, puedes actualizar tu política predeterminada. Desde WAF en la aplicación, haz clic en la política que desees establecer como predeterminada y, a continuación, haz clic en **Actions** > **Set this policy as default** (Acciones > Establecer esta política como predeterminada).
+
+## Personalizar el comportamiento de la protección
+
+### Personalizar la respuesta a las solicitudes bloqueadas
+
+{{% asm-protection-page-configuration %}}
+
+{{< img src="/security/application_security/asm-blocking-page-html.png" alt="Página que se muestra como AAP bloquea solicitudes originadas en IP bloqueadas" width="75%" >}}
+
+El código de estado de respuesta HTTP predeterminado al mostrar la página de denegación a los atacantes es `403 FORBIDDEN`. Para personalizar la respuesta, ve a **Security > App and API Protection > Protection > In-App Waf > [Custom Responses] (Seguridad > App and API Protection > Protección > WAF en la aplicación > Respuestas personalizadas)[16]**.
+
+Opcionalmente, puedes enmascarar si el atacante ha sido detectado y bloqueado anulando el código de respuesta para que sea `200 OK` o `404 NOT FOUND` en la página de denegación.
+
+También puedes redirigir opcionalmente a los atacantes a una página de denegación personalizada y alejarlos de tus servicios e infraestructura críticos. Especifica una URL de redirección y el tipo de redirección, por ejemplo, permanente (código de respuesta `301`) o temporal (código de respuesta `302`).
+
+### Desactivar la protección en todos los servicios (Desactivar el modo de protección)
+
+El modo de protección está **activado** por defecto y es un conmutador disponible para desactivar rápidamente el bloqueo en **todos** tus servicios. Se pueden bloquear solicitudes de dos secciones en Datadog: todas las solicitudes de atacantes desde Security Signals y las trazas de seguridad desde WAF en la aplicación.
+
+Por muy importante que sea poder aplicar la protección de forma granular y reducir la probabilidad de que los usuarios legítimos sean bloqueados, a veces necesitas un simple interruptor de apagado para desactivar rápidamente **todos** los bloqueos en **todos** los servicios. Para desactivar la protección, ve a **Security > App and API Protection > Protection > [In-App WAF] (Seguridad > App and API Protection > Protección > WAF en la aplicación)[9]** y desactiva **Allow Request Blocking** (Permitir bloqueo de solicitudes).
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/security/application_security/setup/
+[2]: /es/agent/remote_config/#enabling-remote-configuration
+[3]: /es/agent/versions/upgrade_between_agent_minor_versions
+[4]: /es/security/application_security/how-it-works/add-user-info/#adding-authenticated-user-information-to-traces-and-enabling-user-blocking-capability
+[5]: https://app.datadoghq.com/security?query=%40workflow.rule.type%3A%22Application%20Security%22&column=time&order=desc&product=appsec&view=signal
+[6]: https://app.datadoghq.com/security/appsec/traces?query=%40appsec.blocked%3Atrue
+[7]: https://app.datadoghq.com/security/appsec/denylist
+[8]: https://app.datadoghq.com/security/appsec/passlist
+[9]: https://app.datadoghq.com/security/appsec/in-app-waf
+[10]: /es/security/application_security/threats/inapp_waf_rules/
+[11]: https://app.datadoghq.com/security/appsec/traces
+[12]: /es/security/application_security/setup/compatibility/
+[14]: https://app.datadoghq.com/security/appsec/detection-rules
+[15]: /es/security/application_security/how-it-works/add-user-info/?tab=set_user#adding-authenticated-user-information-to-traces-and-enabling-user-blocking-capability
+[16]: https://app.datadoghq.com/security/appsec/in-app-waf?config_by=custom-responses
+[17]: https://docs.datadoghq.com/es/service_management/workflows/
+[18]: https://app.datadoghq.com/workflow/blueprints?selected_category=SECURITY
+[20]: /es/security/application_security/threats/security_signals/
\ No newline at end of file
diff --git a/content/es/security/application_security/threats/setup/compatibility/envoy.md b/content/es/security/application_security/threats/setup/compatibility/envoy.md
new file mode 100644
index 0000000000000..c19a39c83c50f
--- /dev/null
+++ b/content/es/security/application_security/threats/setup/compatibility/envoy.md
@@ -0,0 +1,31 @@
+---
+code_lang: envoy
+code_lang_weight: 40
+title: Requisitos de compatibilidad de Envoy
+type: lenguaje de código múltiple
+---
+
+La siguiente tabla enumera la compatibilidad con funciones de App and API Protection en la integración Envoy, según la versión de rastreador especificada:
+
+| Función de App and API Protection | Versión mínima de imagen Envoy |
+|----------------------------------------|------------------------------|
+| Detección de amenazas | 1.71.0 |
+| Protección frente a amenazas | 1.71.0 |
+| Personalizar la respuesta a las solicitudes bloqueadas | 1.71.0 |
+| Análisis de la composición del software (SCA) | No aplicable |
+| Seguridad del código | No aplicable |
+| Rastreo automático de los eventos de actividad de los usuarios | No compatible |
+| Seguridad de la API | No compatible |
+
+Consulta las [limitaciones][1] de la integración Envoy versión 1.71.0.
+
+## Soporte de Envoy
+
+La integración Envoy está en vista previa.
+
+Solo se admiten la versión Linux y las arquitecturas arm64 y arm64.
+
+
+
+[1]: /es/security/application_security/setup/threat_detection/envoy
\ No newline at end of file
diff --git a/content/es/security/application_security/threats/setup/compatibility/nginx.md b/content/es/security/application_security/threats/setup/compatibility/nginx.md
new file mode 100644
index 0000000000000..bf916d651c8f9
--- /dev/null
+++ b/content/es/security/application_security/threats/setup/compatibility/nginx.md
@@ -0,0 +1,32 @@
+---
+code_lang: nginx
+code_lang_weight: 40
+title: Requisitos de compatibilidad de Nginx
+type: lenguaje de código múltiple
+---
+
+## Compatibilidad de funciones de App and API Protection
+
+Las siguientes funciones de App and API Protection son compatibles con la integración Nginx, para la versión de rastreador especificada:
+
+| Función de App and API Protection | Versión mínima de módulo Nginx |
+|----------------------------------------|------------------------------|
+| Detección de amenazas | 1.2.0 |
+| Protección frente a amenazas | 1.3.0 |
+| Personalizar la respuesta a las solicitudes bloqueadas | 1.3.0 |
+| Análisis de la composición del software (SCA) | No aplicable |
+| Seguridad del código | No aplicable |
+| Seguimiento automático de los eventos de actividades de usuarios | No compatible |
+| Seguridad de la API | No compatible |
+
+Consulta las [limitaciones][1] de la versión 1.3.0 de Nginx.
+
+## Compatibilidad con Nginx
+
+La política del módulo Nginx es compatible con las versiones de Nginx hasta un año después
+del fin de su vida útil. Solo son compatibles Linux y las arquitecturas arm64 y amd64.
+
+
+
+[1]: /es/security/application_security/setup/threat_detection/nginx/
\ No newline at end of file
diff --git a/content/es/security/application_security/threats/setup/standalone/dotnet.md b/content/es/security/application_security/threats/setup/standalone/dotnet.md
new file mode 100644
index 0000000000000..5b3b5b5f9d260
--- /dev/null
+++ b/content/es/security/application_security/threats/setup/standalone/dotnet.md
@@ -0,0 +1,215 @@
+---
+aliases:
+- /es/security_platform/application_security/getting_started/dotnet
+- /es/security/application_security/getting_started/dotnet
+- /es/security/application_security/enabling/tracing_libraries/threat_detection/dotnet/
+code_lang: dotnet
+code_lang_weight: 10
+further_reading:
+- link: /security/application_security/add-user-info/
+ tag: Documentación
+ text: Añadir información del usuario a trazas
+- link: https://github.com/DataDog/dd-trace-dotnet
+ tag: Código fuente
+ text: Código fuente de la biblioteca .NET de Datadog
+- link: /security/default_rules/?category=cat-application-security
+ tag: Documentación
+ text: Reglas predeterminadas de App & API Protection
+- link: /security/application_security/troubleshooting
+ tag: Documentación
+ text: Solucionar problemas de App & API Protection
+title: Activar Application & API Protection para .NET
+type: lenguaje de código múltiple
+---
+
+Puedes monitorizar la seguridad de las aplicaciones .NET que se ejecutan en Docker, Kubernetes, Amazon ECS y AWS Fargate.
+
+{{% appsec-getstarted-standalone %}}
+
+## Activar Application & API Protection
+### Para empezar
+
+1. **Actualiza la [biblioteca .NET de Datadog][1]** al menos a la versión 2.2.0 (o a la versión 2.16.0 para las funciones de detección del análisis de composición de software) para la arquitectura del sistema operativo de destino.
+
+ Para comprobar que las versiones del lenguaje y del marco de trabajo de tu servicio son compatibles con las funciones de Application & API Protection, consulta [Compatibilidad][2].
+
+2. **Habilita Application & API Protection** configurando las variables de entorno. Para un uso exclusivo de seguridad sin rastreo de APM, configura `DD_APPSEC_ENABLED=true` y `DD_APM_TRACING_ENABLED=false`. Por ejemplo, en Windows autoalojado, ejecuta el siguiente fragmento de PowerShell como parte del script de inicio de tu aplicación:
+ ```
+ $target=[System.EnvironmentVariableTarget]::Process
+ [System.Environment]::SetEnvironmentVariable("DD_APPSEC_ENABLED","true",$target)
+ [System.Environment]::SetEnvironmentVariable("DD_APM_TRACING_ENABLED","false",$target)
+ ```
+
+ **O** uno de los siguientes métodos, dependiendo de dónde se ejecute la aplicación:
+
+ {{< tabs >}}
+{{% tab "Windows autoalojado" %}}
+
+En una consola de Windows:
+
+```
+rem Set environment variables
+SET CORECLR_ENABLE_PROFILING=1
+SET CORECLR_PROFILER={846F5F1C-F9AE-4B07-969E-05C26BC060D8}
+SET DD_APPSEC_ENABLED=true
+SET DD_APM_TRACING_ENABLED=false
+
+rem Start application
+dotnet.exe example.dll
+```
+
+{{% /tab %}}
+{{% tab "IIS" %}}
+
+Ejecuta el siguiente comando de PowerShell como administrador para configurar las variables de entorno necesarias en el registro `HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Session Manager\Environment` y reinicia IIS.
+```
+$target=[System.EnvironmentVariableTarget]::Machine
+[System.Environment]::SetEnvironmentVariable("DD_APPSEC_ENABLED","true",$target)
+[System.Environment]::SetEnvironmentVariable("DD_APM_TRACING_ENABLED","false",$target)
+net stop was /y
+net start w3svc
+```
+
+**O**, para servicios de IIS exclusivamente, en WAS y W3SVC con PowerShell como administrador, ejecuta:
+
+```
+$appsecPart = "DD_APPSEC_ENABLED=true DD_APM_TRACING_ENABLED=false"
+[string[]] $defaultvariable = @("CORECLR_ENABLE_PROFILING=1", "CORECLR_PROFILER={846F5F1C-F9AE-4B07-969E-05C26BC060D8}", $appsecPart)
+
+function Add-AppSec {
+
+ param (
+ $path
+ )
+ $v = (Get-ItemProperty -Path $path).Environment
+ If ($v -eq $null) {
+ Set-ItemProperty -Path $path -Name "Environment" -Value $defaultvariable
+ }
+ ElseIf (-not ($v -match $appsecPart)) {
+ $v += " " + $appsecPart;
+ Set-ItemProperty -Path $path -Name "Environment" -Value $v
+ }
+}
+Add-AppSec -path "HKLM:SYSTEM\CurrentControlSet\Services\WAS\"
+Add-AppSec -path "HKLM:SYSTEM\CurrentControlSet\Services\W3SVC\"
+
+net stop was /y
+net start w3svc
+```
+
+**Or**, to avoid editing registry keys, edit the application settings in the `web.config` file of your application:
+```xml
+
+
+
+
+
+
+```
+
+Esto también puede hacerse a nivel de grupo de aplicaciones de IIS en el archivo `applicationHost.config`, normalmente en `C:\Windows\System32\inetsrv\config\`:
+```xml
+
+
+
+
+
+
+
+
+ (...)
+```
+
+{{% /tab %}}
+{{% tab "Linux" %}}
+
+Añade lo siguiente a la configuración de tu aplicación:
+```conf
+DD_APPSEC_ENABLED=true
+DD_APM_TRACING_ENABLED=false
+```
+{{% /tab %}}
+{{% tab "CLI Docker" %}}
+
+Actualiza tu contenedor de configuración para APM añadiendo los siguientes argumentos en tu comando `docker run`:
+
+```shell
+docker run [...] -e DD_APPSEC_ENABLED=true -e DD_APM_TRACING_ENABLED=false [...]
+```
+
+{{% /tab %}}
+{{% tab "Dockerfile" %}}
+
+Añade los siguientes valores de variable de entorno a tu archivo de contenedor de Docker:
+
+```Dockerfile
+ENV DD_APPSEC_ENABLED=true
+ENV DD_APM_TRACING_ENABLED=false
+```
+
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+
+Actualiza tu archivo de configuración de despliegue para APM y añade las variables de entorno de Application & API Protection:
+
+```yaml
+spec:
+ template:
+ spec:
+ containers:
+ - name:
+ image: /
+ env:
+ - name: DD_APPSEC_ENABLED
+ value: "true"
+ - name: DD_APM_TRACING_ENABLED
+ value: "false"
+```
+
+{{% /tab %}}
+{{% tab "Amazon ECS" %}}
+
+Actualiza tu archivo JSON de definición de tareas de ECS, añadiendo esto en la sección de entorno:
+
+```json
+"environment": [
+ ...,
+ {
+ "name": "DD_APPSEC_ENABLED",
+ "value": "true"
+ },
+ {
+ "name": "DD_APM_TRACING_ENABLED",
+ "value": "false"
+ }
+]
+```
+
+{{% /tab %}}
+{{% tab "AWS Fargate" %}}
+
+Añade las siguientes líneas a tu archivo de contenedor de Docker:
+```Dockerfile
+ENV DD_APPSEC_ENABLED=true
+ENV DD_APM_TRACING_ENABLED=false
+```
+
+{{% /tab %}}
+
+{{< /tabs >}}
+
+3. **Reinicia la aplicación** deteniéndola por completo y volviéndola a iniciar.
+
+{{% appsec-getstarted-2-plusrisk %}}
+
+{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Vídeo que muestra el explorador de señales y detalles y el explorador de vulnerabilidades y detalles." video="true" >}}
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://github.com/DataDog/dd-trace-dotnet/releases/latest
+[2]: /es/security/application_security/setup/compatibility/dotnet/
+[3]: /es/agent/versions/upgrade_between_agent_minor_versions/
+[4]: /es/security/application_security/setup/compatibility/
\ No newline at end of file
diff --git a/content/es/security/application_security/threats/setup/standalone/gcp-service-extensions.md b/content/es/security/application_security/threats/setup/standalone/gcp-service-extensions.md
new file mode 100644
index 0000000000000..9e289cd7fccbf
--- /dev/null
+++ b/content/es/security/application_security/threats/setup/standalone/gcp-service-extensions.md
@@ -0,0 +1,489 @@
+---
+code_lang: gcp-service-extensions
+code_lang_weight: 50
+further_reading:
+- link: https://github.com/DataDog/dd-trace-go/tree/main/contrib/envoyproxy/go-control-plane/cmd/serviceextensions
+ tag: Código fuente
+ text: Código fuente de la extensión del servicio de App and API Protection
+- link: https://cloud.google.com/service-extensions/docs/overview
+ tag: Documentación
+ text: Información general de las extensiones de servicios de Google Cloud
+- link: /security/default_rules/?category=cat-application-security
+ tag: Documentación
+ text: Reglas predefinidas de App and API Protection
+- link: /security/application_security/troubleshooting
+ tag: Documentación
+ text: Solución de problemas de App and API Protection
+title: Activación de App and API Protection para las extensiones de servicio de GCP
+type: lenguaje de código múltiple
+---
+
+{{< callout url="#" btn_hidden="true" header="Las extensiones de App and API Protection Service está en vista previa" >}}
+Para probar la vista previa de las extensiones de App and API Protection Service para GCP, sigue las instrucciones de configuración a continuación.
+{{< /callout >}}
+
+Puedes activar App and API Protection (AAP) con extensiones de servicio de GCP dentro de GCP Cloud Load Balancing. La integración de Datadog y las extensiones de servicio de App and API Protection proporciona capacidades de detección y bloqueo de amenazas directamente en tu entorno de GCP.
+
+## Requisitos previos
+
+- El [Datadog Agent ][1] está instalado y configurado para el sistema operativo o contenedor, nube o entorno virtual de tu aplicación.
+- La [configuración remota][2] está configurada para permitir el bloqueo de atacantes a través de la interfaz de usuario de Datadog.
+- En tu proyecto de GCP, tienes el rol `owner` o `editor` del proyecto, o los roles de IAM de Compute Engine relevantes: `compute.instanceAdmin.v1` (para crear instancias) y `compute.networkAdmin` (para configurar el equilibrio de carga).
+- Se configura un proyecto de GCP con un Cloud Load Balancer para tus servicios. El Cloud Load Balancer debe ser uno de los [Application Load Balancers compatibles con Traffic Callouts][3].
+- Las APIs Compute Engine y Network Services están activadas:
+
+ ```bash
+ gcloud services enable compute.googleapis.com networkservices.googleapis.com
+ ```
+
+## Habilitación de la detección de amenazas
+
+Para configurar la extensión de servicio de App and API Protection en tu entorno de GCP, utiliza la consola de Google Cloud o los scripts de Terraform y completa los siguientes pasos.
+
+**Nota:** Google Cloud proporciona guías para crear [un servicio de backend de llamada][4] y [configurar una extensión de servicio como extensión de tráfico][5]. Los siguientes pasos utilizan la misma configuración general, pero incluyen configuraciones personalizadas específicas para la integración de App and API Protection de Datadog.
+
+{{< tabs >}}
+{{% tab "Google Cloud Console" %}}
+
+1. Crea una instancia de VM Compute utilizando la [imagen de Docker de extensiones de servicio de Datadog App and API Protection][1].
+
+ Consulta [Configuración](#configuration) para conocer las variables de entorno disponibles cuando configures tu instancia de VM.
+
+
+ Note: Be sure to update your Firewall rules to allow the Load Balancer and Datadog agent to communicate with the Callout VM instance.
+
+
+2. Añade la máquina virtual a un grupo de instancias no gestionadas.
+
+ Especifica `http:80` y `grpc:443` (o los valores que hayas configurado) para las asignaciones de puertos del grupo de instancias.
+
+3. Crea un servicio de backend con la siguiente configuración:
+ - Protocolo: `HTTP2`
+ - Nombre del puerto: `grpc`
+ - Región: selecciona tu región
+ - Número de puerto de check de estado: `80` (o el valor que hayas configurado)
+
+4. Añade el grupo de instancias con la VM de extensión de servicio como backend a este servicio de backend.
+
+5. Configura la llamada de Traffic Service Extension:
+ 1. En la consola de Google Cloud, ve a **Extensiones de servicios** y crea una nueva extensión de servicio.
+ 2. Selecciona el tipo de balanceador de carga.
+ 3. Selecciona `Traffic extensions` como tipo.
+ 4. Selecciona tus reglas de reenvío.
+
+
+6. Crear una cadena de extensión
+
+ 1. Para enviar todo el tráfico a la extensión, inserta `true` en la **Condición de coincidencia**.
+ 2. Para **Tipo de capacidad de programación**, selecciona `Callouts`.
+ 3. Selecciona el servicio de backend que creaste en el paso anterior.
+ 4. Selecciona todos los **eventos** de la lista en los que deseas que App and API Protection ejecute la detección (encabezados de solicitud y encabezados de respuesta son **obligatorios**).
+
+
+
+{{% appsec-getstarted-2-plusrisk %}}
+
+{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Vídeo que muestra el explorador de señales y detalles y el explorador de vulnerabilidades y detalles." video="true" >}}
+
+[1]: https://github.com/DataDog/dd-trace-go/pkgs/container/dd-trace-go%2Fservice-extensions-callout
+{{% /tab %}}
+
+{{% tab "Terraform" %}}
+
+Puedes utilizar Terraform para automatizar el despliegue de la extensión de servicio de GCP de App and API Protection. Esto simplifica el proceso de configuración de la extensión de servicio para que funcione con tu equilibrador de carga existente.
+
+### Requisitos previos para el despliegue de Terraform
+
+- [Terraform][1] instalado en tu máquina local (versión 1.0.0 o posterior)
+- Credenciales de GCP con los permisos adecuados
+- Una clave de API de Datadog (utilizada para configurar el Datadog Agent)
+- Un GCP Cloud Load Balancer existente para tu aplicación
+
+### Información general de la infraestructura
+
+El despliegue de Terraform creará los siguientes componentes:
+- Una VM del Datadog Agent para recopilar trazas con eventos de seguridad
+- Una VM que ejecuta la llamada de extensión de servicio de Datadog en un contenedor
+- Una regla de firewall que permite la comunicación entre la extensión y el Agent
+- Un grupo de instancias no gestionado que contiene la máquina virtual de extensión de servicios
+- Un servicio de backend configurado para HTTP/2 con checks de estado
+- Una extensión de servicio conectada a tu equilibrador de carga existente
+
+### Pasos de despliegue
+
+El despliegue de la extensión de servicio de App and API Protection requiere varios componentes que funcionan juntos. Vamos a crear un módulo de Terraform que encapsula todos estos componentes, haciendo que el proceso de despliegue sea repetible y más fácil de mantener.
+
+1. Crea un nuevo directorio y los archivos de Terraform necesarios:
+
+ ```bash
+ mkdir gcp-aap-service-extension && cd gcp-aap-service-extension
+ touch main.tf variables.tf
+ ```
+
+2. Añade el siguiente código a tu archivo `main.tf`. Este archivo define todos los componentes de infraestructura necesarios para la extensión de servicio de App and API Protection, incluidas las reglas de red, las instancias de máquina virtual y la configuración del equilibrador de carga:
+
+ ```hcl
+ # main.tf
+
+ #----------------------------------------------------------
+ # Network Configuration
+ #----------------------------------------------------------
+
+ # Firewall rule to allow the Service Extension to communicate with the Datadog Agent
+ resource "google_compute_firewall" "aap_se_firewall" {
+ name = "${var.project_prefix}-dd-agent-firewall"
+ network = "default"
+
+ allow {
+ protocol = "tcp"
+ ports = ["8126"]
+ }
+
+ source_tags = ["http-server"]
+ target_tags = ["datadog-agent"]
+ }
+
+ #----------------------------------------------------------
+ # Datadog Agent Configuration
+ #----------------------------------------------------------
+
+ # Datadog Agent container configuration
+ module "gce-container-datadog-agent" {
+ source = "terraform-google-modules/container-vm/google"
+
+ container = {
+ image = "public.ecr.aws/datadog/agent:latest"
+ env = [
+ {
+ name = "DD_API_KEY",
+ value = var.datadog_agent_api_key,
+ },
+ {
+ name = "DD_ENV",
+ value = "dev",
+ },
+ ]
+ }
+ }
+
+ # Datadog Agent VM instance that collects traces from the Service Extension
+ resource "google_compute_instance" "datadog_agent" {
+ name = "${var.project_prefix}-datadog-agent"
+ machine_type = "e2-medium"
+ zone = var.zone
+
+ boot_disk {
+ auto_delete = true
+
+ initialize_params {
+ image = module.gce-container-datadog-agent.source_image
+ }
+
+ }
+
+ network_interface {
+ network = "default"
+ subnetwork = var.application_vpc_subnetwork
+ }
+
+ metadata = {
+ gce-container-declaration = module.gce-container-datadog-agent.metadata_value
+ google-logging-enabled = "true"
+ }
+
+ lifecycle {
+ create_before_destroy = true
+ }
+
+ tags = ["datadog-agent"]
+ }
+
+ #----------------------------------------------------------
+ # Service Extension Callout Container Configuration
+ #----------------------------------------------------------
+
+ # Datadog App and API Protection GCP Service Extension container configuration
+ module "gce-container-aap-service-extension" {
+ source = "terraform-google-modules/container-vm/google"
+
+ container = {
+ image = "ghcr.io/datadog/dd-trace-go/service-extensions-callout:v1.72.1" # Replace with the latest version
+ env = [
+ {
+ name = "DD_AGENT_HOST",
+ value = google_compute_instance.datadog_agent.network_interface.0.network_ip,
+ }
+ ]
+ }
+ }
+
+ # Service Extension VM instance (callout instance)
+ resource "google_compute_instance" "default" {
+ name = "${var.project_prefix}-instance"
+ machine_type = "e2-medium"
+ zone = var.zone
+
+ boot_disk {
+ auto_delete = true
+
+ initialize_params {
+ image = module.gce-container-aap-service-extension.source_image
+ }
+
+ }
+
+ network_interface {
+ network = var.application_vpc_network
+ subnetwork = var.application_vpc_subnetwork
+ }
+
+ metadata = {
+ gce-container-declaration = module.gce-container-aap-service-extension.metadata_value
+ google-logging-enabled = "true"
+ }
+
+ lifecycle {
+ create_before_destroy = true
+ }
+
+ # http-server: Allow access on the http server for health checks
+ # https-server: Allow access on the 443 port for the AAP Service Extension
+ tags = ["http-server", "https-server", "lb-health-check"]
+ }
+
+ #----------------------------------------------------------
+ # Load Balancer Integration
+ #----------------------------------------------------------
+
+ # Unmanaged Instance Group including the App and API Protection Service Extension instance
+ resource "google_compute_instance_group" "aap_se_instance_group" {
+ name = "${var.project_prefix}-instance-group"
+ description = "Unmanaged instance group for the App and API Protection Service Extension"
+ zone = var.zone
+
+ named_port {
+ name = "http"
+ port = 80
+ }
+
+ named_port {
+ name = "grpc"
+ port = "443"
+ }
+
+ instances = [
+ google_compute_instance.default.self_link
+ ]
+ }
+
+ # Health Check for the Backend Service
+ resource "google_compute_health_check" "aap_se_health_check" {
+ name = "${var.project_prefix}-health-check"
+ check_interval_sec = 5
+ timeout_sec = 5
+ healthy_threshold = 2
+ unhealthy_threshold = 2
+
+ http_health_check {
+ port = 80
+ request_path = "/"
+ }
+ }
+
+ # Backend Service that points to the Service Extension instance group
+ resource "google_compute_backend_service" "se_backend_service" {
+ name = "${var.project_prefix}-backend-service"
+ port_name = "grpc"
+ protocol = "HTTP2"
+ timeout_sec = 10
+ health_checks = [google_compute_health_check.aap_se_health_check.self_link]
+ load_balancing_scheme = "EXTERNAL_MANAGED"
+
+ backend {
+ group = google_compute_instance_group.aap_se_instance_group.self_link
+ }
+ }
+
+ #----------------------------------------------------------
+ # GCP Service Extension
+ #----------------------------------------------------------
+
+ # GCP Service Extension configuration for traffic interception
+ resource "google_network_services_lb_traffic_extension" "default" {
+ name = "${var.project_prefix}-service-extension"
+ description = "Datadog App and API Protection Service Extension"
+ location = "global"
+
+ load_balancing_scheme = "EXTERNAL_MANAGED"
+ forwarding_rules = [var.load_balancer_forwarding_rule]
+
+ extension_chains {
+ name = "${var.project_prefix}-service-extension-chain"
+
+ match_condition {
+ cel_expression = "true" # Match all traffic
+ }
+
+ extensions {
+ name = "${var.project_prefix}-service-extension-chain-ext"
+ authority = "datadoghq.com"
+ service = google_compute_backend_service.se_backend_service.self_link
+ timeout = "0.5s"
+ fail_open = false # If the extension fails, the request is dropped
+
+ # Supported events for the App and API Protection Service Extension
+ supported_events = ["REQUEST_HEADERS", "REQUEST_BODY", "RESPONSE_HEADERS", "RESPONSE_BODY"]
+ }
+ }
+ }
+ ```
+
+
+3. Añade el siguiente contenido al archivo `variables.tf`. Este archivo define todas las variables de entrada necesarias para la configuración de Terraform:
+
+ ```hcl
+ # variables.tf
+
+ variable "region" {
+ description = "The GCP region where resources will be created (e.g., us-central1)"
+ type = string
+ validation {
+ condition = length(var.region) > 0
+ error_message = "Region cannot be empty."
+ }
+ }
+
+ variable "zone" {
+ description = "The GCP zone where zonal resources will be created (e.g., us-central1-a)"
+ type = string
+ validation {
+ condition = length(var.zone) > 0
+ error_message = "Zone cannot be empty."
+ }
+ }
+
+ # Project configuration
+ variable "project_prefix" {
+ description = "Prefix for the project. All resource names will be prefixed with this value"
+ type = string
+ validation {
+ condition = length(var.project_prefix) > 0
+ error_message = "Project prefix cannot be empty."
+ }
+ }
+
+ # Network configuration
+ variable "application_vpc_network" {
+
+ description = "Name of the VPC network for the application"
+ type = string
+ validation {
+ condition = length(var.application_vpc_network) > 0
+ error_message = "VPC network name cannot be empty."
+ }
+ }
+
+ variable "application_vpc_subnetwork" {
+
+ description = "Name of the VPC subnetwork for the application"
+ type = string
+ validation {
+ condition = length(var.application_vpc_subnetwork) > 0
+ error_message = "VPC subnetwork name cannot be empty."
+ }
+ }
+
+ # Authentication and API keys
+ variable "datadog_agent_api_key" {
+ description = "Datadog API key"
+ type = string
+ sensitive = true
+ validation {
+ condition = length(var.datadog_agent_api_key) > 0
+ error_message = "Datadog API key cannot be empty."
+ }
+ }
+
+ # Load balancer configuration
+ variable "load_balancer_forwarding_rule" {
+ description = "Self link to the forwarding rule for the load balancer"
+ }
+ ```
+
+4. Incluye el módulo en tu proyecto principal de Terraform. Este ejemplo muestra cómo hacer referencia al módulo creado anteriormente:
+
+ ```hcl
+ # main.tf
+
+ module "service_extension" {
+ source = "./gcp-aap-service-extension"
+ zone = "us-central1-a"
+ region = "us-central1"
+ project_prefix = "datadog-aap"
+ application_vpc_subnetwork = "your-subnet-name"
+ datadog_agent_api_key = "your-datadog-api-key"
+ load_balancer_forwarding_rule = "projects/your-project/regions/us-central1/forwardingRules/your-lb-rule" # or with a self link on your resource
+ }
+ ```
+
+5. Despliega la infraestructura ejecutando estos comandos en el directorio donde se encuentran tus archivos de Terraform:
+
+ ```bash
+ terraform init
+ terraform plan
+ terraform apply
+ ```
+
+### Validación posterior al despliegue
+
+La extensión de servicio inspecciona automáticamente todo el tráfico que pasa por tu equilibrador de carga en busca de amenazas de seguridad.
+
+{{% appsec-getstarted-2-plusrisk %}}
+
+{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Vídeo que muestra el explorador de señales y detalles y el explorador de vulnerabilidades y detalles." video="true" >}}
+
+[1]: https://www.terraform.io/
+{{% /tab %}}
+{{< /tabs >}}
+
+## Configuración
+
+La imagen de Docker de la extensión de servicio de Datadog App and API Protection admite los siguientes ajustes de configuración:
+
+| Variable de entorno | Valor por defecto | Descripción |
+|----------------------------------------|-----------------|-------------------------------------------------------------------|
+| `DD_SERVICE_EXTENSION_HOST` | `0.0.0.0` | Dirección de escucha del servidor gRPC. |
+| `DD_SERVICE_EXTENSION_PORT` | `443` | Puerto del servidor gRPC. |
+| `DD_SERVICE_EXTENSION_HEALTHCHECK_PORT`| `80` | Puerto del servidor HTTP para checks de estado. |
+
+Configura el contenedor para enviar trazas a tu Datadog Agent utilizando las siguientes variables de entorno:
+
+| Variable de entorno | Valor por defecto | Descripción |
+|----------------------------------------|---------------|-----------------------------------------------------------------------|
+| `DD_AGENT_HOST` | `localhost` | Nombre de host donde se ejecuta tu Datadog Agent. |
+| `DD_TRACE_AGENT_PORT` | `8126` | Puerto del Datadog Agent para la recopilación de trazas. |
+
+
+ Note: La integración de las extensiones de servicio de GCP se basa en el Datadog Go Tracer. Sigue el mismo proceso de lanzamiento que el rastreador, y sus imágenes de Docker se etiquetan con la versión del rastreador correspondiente.
+
+
+La integración de las extensiones de servicio de GCP utiliza el [Datadog Go Tracer][6] y hereda todas las variables de entorno del rastreador. Encontrarás más opciones de configuración en la [Configuración de la biblioteca de rastreo de Go][7] y [Configuración de la biblioteca de App and API Protection][8].
+
+## Limitaciones
+
+Las extensiones de servicio de GCP tienen las siguientes limitaciones:
+
+* El cuerpo de la solicitud no se inspecciona, independientemente de su tipo de contenido.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/account/settings#agent
+[2]: https://docs.datadoghq.com/es/agent/remote_config/?tab=configurationyamlfile#enabling-remote-configuration
+[3]: https://cloud.google.com/service-extensions/docs/lb-extensions-overview#supported-lbs
+[4]: https://cloud.google.com/service-extensions/docs/configure-callout-backend-service
+[5]: https://cloud.google.com/service-extensions/docs/configure-traffic-extensions
+[6]: https://github.com/DataDog/dd-trace-go
+[7]: https://docs.datadoghq.com/es/tracing/trace_collection/library_config/go/
+[8]: https://docs.datadoghq.com/es/security/application_security/threats/library_configuration/
\ No newline at end of file
diff --git a/content/es/security/application_security/threats/setup/standalone/go.md b/content/es/security/application_security/threats/setup/standalone/go.md
new file mode 100644
index 0000000000000..17965d6074d12
--- /dev/null
+++ b/content/es/security/application_security/threats/setup/standalone/go.md
@@ -0,0 +1,131 @@
+---
+aliases:
+- /es/security_platform/application_security/getting_started/go
+- /es/security/application_security/getting_started/go
+- /es/security/application_security/enabling/tracing_libraries/threat_detection/go/
+code_lang: go
+code_lang_weight: 20
+further_reading:
+- link: /security/application_security/add-user-info/
+ tag: Documentación
+ text: Añadir información del usuario a traces (trazas)
+- link: https://github.com/DataDog/dd-trace-go/tree/v1
+ tag: Código fuente
+ text: Código fuente de la biblioteca Go de Datadog
+- link: /security/default_rules/?category=cat-application-security
+ tag: Documentación
+ text: Normas predefinidas de protección de aplicaciones y API
+- link: /security/application_security/troubleshooting
+ tag: Documentación
+ text: Solucionar problemas con la protección de aplicaciones y API
+title: Activar la protección de aplicaciones y API para Go
+type: lenguaje de código múltiple
+---
+
+Puedes monitorizar la seguridad de las aplicaciones Go que se ejecutan en Docker, Kubernetes y Amazon ECS.
+
+{{% appsec-getstarted-standalone %}}
+- Tu servicio es [compatible][2].
+
+## Activar la protección de aplicaciones y API
+### Para empezar
+
+1. **Añade a las dependencias go.mod de tu programa** la última versión de la biblioteca Go de Datadog (versión 1.53.0 o posterior):
+
+ ```shell
+ $ go get -v -u gopkg.in/DataDog/dd-trace-go.v1 # v1
+ # $ go get -v -u github.com/DataDog/dd-trace-go/v2/ddtrace/tracer # v2
+ ```
+
+2. Datadog ofrece una serie de paquetes conectables que proporcionan asistencia inmediata para la instrumentación de una serie de bibliotecas Go y marcos.
+ En la página de [requisitos de compatibilidad][1] encontrarás una lista de estos paquetes. Importa estos paquetes en tu aplicación y sigue las instrucciones de configuración que aparecen junto a cada integración.
+
+3. **Vuelve a compilar tu programa** con la protección de aplicaciones y API activada:
+ ```console
+ $ go build -v -tags appsec my-program
+ ```
+
+ **Notas**:
+ - La etiqueta (tag) `appsec` de la compilación de Go no es necesaria si CGO está habilitado con `CGO_ENABLED=1`.
+ - Datadog WAF necesita las siguientes bibliotecas compartidas en Linux: `libc.so.6` y `libpthread.so.0`.
+ - Cuando se utiliza la etiqueta `appsec` de la compilación y CGO está deshabilitado, el binario producido permanece vinculado dinámicamente a estas bibliotecas.
+ - La etiqueta (tag) `datadog.no_waf` de creación Go se puede utilizar para desactivar la protección de aplicaciones y API en el momento de la creación en cualquier situación en la que los requisitos anteriores sean un obstáculo.
+
+4. **Vuelve a desplegar tu servicio Go y activa la protección de aplicaciones y API** configurando las variables de entorno:
+ ```console
+ $ env DD_APPSEC_ENABLED=true DD_APM_TRACING_ENABLED=false ./my-program
+ ```
+
+ O uno de los siguientes métodos, dependiendo de dónde se ejecute la aplicación:
+
+ {{< tabs >}}
+{{% tab "Docker CLI" %}}
+
+Añade los siguientes valores de variables de entorno a tu línea de comandos Docker:
+
+```console
+$ docker run -e DD_APPSEC_ENABLED=true -e DD_APM_TRACING_ENABLED=false [...]
+```
+
+{{% /tab %}}
+{{% tab "Dockerfile" %}}
+
+Añade los siguientes valores de variables de entorno al archivo Docker de tu contenedor de aplicaciones:
+
+```Dockerfile
+ENV DD_APPSEC_ENABLED=true
+ENV DD_APM_TRACING_ENABLED=false
+```
+
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+
+Actualiza el archivo de configuración de despliegue de tu aplicación para APM y añade las variables de entorno de protección de aplicaciones y API:
+
+```yaml
+spec:
+ template:
+ spec:
+ containers:
+ - name:
+ image: /
+ env:
+ - name: DD_APPSEC_ENABLED
+ value: "true"
+ - name: DD_APM_TRACING_ENABLED
+ value: "false"
+```
+
+{{% /tab %}}
+{{% tab "Amazon ECS" %}}
+
+Actualiza el archivo JSON de definición de tareas ECS de tu aplicación, añadiendo esto en la sección de entorno:
+
+```json
+"environment": [
+ ...,
+ {
+ "name": "DD_APPSEC_ENABLED",
+ "value": "true"
+ },
+ {
+ "name": "DD_APM_TRACING_ENABLED",
+ "value": "false"
+ }
+]
+```
+
+{{% /tab %}}
+
+{{< /tabs >}}
+
+{{% appsec-getstarted-2 %}}
+
+{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Vídeo que muestra el explorador de señales y detalles y el explorador de vulnerabilidades y detalles." video="true" >}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/security/application_security/setup/compatibility/go/#web-framework-compatibility
+[2]: /es/security/application_security/setup/compatibility/go/
\ No newline at end of file
diff --git a/content/es/security/cloud_security_management/review_remediate/jira.md b/content/es/security/cloud_security_management/review_remediate/jira.md
index c78ca2fc43b36..569c7b0822857 100644
--- a/content/es/security/cloud_security_management/review_remediate/jira.md
+++ b/content/es/security/cloud_security_management/review_remediate/jira.md
@@ -4,41 +4,41 @@ aliases:
further_reading:
- link: /security/cloud_security_management/guide
tag: Documentación
- text: Guías de Cloud Security Management
+ text: Guías de Cloud Security
- link: /integrations/jira/
tag: Documentación
- text: Integración de Datadog Jira
+ text: Integración de Datadog y Jira
products:
- icon: cloud-security-management
- name: CSM Misconfigurations
+ name: Cloud Security Misconfigurations
url: /security/cloud_security_management/misconfigurations/
- icon: cloud-security-management
- name: Riesgos de identidad de CSM
+ name: Riesgos de identidad de seguridad en la nube
url: /security/cloud_security_management/identity_risks/
-title: Crear problemas de Jira para problemas en Cloud Security Management
+title: Crear problemas de Jira para problemas de Cloud Security
---
{{< product-availability >}}
-Utilice la [integración de Jira][1] para crear problemas de Jira para los recursos afectados por un problema de seguridad de Cloud Security Management (CSM). Jira para Cloud Security Management está disponible para [CSM Misconfigurations][3] y [CSM Identity Risks][4].
+Utiliza la [integración de Jira][1] para crear problemas de Jira para los recursos afectados por un problema de seguridad de Cloud Security. Jira para Cloud Security está disponible para [Cloud Security Misconfigurations][3] y [Cloud Security Identity Risks][4].
**Notas**:
-- Para crear problemas de Jira, debes tener el permiso `security_monitoring_findings_write`. Consulta [Control de acceso basado en roles][2] para obtener más información sobre los roles predeterminados de Datadog y los permisos detallados de control de acceso basados en roles disponibles para CSM.
+- Para crear problemas de Jira, debes tener el permiso `security_monitoring_findings_write`. Consulta [Control de acceso basado en roles][2] para obtener más información sobre los roles predeterminados de Datadog y los permisos de control de acceso granular basados en roles disponibles para Cloud Security.
- En este momento, solo puedes crear un problema de Jira por hallazgo.
## Configurar la integración de Jira
-Para crear problemas de Jira para problemas de seguridad de CSM, debes configurar la [integración de Jira][5]. Para obtener instrucciones detalladas, consulta la documentación de la integración de [Jira][1].
+Para crear problemas de Jira para problemas de seguridad de Cloud Security, debes configurar la [integración de Jira][5]. Para obtener instrucciones detalladas, consulta la documentación de la integración de [Jira][1].
## Crear un problema en Jira para los recursos afectados
{{< tabs >}}
-{{% tab "CSM Misconfigurations" %}}
+{{% tab "Cloud Security Misconfigurations" %}}
Para crear un problema en Jira para uno o más recursos afectados por una configuración errónea:
-1. En el [Misconfigurations Explorer][1], selecciona un error de configuración.
+1. En el [Explorer de errores de configuración][1], selecciona un error de configuración.
2. En **Resources Impacted** (Recursos afectados), selecciona uno o varios resultados.
3. En el menú desplegable **Actions** (Acciones) que aparece en la parte superior, selecciona **Create Jira Issue** (Crear problema de Jira).
4. Elige si deseas crear un problema único o varias (un problema por cada recurso).
@@ -49,7 +49,7 @@ Para crear un problema en Jira para uno o más recursos afectados por una config
También puedes crear un problema de Jira desde el panel lateral de problemas independientes.
-1. En el [Misconfigurations Explorer][1], establece el filtro Group By (Agrupar por) en **Resources** (Recursos).
+1. En el [Explorer de errores de configuración][1], configura el filtro Agrupar por en **Resources** (Recursos).
2. Selecciona un recurso.
3. En la pestaña **Misconfigurations** (Errores de configuración), selecciona una configuración errónea.
4. Haz clic en **Create Jira Issue** (Crear problema de Jira).
@@ -64,11 +64,11 @@ Después de crear el problema, aparecerá un enlace al problema de Jira en el pa
{{% /tab %}}
-{{% tab "CSM Identity Risks" %}}
+{{% tab "Cloud Security Identity Risks" %}}
Para crear un problema en Jira para uno o más recursos afectados por un riesgo de identidad:
-1. En el [Identity Risks Explorer][1], selecciona un riesgo de identidad.
+1. En el [Explorer de riesgos de identidad][1], selecciona un riesgo de identidad.
2. En **Resources Impacted** (Recursos afectados), selecciona uno o varios resultados.
3. En el menú desplegable **Actions** (Acciones) que aparece en la parte superior, selecciona **Create Jira Issue** (Crear problema de Jira).
4. Elige si deseas crear un problema único o varias (un problema por cada recurso).
@@ -79,7 +79,7 @@ Para crear un problema en Jira para uno o más recursos afectados por un riesgo
También puedes crear un problema de Jira desde el panel lateral de problemas independientes.
-1. En el [Identity Risks Explorer][1], establece el filtro Group By (Agrupar por) en **Resources** (Recursos).
+1. En el [Explorer de riesgos de identidad][1], configura el filtro Agrupar por en **Resources** (Recursos).
2. Selecciona un recurso.
3. En la pestaña **Misconfigurations** (Errores de configuración), selecciona un riesgo de identidad.
4. Haz clic en **Create Jira Issue** (Crear problema de Jira).
diff --git a/content/es/security/cloud_security_management/setup/agent/ecs_ec2.md b/content/es/security/cloud_security_management/setup/agent/ecs_ec2.md
index 8c91497419e49..89fdcf9053548 100644
--- a/content/es/security/cloud_security_management/setup/agent/ecs_ec2.md
+++ b/content/es/security/cloud_security_management/setup/agent/ecs_ec2.md
@@ -5,11 +5,11 @@ aliases:
- /es/security/cloud_security_management/setup/csm_enterprise/agent/ecs_ec2/
code_lang: ecs_ec2
code_lang_weight: 70
-title: Configuración de Cloud Security Management en ECS EC2
+title: Configuración de Cloud Security en ECS EC2
type: multi-code-lang
---
-Sigue las instrucciones a continuación para activar las funciones de Misconfigurations, Threat Detection y Vulnerability Management.
+Sigue las siguientes instrucciones para activar Misconfigurations y Vulnerability Management.
{{< partial name="security-platform/CSW-billing-note.html" >}}
@@ -27,83 +27,89 @@ Añade las siguientes variables de entorno a tu definición de contenedor de `da
"containerDefinitions": [
{
"name": "datadog-agent",
+ ...
+ "mountPoints": [
+ {
+ "sourceVolume": "docker_sock",
+ "containerPath": "/var/run/docker.sock",
+ "readOnly": true
+ },
+ {
+ "sourceVolume": "proc",
+ "containerPath": "/host/proc/",
+ "readOnly": true
+ },
+ {
+ "sourceVolume": "cgroup",
+ "containerPath": "/host/sys/fs/cgroup",
+ "readOnly": true
+ },
+ {
+ "sourceVolume": "passwd",
+ "containerPath": "/etc/passwd",
+ "readOnly": true
+ },
+ {
+ "sourceVolume": "os_release",
+ "containerPath": "/host/etc/os-release",
+ "readOnly": true
+ },
+ {
+ "sourceVolume": "kernel_debug",
+ "containerPath": "/sys/kernel/debug"
+ },
+ {
+ "sourceVolume": "root",
+ "containerPath": "/host/root",
+ "readOnly": true
+ }
+ ],
+ ...
+ "environment": [
...
- "mountPoints": [
- {
- "sourceVolume": "docker_sock",
- "containerPath": "/var/run/docker.sock",
- "readOnly": true
- },
- {
- "sourceVolume": "proc",
- "containerPath": "/host/proc/",
- "readOnly": true
- },
- {
- "sourceVolume": "cgroup",
- "containerPath": "/host/sys/fs/cgroup",
- "readOnly": true
- },
- {
- "sourceVolume": "passwd",
- "containerPath": "/etc/passwd",
- "readOnly": true
- },
- {
- "sourceVolume": "os_release",
- "containerPath": "/host/etc/os-release",
- "readOnly": true
- },
- {
- "sourceVolume": "kernel_debug",
- "containerPath": "/sys/kernel/debug"
- },
- {
- "sourceVolume": "root",
- "containerPath": "/host/root",
- "readOnly": true
- }
- ],
- ...
- "environment": [
- ...
- {
- "name": "DD_COMPLIANCE_CONFIG_ENABLED",
- "value": "true"
- },
- {
- "name": "DD_COMPLIANCE_CONFIG_HOST_BENCHMARKS_ENABLED",
- "value": "true"
- },
- {
- "name": "DD_RUNTIME_SECURITY_CONFIG_ENABLED",
- "value": "true"
- },
- {
- "name": "DD_SYSTEM_PROBE_ENABLED",
- "value": "true"
- },
- {
- "name": "DD_RUNTIME_SECURITY_CONFIG_REMOTE_CONFIGURATION_ENABLED",
- "value": "true"
- },
- {
- "name": "DD_SBOM_ENABLED",
- "value": "true"
- },
- {
- "name": "DD_SBOM_CONTAINER_IMAGE_ENABLED",
- "value": "true"
- },
- {
- "name": "DD_CONTAINER_IMAGE_ENABLED",
- "value": "true"
- },
- {
- "name": "DD_SBOM_HOST_ENABLED",
- "value": "true"
- }
- ]
+ {
+ "name": "DD_COMPLIANCE_CONFIG_ENABLED",
+ "value": "true"
+ },
+ {
+ "name": "DD_COMPLIANCE_CONFIG_HOST_BENCHMARKS_ENABLED",
+ "value": "true"
+ },
+ {
+ "name": "DD_SYSTEM_PROBE_ENABLED",
+ "value": "true"
+ },
+ {
+ "name": "DD_SBOM_ENABLED",
+ "value": "true"
+ },
+ {
+ "name": "DD_SBOM_CONTAINER_IMAGE_ENABLED",
+ "value": "true"
+ },
+ {
+ "name": "DD_CONTAINER_IMAGE_ENABLED",
+ "value": "true"
+ },
+ {
+ "name": "DD_SBOM_HOST_ENABLED",
+ "value": "true"
+ }
+ ],
+ "linuxParameters": {
+ "capabilities": {
+ "add": [
+ "SYS_ADMIN",
+ "SYS_RESOURCE",
+ "SYS_PTRACE",
+ "NET_ADMIN",
+ "NET_BROADCAST",
+ "NET_RAW",
+ "IPC_LOCK",
+ "CHOWN"
+ ]
+ }
+ },
}
],
...
@@ -151,20 +157,6 @@ Añade las siguientes variables de entorno a tu definición de contenedor de `da
}
}
],
- "linuxParameters": {
- "capabilities": {
- "add": [
- "SYS_ADMIN",
- "SYS_RESOURCE",
- "SYS_PTRACE",
- "NET_ADMIN",
- "NET_BROADCAST",
- "NET_RAW",
- "IPC_LOCK",
- "CHOWN"
- ]
- }
- },
"requiresCompatibilities": [
"EC2"
]
diff --git a/content/es/security/cloud_security_management/setup/cloud_integrations.md b/content/es/security/cloud_security_management/setup/cloud_integrations.md
new file mode 100644
index 0000000000000..aac547d704dc3
--- /dev/null
+++ b/content/es/security/cloud_security_management/setup/cloud_integrations.md
@@ -0,0 +1,77 @@
+---
+aliases:
+- /es/security/cloud_security_management/setup/csm_enterprise/cloud_accounts
+- /es/security/cloud_security_management/setup/csm_pro/cloud_accounts
+- /es/security/cloud_security_management/setup/cloud_accounts
+title: Despliegue Cloud Security con integraciones de la nube
+---
+
+Utiliza las siguientes instrucciones para activar Misconfigurations and Identity Risks (CIEM) en AWS, Azure y GCP.
+
+## Activar la exploración de recursos
+
+Para activar la exploración de recursos para tus cuentas en la nube, primero debes configurar la integración y luego activar Cloud Security para cada cuenta de AWS, suscripción de Azure y proyecto de Google Cloud.
+
+{{< partial name="security-platform/CSW-billing-note.html" >}}
+
+{{< tabs >}}
+{{% tab "AWS" %}}
+
+{{% csm-setup-aws %}}
+
+{{% /tab %}}
+
+{{% tab "Azure" %}}
+
+{{% csm-setup-azure %}}
+
+{{% /tab %}}
+
+{{% tab "Google Cloud" %}}
+
+{{% csm-setup-google-cloud %}}
+
+{{% /tab %}}
+
+{{< /tabs >}}
+
+## Desactivar la exploración de recursos
+
+Puedes acceder a los resultados históricos de los últimos 15 meses incluso si la exploración de recursos está desactivada.
+
+{{< tabs >}}
+{{% tab "AWS" %}}
+
+1. En la page (página) [**Cloud Security Setup** (Configuración de Cloud Security)][1], haz clic en **Cloud Integrations** (Integraciones en la nube).
+1. Amplía la sección **AWS**.
+1. Para detener la recopilación de recursos para una cuenta, haz clic en el botón **Edit** (Editar) ({{< img src="security/csm/setup/edit-button.png" inline="true" style="width:24px;">}}) y cambia la alternancia **Enable Resource Scanning** (Activar Exploración de recursos) a la posición desactivada.
+1. Haz clic en **Done** (Listo).
+
+[1]: https://app.datadoghq.com/security/configuration/csm/setup
+[2]: https://app.datadoghq.com/integrations/amazon-web-services
+
+{{% /tab %}}
+{{% tab "Azure" %}}
+
+1. En la Page (página) [**Cloud Security Setup** (Configuración de Cloud Security)][1], haz clic en **Cloud Integrations** (integraciones en la nube).
+1. Amplía la sección **Azure**.
+1. Para detener la recopilación de recursos para una suscripción, cambia a alternancia **Resource Scanning** (Exploración de recursos) a la posición desactivada.
+1. Haz clic en **Done** (Listo).
+
+[1]: https://app.datadoghq.com/security/configuration/csm/setup
+[2]: https://app.datadoghq.com/integrations/azure
+
+{{% /tab %}}
+{{% tab "Google Cloud" %}}
+
+1. En la page (página) [**Cloud Security Setup** (Configuración de Cloud Security)][1], haz clic en **Cloud Integrations** (Integraciones en la nube).
+1. Amplía la sección **GCP**.
+1. Para detener la recopilación de recursos para un proyecto, cambie la alternancia **Resource Scanning** (Exploración de recursos) a la posición desactivada.
+1. Haz clic en **Done** (Listo).
+
+[1]: https://app.datadoghq.com/security/configuration/csm/setup
+[2]: https://app.datadoghq.com/integrations/google-cloud-platform
+
+{{% /tab %}}{{< /tabs >}}
+
+[1]: https://app.datadoghq.com/security/configuration/csm/setup
\ No newline at end of file
diff --git a/content/es/security/cloud_security_management/vulnerabilities/_index.md b/content/es/security/cloud_security_management/vulnerabilities/_index.md
index 742a2ccaf886e..d9421a634a187 100644
--- a/content/es/security/cloud_security_management/vulnerabilities/_index.md
+++ b/content/es/security/cloud_security_management/vulnerabilities/_index.md
@@ -22,12 +22,6 @@ further_reading:
title: Cloud Security Vulnerabilities
---
-{{< site-region region="gov" >}}
-
-{{< /site-region >}}
-
## Información general
Cloud Security Vulnerabilities te ayuda a mejorar tu postura de seguridad y lograr el cumplimiento mediante el análisis continuo de imágenes de contenedor, hosts, imágenes de host y funciones serverless en busca de vulnerabilidades, desde los pipelines CI/CD hasta la producción en directo. Aprovechando la capacidad de observación en tiempo de ejecución, te ayuda a priorizar y corregir vulnerabilidades explotables en tus flujos de trabajo diarios, todo en una única vista y sin dependencias de otros productos de Datadog.
diff --git a/content/es/serverless/aws_lambda/distributed_tracing.md b/content/es/serverless/aws_lambda/distributed_tracing.md
index 6847a9c120bb4..62dfaa12cabf3 100644
--- a/content/es/serverless/aws_lambda/distributed_tracing.md
+++ b/content/es/serverless/aws_lambda/distributed_tracing.md
@@ -21,8 +21,7 @@ further_reading:
text: Monitoriza tu pila serverless en la vista serverless
- link: https://www.datadoghq.com/blog/monitor-aws-fully-managed-services-datadog-serverless-monitoring/
tag: Blog
- text: Monitorización serverless de Datadog para servicios completamente administrados
- de AWS
+ text: Datadog Serverless Monitoring para servicios totalmente gestionados de AWS
- link: https://www.datadoghq.com/blog/dotnet-lambda-functions-distributed-tracing/
tag: Blog
text: Rastreo distribuido en tiempo real para funciones de Lambda de .NET
@@ -47,8 +46,8 @@ Las bibliotecas de rastreo de Python, Node.js, Ruby, Go, Java y .NET de Datadog
#### Python y Node.js
-La Biblioteca de Lambda de Datadog y las bibliotecas de rastreo para Python y Node.js admiten lo siguiente:
-- Correlación automática de logs y trazas de Lambda con el ID de traza y la inyección de etiquetas (tags).
+La biblioteca Lambda de Datadog y las bibliotecas de rastreo para Python y Node.js admiten lo siguiente:
+- Correlación automática de logs y trazas de Lambda con ID de traza e inyección de etiquetas.
- Instalación sin cambios en el código mediante las integraciones de Serverless Framework, AWS SAM y AWS CDK.
- Rastreo de solicitudes HTTP que invocan contenedores o funciones de Lambda.
- Rastreo de invocaciones de Lambda consecutivas realizadas a través de AWS SDK.
@@ -60,7 +59,9 @@ La Biblioteca de Lambda de Datadog y las bibliotecas de rastreo para Python y No
- Integración directa de SNS y SQS
- Kinesis
- EventBridge
-- Rastreo de decenas de librerías de [Python][3] y [Node.js][4] adicionales listas para usar.
+ - DynamoDB
+ - S3
+- Rastreo de decenas de bibliotecas de [Python][3] y [Node.js][4] adicionales listas para usar.
En el caso de las aplicaciones serverless de Python y Node.js, Datadog recomienda [instalar bibliotecas de rastreo de Datadog][5].
@@ -68,10 +69,10 @@ En el caso de las aplicaciones serverless de Python y Node.js, Datadog recomiend
#### Ruby
-La Biblioteca de Lambda de Datadog y las bibliotecas de rastreo para Ruby admiten lo siguiente:
+La biblioteca Lambda de Datadog y las bibliotecas de rastreo para Ruby admiten lo siguiente:
- Correlación automática de logs y trazas de Lambda con ID de traza e inyección de etiquetas.
- Rastreo de solicitudes HTTP que invocan contenedores o funciones de Lambda.
-- Rastreo de decenas de librerías de [Ruby][8] adicionales listas para usar.
+- Rastreo de decenas de bibliotecas de [Ruby][8] adicionales listas para usar.
Puedes rastrear funciones serverless en Datadog con [bibliotecas de rastreo de Datadog][5].
@@ -79,10 +80,10 @@ Puedes rastrear funciones serverless en Datadog con [bibliotecas de rastreo de D
#### Go
-La Biblioteca de Lambda de Datadog y las bibliotecas de rastreo para Go admiten lo siguiente:
+La biblioteca Lambda de Datadog y las bibliotecas de rastreo para Go admiten lo siguiente:
- Correlación manual de logs y trazas de Lambda con ID de traza e inyección de etiquetas.
- Rastreo de solicitudes HTTP que invocan contenedores o funciones de Lambda.
-- Rastreo de decenas de librerías de [Go][9] adicionales listas para usar.
+- Rastreo de decenas de bibliotecas de [Go][9] adicionales listas para usar.
En el caso de las aplicaciones serverless de Go, Datadog recomienda instalar [bibliotecas de rastreo de Datadog][5].
@@ -90,10 +91,10 @@ En el caso de las aplicaciones serverless de Go, Datadog recomienda instalar [bi
#### Java
-La Biblioteca de Lambda de Datadog y las bibliotecas de rastreo para Java admiten lo siguiente:
+La biblioteca Lambda de Datadog y las bibliotecas de rastreo para Java admiten lo siguiente:
- Correlación de logs y trazas de Lambda con ID de traza e inyección de etiquetas. Consulta [Conexión de logs y trazas de Java][10] para obtener más detalles.
- Rastreo de solicitudes HTTP que invocan contenedores o funciones de Lambda.
-- Rastreo de decenas de librerías de [Java][11] adicionales listas para usar.
+- Rastreo de decenas de bibliotecas de [Java][11] adicionales listas para usar.
En el caso de las aplicaciones serverless de Java, Datadog recomienda [instalar bibliotecas de rastreo de Datadog][5].
@@ -101,41 +102,80 @@ En el caso de las aplicaciones serverless de Java, Datadog recomienda [instalar
#### .NET
-La librería de rastreo para .NET admite lo siguiente:
+La biblioteca de rastreo para .NET admite lo siguiente:
- Rastreo de solicitudes HTTP que invocan contenedores o funciones de Lambda.
-- Rastreo de decenas de librerías de [.NET][14] adicionales listas para usar.
+- Rastreo de decenas de bibliotecas de [.NET][14] adicionales listas para usar.
En el caso de las aplicaciones serverless de .NET, Datadog recomienda [instalar bibliotecas de rastreo de Datadog][5].
Obtén más información sobre el [rastreo a través de aplicaciones serverless de Azure de .NET][15].
-### Entornos híbridos
+## Enlace automático de tramos (span)
+{{< img src="serverless/lambda/tracing/autolink.png" alt="En Datadog, una traza DynamoDB. En la parte superior, un mensaje dice: 'Esta traza está vinculada con otras trazas'. La pestaña Enlaces de tramos está abierta y muestra un enlace que permite hacer clic en él para ir a otra traza de DynamoDB." style="width:100%;" >}}
+
+Datadog detecta automáticamente tramos vinculados cuando los segmentos de tus solicitudes asíncronas no pueden propagar el contexto de rastreo. Por ejemplo, esto puede ocurrir cuando una solicitud activa [eventos de cambios de S3][28], o [flujos (streams) DynamoDB][29]. Puedes ver que aparecen tramos autovinculados en la pestaña [Enlaces de tramos][30]. Estos aparecen como Backward (Atrás) o **Forward** (Adelante).
+
+_Backward_ (Atrás): El tramo vinculado fue generado por la traza que estás visualizando.
+
+_Forward_ (Adelante): El tramo vinculado generó la traza que estás visualizando.
+
+
+Los filtros de
muestreo y retención de trazas pueden interferir con el enlace automático. Para aumentar tus posibilidades de ver tramos de enlace automático, aumenta tu frecuencia de muestreo o ajusta tus filtros de retención.
+
+### Tecnologías compatibles
+
+El enlace automático de tramos está disponible para:
+- Funciones Lambda Python AWS instrumentadas con la capa [`Datadog-lambda-Python`][33] v101 o posterior
+- Aplicaciones Python instrumentadas con [`dd-rastrear-py`][31] v2.16 o posterior
+- Funciones Lambda Node.js AWS instrumentadas con la capa [`Datadog-lambda-js`][34] v118 o posterior
+- Aplicaciones Node.js instrumentadas con [`dd-rastrear-js`][32] v4.53.0 o posterior o v5.29.0 o posterior
+
+### Enlace automático de flujos de cambios de DynamoDB
-Si instalaste las bibliotecas de rastreo de Datadog (`dd-trace`) en tus hosts y funciones de Lambda, tus trazas te mostrarán automáticamente la imagen completa de las solicitudes que cruzan los límites de la infraestructura, ya sea de AWS Lambda, contenedores, hosts on-prem o servicios administrados.
+En los [flujos de cambios de DynamoDB][29], el enlace automático de tramos admite las siguientes operaciones:
+
+- `PutItem`
+- `UpdateItem`
+- `DeleteItem`
+- `BatchWriteItem`
+- `TransactWriteItems`
+
+
+
+### Enlace automático de notificaciones de cambios de S3
+
+En las [notificaciones de cambios de S3][28], el enlace automático de tramos admite las siguientes operaciones:
+
+- `PutObject`
+- `CompleteMultipartUpload`
+- `CopyObject`
+
+
+## Entornos híbridos
+
+Si instalaste las bibliotecas de rastreo de Datadog (`dd-trace`) en tus hosts y funciones de Lambda, tus trazas te mostrarán automáticamente la imagen completa de las solicitudes que cruzan los límites de la infraestructura, ya sea de AWS Lambda, contenedores, hosts on-prem o servicios gestionados.
Si `dd-trace` está instalado en tus hosts con el Datadog Agent y tus funciones serverless se rastrean con AWS X-Ray, es necesario fusionar las trazas para ver una traza única y conectada de toda la infraestructura. Consulta la documentación [Fusión de trazas serverless][6] para obtener más información sobre la fusión de trazas de `dd-trace` y AWS X-Ray.
La [integración de AWS X-Ray][2] de Datadog solo ofrece trazas para las funciones de Lambda. Consulta la [documentación de Datadog APM][16] para obtener más información sobre el rastreo en entornos basados en contenedores o hosts.
-## Creación de perfiles para las funciones de Lambda (beta pública)
-
-Durante el periodo beta, la creación de perfiles está disponible sin coste adicional.
+## Creación de perfiles de tus funciones Lambda
-[Continuous Profiler][27] de Datadog está disponible en beta para Python en la versión 4.62.0 y la versión de capa 62 y superiores. Esta característica opcional se habilita mediante la definición de la variable de entorno `DD_PROFILING_ENABLED` como `true`.
+[Continuous Profiler][27] de Datadog está disponible en Vista Previa para Python en la versión 4.62.0 y la versión de capa 62 y posteriores. Esta función opcional se activa configurando la variable de entorno `DD_PROFILING_ENABLED` como `true`.
Continuous Profiler genera un subproceso que se activa periódicamente y toma una snapshot de la CPU y el montículo de todo el código de Python en ejecución. Esto puede incluir el propio generador de perfiles. Si quieres que el generador de perfiles se ignore a sí mismo, define `DD_PROFILING_IGNORE_PROFILER` como `true`.
## Fusión de trazas
-### Casos de uso
+### Casos prácticos
-Datadog recomienda usar solo la librería de rastreo de Datadog APM (`dd-trace`), pero en algunas situaciones avanzadas los usuarios pueden combinar el rastreo de Datadog y AWS X-Ray mediante la fusión de trazas. La fusión de trazas está disponible para las funciones de AWS Lambda de Node.js y Python. Si no estás seguro de qué biblioteca de rastreo usar, lee sobre [cómo elegir una biblioteca de rastreo][17].
+Datadog recomienda usar solo la biblioteca de rastreo de Datadog APM (`dd-trace`), pero en algunas situaciones avanzadas los usuarios pueden combinar el rastreo de Datadog y AWS X-Ray mediante la fusión de trazas. La fusión de trazas está disponible para las funciones de AWS Lambda de Node.js y Python. Si no estás seguro de qué biblioteca de rastreo usar, lee sobre [cómo elegir una biblioteca de rastreo][17].
Hay dos razones principales para instrumentar las bibliotecas de rastreo de `dd-trace` y AWS X-Ray:
-- En un entorno serverless de AWS, ya rastreas tus funciones de Lambda con `dd-trace`, necesitas el rastreo activo de AWS X-Ray para los servicios administrados de AWS como AppSync y Step Functions, y quieres visualizar los tramos (spans) de `dd-trace` y AWS X-Ray en un sola traza.
+- En un entorno serverless de AWS, ya rastreas tus funciones de Lambda con `dd-trace`, necesitas el rastreo activo de AWS X-Ray para los servicios gestionados de AWS como AppSync y Step Functions, y quieres visualizar los tramos de `dd-trace` y AWS X-Ray en una sola traza.
- En un entorno híbrido con hosts y funciones de Lambda, `dd-trace` instrumenta tus hosts, AWS X-Ray instrumenta tus funciones de Lambda, y quieres visualizar las trazas conectadas sobre las transacciones entre los hosts y las funciones de Lambda.
-**Nota:** Esto puede dar lugar a facturas de uso más elevadas. Los tramos de X-Ray siguen estando disponibles en tus trazas fusionadas después de 2 o 5 minutos. En muchos casos, Datadog recomienda utilizar una sola librería de rastreo. Obtén más información sobre [cómo elegir una biblioteca de rastreo][17].
+**Nota:** Esto puede dar lugar a facturas de uso más elevadas. Los tramos de X-Ray siguen estando disponibles en tus trazas fusionadas después de 2 o 5 minutos. En muchos casos, Datadog recomienda utilizar una sola biblioteca de rastreo. Obtén más información sobre [cómo elegir una biblioteca de rastreo][17].
A continuación se ofrecen instrucciones de configuración para cada uno de los casos de uso mencionados:
@@ -144,7 +184,7 @@ A continuación se ofrecen instrucciones de configuración para cada uno de los
### Fusión de trazas en un entorno serverless de AWS
-AWS X-Ray ofrece tanto un servicio backend de AWS (el rastreo activo de AWS X-Ray) como un conjunto de librerías de clientes. La [Habilitación de solo el servicio backend de AWS en la consola de Lambda][18] te otorga los tramos `Initialization` e `Invocation` para tus funciones de AWS Lambda. También puedes habilitar el rastreo activo de AWS X-Ray desde las consolas de API Gateway y Step Functions.
+AWS X-Ray ofrece tanto un servicio backend de AWS (el rastreo activo de AWS X-Ray) como un conjunto de bibliotecas de clientes. La [Habilitación de solo el servicio backend de AWS en la consola de Lambda][18] te otorga los tramos `Initialization` e `Invocation` para tus funciones de AWS Lambda. También puedes habilitar el rastreo activo de AWS X-Ray desde las consolas de API Gateway y Step Functions.
Tanto el SDK de AWS X-Ray como las bibliotecas de clientes de Datadog APM (`dd-trace`) añaden metadatos y tramos para las llamadas descendentes mediante el acceso directo a la función. Suponiendo que utilizas `dd-trace` para rastrear en el nivel de controlador, tu configuración debe ser similar a la siguiente:
@@ -155,12 +195,14 @@ Tanto el SDK de AWS X-Ray como las bibliotecas de clientes de Datadog APM (`dd-t
### Rastreo entre AWS Lambda y hosts
-Si instalaste las bibliotecas de rastreo de Datadog (`dd-trace`) en tus hosts y funciones de Lambda, tus trazas te mostrarán automáticamente la imagen completa de las solicitudes que cruzan los límites de la infraestructura, ya sea de AWS Lambda, contenedores, hosts on-prem o servicios administrados.
+#### Propagación de contextos con bibliotecas de rastreo de Datadog
+Si instalaste las bibliotecas de rastreo de Datadog (`dd-trace`) en tus hosts y funciones de Lambda, tus trazas te mostrarán automáticamente la imagen completa de las solicitudes que cruzan los límites de la infraestructura, ya sea de AWS Lambda, contenedores, hosts on-prem o servicios gestionados.
+#### Propagación de contextos con la integración X-Ray
Si `dd-trace` está instalado en tus hosts con el Datadog Agent y tus funciones serverless de Node.js o Python se rastrean con AWS X-Ray, tu configuración debe ser similar a la siguiente:
1. Instalaste la [integración de AWS X-Ray][18] para rastrear tus funciones de Lambda, para lo cual habilitaste el rastreo activo de AWS X-Ray e instalaste las bibliotecas de clientes de X-Ray.
-2. Instalaste la [Biblioteca de Lambda de Datadog para tu tiempo de ejecución de Lambda][5] y definiste la variable de entorno `DD_TRACE_ENABLED` como `false`.
+2. Has instalado la [biblioteca Datadog Lambda para tu tiempo de ejecución Lambda][5] y la variable de entorno `DD_TRACE_ENABLED` está configurada como `true`.
3. [Datadog APM][20] está configurado en tu infraestructura basada en hosts y contenedores.
Entonces, para que las trazas de X-Ray y Datadog APM aparezcan en el mismo gráfico de llamas, todos los servicios deben tener la misma etiqueta `env`.
@@ -174,11 +216,11 @@ Entonces, para que las trazas de X-Ray y Datadog APM aparezcan en el mismo gráf
### Configuración necesaria
-A veces es necesario aplicar instrumentación adicional para ver una traza única y conectada en aplicaciones serverless de Node y Python que activan funciones de Lambda de forma asíncrona. Si recién estás empezando con la monitorización de aplicaciones serverless en Datadog, [sigue nuestros pasos de instalación principales][21] y [lee esta página sobre cómo elegir una biblioteca de rastreo][22]. Una vez que ya estés enviando trazas desde tus funciones de Lambda a Datadog mediante la [Biblioteca de Lambda de Datadog][23], quizás quieras seguir estos pasos para conectar trazas entre dos funciones de Lambda en casos como los siguientes:
+A veces es necesario aplicar instrumentación adicional para ver una traza única y conectada en aplicaciones serverless de Node y Python que activan funciones de Lambda de forma asíncrona. Si recién estás empezando con la monitorización de aplicaciones serverless en Datadog, [sigue nuestros pasos de instalación principales][21] y [lee esta página sobre cómo elegir una biblioteca de rastreo][22]. Una vez que ya estés enviando trazas desde tus funciones de Lambda a Datadog mediante la [biblioteca Lambda de Datadog][23], quizás quieras seguir estos pasos para conectar trazas entre dos funciones de Lambda en casos como los siguientes:
- Activación de funciones de Lambda a través de Step Functions
- Invocación de funciones de Lambda a través de protocolos no HTTP como MQTT
-El rastreo de muchos de los servicios administrados de AWS (enumerados [aquí][24]) ya está listo para usar y no requiere seguir los pasos descritos en esta página.
+El rastreo de muchos de los servicios gestionados de AWS (enumerados [aquí][24]) ya está listo para usar y no requiere seguir los pasos descritos en esta página.
Para conectar correctamente el contexto de rastreo entre los recursos que envían trazas, debes hacer lo siguiente:
- Incluye el contexto de rastreo de Datadog en los eventos salientes. El evento saliente puede originarse en un host o en función de Lambda con `dd-trace` instalado.
@@ -186,7 +228,7 @@ Para conectar correctamente el contexto de rastreo entre los recursos que envía
### Traspaso del contexto de rastreo
-Los siguientes ejemplos de código describen cómo pasar el contexto de rastreo en las cargas útiles salientes a servicios que no admiten encabezados HTTP o a servicios administrados que Datadog no admite [de forma nativa][24] en Node y Python:
+Los siguientes ejemplos de código describen cómo pasar el contexto de rastreo en las cargas útiles salientes a servicios que no admiten encabezados HTTP o a servicios gestionados que Datadog no admite [de forma nativa][24] en Node y Python:
{{< tabs >}}
{{% tab "Python" %}}
@@ -359,3 +401,10 @@ Si ya rastreas tu aplicación serverless con X-Ray y quieres seguir utilizándol
[25]: /es/tracing/trace_collection/custom_instrumentation/
[26]: /es/serverless/guide/handler_wrapper/
[27]: /es/profiler/
+[28]: https://docs.aws.amazon.com/AmazonS3/latest/userguide/EventNotifications.html
+[29]: https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/Streams.html
+[30]: https://docs.datadoghq.com/es/tracing/trace_explorer/trace_view/?tab=spanlinksbeta
+[31]: https://github.com/DataDog/dd-trace-py/
+[32]: https://github.com/DataDog/dd-trace-js/
+[33]: https://github.com/DataDog/datadog-lambda-python
+[34]: https://github.com/DataDog/datadog-lambda-js
\ No newline at end of file
diff --git a/content/es/service_management/on-call/guides/migrating-from-your-current-providers.md b/content/es/service_management/on-call/guides/migrating-from-your-current-providers.md
new file mode 100644
index 0000000000000..50a672e551f27
--- /dev/null
+++ b/content/es/service_management/on-call/guides/migrating-from-your-current-providers.md
@@ -0,0 +1,154 @@
+---
+further_reading:
+- link: /service_management/on-call/
+ tag: Documentación
+ text: On-Call
+- link: /service_management/incident_management/
+ tag: Documentación
+ text: Gestión de incidentes
+title: Migrar desde tu actual proveedor de servicios de guardia
+---
+
+La migración desde tu actual proveedor de servicios de guardia a [Datadog On-Call][1] permite a los equipos centralizar la monitorización y la respuesta ante incidentes, reducir la complejidad de las alertas y unificar la monitorización y la respuesta ante incidentes. Esta guía te proporciona una estrategia por fases para ayudarte a planificar, probar y finalizar con éxito una migración.
+
+Muchas organizaciones empiezan probando Datadog On-Call con un pequeño número de equipos para comprobar la funcionalidad y evaluar su aptitud operativa. Partiendo de esa base, esta guía te mostrará los pasos clave para pasar de la evaluación a la adopción plena en producción.
+
+Aprenderás a:
+
+- Crear un inventario y evaluar la configuración actual de tus servicios de guardia
+- Configurar Datadog On-Call en función de la estructura de tu equipo y de las vías de escalado
+- Validar los flujos de trabajo de enrutamiento y escalado de alertas
+- Desconectarte de tu proveedor legacy de forma segura
+- Monitorizar, mantener y escalar tus nuevos procesos de guardia
+
+La guía también incluye listas de validación, estrategias de reversión y salvaguardas para garantizar una transición fiable y de bajo riesgo.
+
+**¿Quién debe utilizar esta guía?**
+
+Esta guía está dirigida a los ingenieros y las partes interesadas que participan en la migración de servicios de guardia, incluyendo ingenieros de fiabilidad del sitio (SRE), ingenieros de DevOps, jefes de equipo y otras personas responsables de configurar o gestionar los flujos de trabajo de respuesta ante incidentes.
+
+## Crear un inventario y asignar tu configuración actual
+
+Empieza por crear un inventario de todas las herramientas que actualmente llaman a tu equipo de guardia. Esto incluye:
+
+- Monitorización de plataformas (como Datadog, CloudWatch y Prometheus)
+- Sistemas de tickets (como Jira y Zendesk)
+- Herramientas personalizadas de alertas o flujos de trabajo
+
+Para cada herramienta, documenta el método de integración actual, ya sea a través de integraciones nativas, webhooks, ingestión de correo electrónico o scripts personalizados.
+
+Al evaluar la configuración actual de tus servicios de guardia, empieza a identificar cómo se traducirán sus componentes (horarios, rutas de escalado, anulaciones y grupos de respuesta) en el modelo de configuración de Datadog On-Call. Esta es también una buena oportunidad para simplificar una lógica de escalado compleja u obsoleta y estandarizar las políticas entre los equipos. Evita migrar configuraciones que no se utilizan o legacy, a menos que exista una clara necesidad operativa de conservarlas.
+
+Para favorecer una fase de configuración continua, asegúrate de obtener:
+
+- Controles de acceso y permisos del equipo
+- Asignación de intervinientes de emergencia y preferencias de notificación
+- Anular Windows y expectativas de transición
+
+Un modelo de alerta unificado en Datadog puede ayudar a reducir la carga operativa y mejorar la visibilidad, pero solo si tus entradas están claramente definidas y cuidadosamente asignadas desde el principio.
+
+## Diseñar tu estrategia de migración
+
+El éxito de una migración depende de un plan claro y por fases que alinee a las partes interesadas, reduzca los riesgos y mantenga abierta la comunicación. Divide tu migración en etapas controlables:
+
+1. **Detección**: Documenta flujos de trabajo actuales, integraciones, reglas de alerta y requisitos del equipo.
+2. **Configuración**: Configura Datadog On-Call en función de tu configuración actual y de las mejoras deseadas.
+3. **Validación y tests**: Confirma que las alertas se enrutan correctamente y que la lógica de escalado se comporta como se espera.
+4. **Traspaso**: Transición de la responsabilidad de alerta a Datadog On-Call, normalmente utilizando una ventana de enrutamiento doble.
+5. **Limpieza**: Pon fuera de servicio los sistemas legacy, verifica la estabilidad y actualiza la documentación y los libros de ejecución.
+
+Asigna responsables claros a cada fase y comunica los plazos con antelación. Utiliza un canal compartido (como Slack o Microsoft Teams) para coordinar tareas, compartir actualizaciones y señalar bloqueos en tiempo real.
+
+## Configurar Datadog On-Call
+
+Antes de empezar a configurar Datadog On-Call, revisa el concepto de [Equipos][4]. Los equipos son la base de los servicios de guardia y se utilizan para definir:
+
+- Horarios
+- Políticas de escalado
+- Reglas de notificación
+- Propiedad de los incidentes
+
+Después de revisar el modelo de equipo y asignar tus recursos existentes, ya puedes configurar Datadog On-Call para reflejar tu estructura deseada.
+
+Si estás migrando desde PagerDuty, Datadog proporciona una
herramienta de migración exclusiva que puede ayudarte a importar selectivamente horarios y políticas de escalado. Utilízala durante la configuración para reducir el esfuerzo manual y evitar migrar configuraciones que no se utilizan.
+
+Durante la configuración, asegúrate de:
+
+- Revisar los permisos del equipo y el control de acceso
+- Definir los intervinientes de emergencia y las preferencias de notificación
+- Configurar la anulación de Windows y las expectativas de transición de los servicios de guardia
+
+Una configuración minuciosa garantiza un traspaso continuo y ayuda a los equipos a responder eficientemente desde el primer día.
+
+## Validar y monitorizar la migración
+
+Antes de poner fuera de servicio tu sistema legacy, realiza tests exhaustivos para confirmar que Datadog On-Call enruta, escala y notifica correctamente a todos los equipos de todos los escenarios de alerta.
+
+### Lista de validación
+
+- **Enrutar alertas de monitores críticos**: Identifica tus monitores con mayor gravedad y activa alertas de test para confirmar que se enrutan al equipo de Datadog On-Call adecuado. Asegúrate de que las entregas sean puntuales y que los metadatos estén correctos.
+- **Verificar cadenas de escalado**: Simula alertas no reconocidas para garantizar que los escalados siguen la secuencia prevista. Incluye escalados temporales y de respaldo. Confirma la recepción por parte de todos los intervinientes previstos.
+- **Verificar canales de notificación**: Asegúrate de que los miembros del equipo reciben alertas a través de todos los métodos configurados, incluyendo correo electrónico, SMS, notificaciones push y voz. Pide a los destinatarios que confirmen la entrega y la claridad del contenido.
+- **Probar anulaciones y transiciones**: Configura una anulación temporal para un miembro del equipo y confirma que las alertas se enrutan correctamente durante ese periodo. Repítelo con una transición entre turnos para detectar casos extremos.
+- **Confirmar la visibilidad en Slack o Teams**: Activa una alerta de prueba y confirma que aparece en los canales de incidentes de Slack o Teams con las etiquetas (tags), la propiedad y los enlaces correctos para confirmarla o resolverla.
+- **Simular incidentes en Synthetic**: Activa manualmente alertas de Synthetic o utiliza monitores ficticios para probar flujos de trabajo completos de incidencias, incluyendo el reconocimiento, el escalado y la resolución.
+- **Cobertura de horarios de auditoría**: Revisa minucioisamente los horarios del equipo para asegurarte de que no queden horas sin cubrir, incluyendo fechas festivas y fines de semana.
+- **Comparar con el proveedor legacy**: Si utilizas el enrutamiento dual, comprueba que ambos sistemas reciben alertas y siguen un comportamiento de escalado similar. Registra y resuelve cualquier discrepancia antes del traspaso.
+
+### Enrutamiento dual en la práctica
+
+Muchas organizaciones optan por ejecutar un enrutamiento dual durante la validación, enviando alertas en paralelo a su proveedor legacy y a Datadog On-Call. Esto permite a los equipos:
+
+- Comparar el enrutamiento de las alertas y el comportamiento del escalado en tiempo real
+- Confirmar que no existen lagunas entre los sistemas
+- Reducir el riesgo durante el periodo de transición
+
+Utiliza el [editor de monitores en bloque][3] de Datadog para añadir identificadores de Datadog On-Call junto con los destinos existentes. Una vez que hayas confirmado el rendimiento y la cobertura, podrás eliminar las rutas de alerta legacy y finalizar el traspaso.
+
+### Monitorizar la migración
+
+Utiliza dashboards de Datadog para observar el rendimiento de la migración en tiempo real. Controla:
+
+- Volumen de alertas por proveedor
+- Latencia de confirmación y escalado
+- Incidencias que no cuentan con la propiedad de un equipo
+
+Estas señales ayuda a confirmar la preparación, a detectar errores de configuración y a señalar problemas antes del traspaso completo.
+
+## Desconectar y retirar sistemas legacy
+
+Una vez completada la confirmación y cuando todos los equipos utilicen activamente Datadog On-Call, comienza a retirar tu proveedor legacy. Para minimizar las interrupciones, la mayoría de los equipos lo hacen de forma gradual:
+
+- Retirando primero las vías de alerta de baja gravedad o poco frecuentes
+- Eliminando horarios, políticas de escalado y claves de enrutamiento obsoletos
+- Archivando las configuraciones legacy o expórtandolas como documentación de referencia
+
+Comprueba minuciosamente que todos los monitores apuntan exclusivamente a Datadog On-Call y que las integraciones legacy ya no están en uso. Si durante el periodo de enrutamiento dual se detectan incoherencias o lagunas, resuélvelas antes de finalizar el traspaso.
+
+Finalizar este paso garantiza una transición limpia y elimina el riesgo de confundir o pasar por alto las alertas durante la respuesta a incidentes.
+
+## Sostener y escalar la práctica de tus servicios de guardia
+
+Una vez finalizada la migración principal a Datadog On-Call, céntrate en las operaciones a largo plazo y en la mejora continua. Utiliza las siguientes prácticas para mantener la buena salud de tus procesos de guardia, mantener la preparación del equipo y desarrollar tu configuración a medida que crecen tus necesidades.
+
+- **Establecer una responsabilidad permanente**: Asigna a tu equipo una clara responsabilidad de Datadog On-Call. Esto incluye el mantenimiento de los horarios, la incorporación de nuevos intervinientes y la adaptación a los cambios de las funciones a lo largo del tiempo.
+- **Incorporar análisis retrospectivos**: Revisa los incidentes ocurridas durante o después de la migración para identificar cualquier problema de escalado o alerta que se haya pasado por alto. Incorpora estas lecciones a tu documentación de tests y libros de ejecución.
+- **Realizar un seguimiento del estado de los servicios de guardia**: Utiliza [On-Call Analytics][8] para monitorizar el volumen de alertas por interviniente, las tendencias MTTA/MTTR, la fatiga de las notificaciones y los escalados recurrentes.
+- **Mantenerse al día**: Suscríbete a las [actualizaciones del producto Incident Response][9] para mantenerte al día con las nuevas funciones, mejoras y funciones obsoletas.
+- **Profundizar en tu conocimiento del producto**: Explora la documentación de Datadog sobre [Gestión de incidentes][6], [Horarios][7] e [Integraciones][2] para ampliar tu uso de la plataforma.
+- **Únete a la comunidad**: Conéctate con colegas e ingenieros de Datadog en la [Datadog Slack Community][10] para compartir las prácticas recomendadas, obtener consejos y dar tu opinión.
+- **Programar una evaluación retrospectiva**: Entre 30 y 60 días después de la migración, organiza una evaluación retrospectiva para reunir las lecciones aprendidas y actualizar la documentación, las guías internas y los planes de tests.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/on-call/
+[2]: /es/integrations/
+[3]: /es/monitors/notify/#bulk-editing-monitor--handles
+[4]: /es/service_management/on-call/teams/
+[6]: /es/service_management/incident_management
+[7]: /es/service_management/on-call/schedules/
+[8]: https://app.datadoghq.com/on-call/analytics
+[9]: https://app.datadoghq.com/release-notes?category=Incident%20Response
+[10]: https://chat.datadoghq.com/
\ No newline at end of file
diff --git a/content/es/synthetics/browser_tests/test_results.md b/content/es/synthetics/browser_tests/test_results.md
index ae891744e3421..758ec00bbb4d2 100644
--- a/content/es/synthetics/browser_tests/test_results.md
+++ b/content/es/synthetics/browser_tests/test_results.md
@@ -43,11 +43,11 @@ En la sección **Historial**, puedes ver tres gráficos:
{{< img src="synthetics/browser_tests/history.png" alt="Sección Historial y ejecuciones de muestra, en la página de detalles de tests" style="width=80%" >}}
-## Resultados de muestra
+## Resultados de ejemplo
Las ejecuciones de tests de navegador incluyen componentes como [capturas de pantalla](#screenshots-and-actions), [datos de rendimiento de página](#page-performance), [errores](#errors-and-warnings), [recursos](#resources) y [trazas (traces) de backend](#backend-traces) para ayudar a solucionar [tests fallidos](#failed-results).
-En la sección **Ejecuciones de muestra**, se pueden analizar las ejecuciones de tests fallidas más recientes y compararlas con las ejecuciones de tests que han tenido éxito recientes.
+En la sección **Ejecuciones de ejemplo**, se pueden analizar las ejecuciones de tests fallidas más recientes y compararlas con ejecuciones de tests recientes superadas.
### Atributos de información general
@@ -80,7 +80,7 @@ Tipo de ejecución
### Sesiones RUM
-Para ver sesiones asociadas y reproducciones disponibles en el [Explorador RUM][22], haz clic en **Ver Sesión en RUM**. Para acceder a una sesión de usuario para realizar una acción o un paso específico en [Session Replay][23], haz clic en **Reproducir sesión**. Para obtener más información, consulta [Explorar RUM y Session Replay en Synthetics][16].
+Para ver sesiones relacionadas y reproducciones disponibles en el [Explorador RUM][22], haz clic en **View Session in RUM** (Ver Sesión en RUM). Para acceder a una sesión de usuario para ver una acción o un paso específico en [Session Replay][23], haz clic en **Replay Session** (Reproducir sesión). Para obtener más información, consulta [Explorar RUM y Session Replay en Synthetic Monitoring][16].
### Capturas de pantalla y acciones
@@ -113,7 +113,7 @@ Se pueden filtrar los recursos por tipo y realizar una búsqueda por nombre en l
{{< img src="synthetics/browser_tests/resources_panel.png" alt="Panel de recursos" style="width:100%" >}}
Tiempo relativo
-: La duración del recurso durante el tiempo total de interacción.
+: momento en el que el recurso comenzó a cargarse durante el paso de test.
CDN
: El proveedor CDN que ha proporcionado el recurso. Pasa el cursor sobre el icono de un proveedor CDN para ver el estado del cache sin procesar.
diff --git a/content/es/synthetics/guide/email-validation.md b/content/es/synthetics/guide/email-validation.md
index df4f1adfda928..0d172977c5b96 100644
--- a/content/es/synthetics/guide/email-validation.md
+++ b/content/es/synthetics/guide/email-validation.md
@@ -8,6 +8,7 @@ further_reading:
- link: /synthetics/browser_tests/advanced_options/
tag: Documentación
text: Configurar opciones avanzadas en los pasos
+site_support_id: synthetics_email_validation
title: Utiliza la validación de correo electrónico en los tests de navegador
---
@@ -24,7 +25,7 @@ Para añadir una variable de correo electrónico llamada `EMAIL`, sigue estos pa
1. Haz clic en **Variables** y selecciona **Email** (Correo electrónico) en el menú desplegable.
2. Haz clic en **Add Variable** (Añadir variable) para que puedas usar la variable cuando empieces a grabar.
-{{< img src="synthetics/guide/email-validation/adding-variable.mp4" alt="Crear una variable de correo electrónico" video="true" width="100%">}}
+{{< img src="synthetics/guide/email-validation/adding-variable-email.mp4" alt="Crear una variable de email" video="true" width="100%">}}
La variable de correo electrónico genera un buzón único de cuyo mantenimiento se encarga Datadog cada vez que se ejecuta el test, lo que permite que los tests de navegador se desarrollen sin ningún conflicto.
@@ -34,7 +35,7 @@ Cuando has creado la variable de correo electrónico, puedes [confirmar que el c
Haz clic en **Start Recording** (Iniciar grabación) y graba todos los pasos que hacen que el correo se active con la variable de correo electrónico. Haz clic en el icono de la mano de una de las variables para introducir su valor en la entrada de texto de un formulario o un campo.
-{{< img src="synthetics/guide/email-validation/record-steps.mp4" alt="Grabar los pasos" video="true" width="100%">}}
+{{< img src="synthetics/guide/email-validation/record_steps_2.mp4" alt="Registrar tus pasos" video="true" width="100%">}}
Después de haber grabado los pasos para completar el formulario, haz clic en el botón **Sign Up** (Registro) para activar una notificación por correo electrónico. Con ello, se envía un mensaje específico de la sesión de grabación al buzón de Datadog; por ejemplo, `838-n3q-q2y.6238933596@synthetics.dtdg.co`.
@@ -42,9 +43,9 @@ Después de haber grabado los pasos para completar el formulario, haz clic en el
Para confirmar que se ha enviado el correo electrónico, haz clic en **Assertion** (Aserción) y selecciona **Test that an email was received** (Comprobar que se ha recibido un correo electrónico). Si quieres asegurarte de que el contenido del correo electrónico se adhiere a unas directrices concretas, puedes añadir más verificaciones que engloben el asunto y el cuerpo.
-{{< img src="synthetics/guide/email-validation/assertion-step.mp4" alt="Añadir una aserción" video="true" width="100%">}}
+{{< img src="synthetics/guide/email-validation/assertion-step_2.mp4" alt="Añadir una afirmación" video="true" width="100%">}}
-En este ejemplo, la aserción da buen resultado si el asunto es `Welcome to Shopist!`, si el cuerpo contiene `Your verification code is...` y si el código de verificación se ajusta a la expresión regular `\d{1,6}`.
+En este ejemplo, la aserción tiene éxito si el asunto del email contiene `Welcome to Shopist!`, el cuerpo contiene la frase `Your verification code is...` y el código de verificación coincide con el patrón de expresión regular `\d{1,6}`.
### Desplazarse por los enlaces de un correo electrónico
diff --git a/content/es/tests/browser_tests.md b/content/es/tests/browser_tests.md
new file mode 100644
index 0000000000000..b26aceefa50d4
--- /dev/null
+++ b/content/es/tests/browser_tests.md
@@ -0,0 +1,70 @@
+---
+aliases:
+- /es/continuous_integration/guides/rum_integration
+- /es/continuous_integration/integrate_tests/browser_tests
+- /es/continuous_integration/tests/browser_tests
+description: Aprende a utilizar CI Visibility y RUM para conectar los resultados de
+ tus tests con sesiones de navegador y repeticiones de sesión.
+further_reading:
+- link: /continuous_integration/tests
+ tag: Documentación
+ text: Más información sobre Test Optimization
+- link: /real_user_monitoring/browser
+ tag: Documentación
+ text: Más información sobre la monitorización de navegador de RUM
+title: Instrumentar tus tests de navegador con RUM
+---
+
+## Información general
+
+Test Optimization se integra con Datadog [Real User Monitoring][2] para proporcionarte las herramientas para un análisis profundo de tus tests de navegador.
+
+### Compatibilidad
+
+Para habilitar la integración de RUM, asegúrate de que [Test Optimization][1] está configurado para tus tests y que la aplicación que se está testeando está instrumentada con [RUM][2].
+
+La integración de RUM es compatible con los tests de navegador de Cypress y los tests de navegador de Selenium.
+
+#### Cypress
+
+* `cypress` >= 6.7.0
+* `dd-trace-js` >= 1.7.0
+* `browser-sdk` >= 3.11.0
+
+#### Selenium
+
+* `selenium-js` >= 4.11.0, `dd-trace-js` >= 5.11.0 / >= 4.35.0
+* `selenium-java` >= 3.141.59, `dd-trace-java` >= 1.34.0
+* `selenium-dotnet` >= 3.0.0, `dd-trace-dotnet` >= 2.51.0
+* `selenium-ruby` >= 4.0.0, `datadog-ci` >= 1.0.0.beta6
+* `browser-sdk` >= 5.15.0
+
+#### Playwright
+
+* `playwright` >= 1.38.0
+* `dd-trace-js` >= 5.46.0
+* `browser-sdk` >= 5.15.0
+
+
+Desde el SDK de navegador v5.0.0, activa el parámetro de inicialización `allowUntrustedEvents` durante los tests para capturar correctamente los clics.
+
+
+## Conectar tests de navegador y RUM
+
+Si utilizas Cypress, Selenium o Playwright para ejecutar tus tests de navegador y la aplicación que se está testeando está instrumentada mediante [Real User Monitoring][2], tus resultados de test y sus sesiones de navegador de RUM generadas y las repeticiones de sesión se vinculan automáticamente.
+
+En el panel lateral de detalles del test en Test Optimization aparece una pestaña **Browser Sessions** (Sesiones de navegador).
+
+{{< img src="ci/ci-browser-session-tab.png" alt="Pestaña de sesión de navegador en los detalles de test" style="width:100%;">}}
+
+La sesión de RUM tiene todos los datos que [RUM normalmente recopila][3] para que puedas depurar posibles problemas en tus tests de navegador, como errores inesperados.
+
+{{< img src="ci/ci-browser-session-tab-errors.png" alt="Errores de pestaña de sesión de navegador en los detalles del test" style="width:100%;">}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/tests/setup/
+[2]: /es/real_user_monitoring/browser/
+[3]: /es/real_user_monitoring/browser/data_collected/
\ No newline at end of file
diff --git a/content/es/tests/troubleshooting/_index.md b/content/es/tests/troubleshooting/_index.md
index ee0a803c3a22a..ef8f138fdbe13 100644
--- a/content/es/tests/troubleshooting/_index.md
+++ b/content/es/tests/troubleshooting/_index.md
@@ -1,20 +1,24 @@
---
-null
-...
+further_reading:
+- link: /continuous_integration/tests
+ tag: Documentación
+ text: Para aprender a monitorizar tus tests CI
+title: Solucionar problemas de la Optimización de tests
---
## Información general
-Esta página proporciona información para ayudarte a solucionar problemas de visibilidad de tests. Si necesita más ayuda, ponte en contacto con el [servicio de asistencia de Datadog][2].
+Este página proporciona información para ayudarte a solucionar problemas con Test Optimization (Optimización de tests). Si necesitas ayuda adicional, ponte en contacto con el [soporte de Datadog][2].
## Tus tests están instrumentados, pero Datadog no muestra ningún dato
1. Ve a la página [**Tests**][3] del lenguaje que estás instrumentando. En la sección **Compatibilidad**, comprueba que el marco para tests que estás utilizando es compatible.
2. Fíjate si ves los resultados de algún test en la sección [**Ejecuciones de tests**][4]. Si ves resultados allí, pero no en la sección [**Tests**][5], esto significa que falta información de Git. Para solucionarlo, consulta [Los datos aparecen en las ejecuciones de tests pero no en los tests](#data-appears-in-test-runs-but-not-tests).
-3. Si estás informando los datos a través del Datadog Agent, asegúrate de que se está ejecutando en el host donde se ejecutan los tests (accesible en `localhost:8126`). Si es accesible en otro nombre de host o puerto, asegúrate de ejecutar tus tests con el nombre de host del Agent apropiado, definido en el `DD_AGENT_HOST`, y el puerto apropiado, en las variables de entorno `DD_TRACE_AGENT_PORT`. Puedes activar el [modo de depuración][6] en el rastreador para comprobar si puede conectarse al Agent.
-4. Si sigues sin ver resultados, [ponte en contacto con el servicio de asistencia][2] para recibir ayuda y solucionar el problema.
+3. Si informas de los datos a través del Datadog Agent, asegúrate de que existe [conectividad de red][15] desde tu host de ejecución de tests al host y puerto del Agent. Ejecuta tus tests con el nombre de host apropiado del Agent establecido en la variable de entorno `DD_AGENT_HOST` y el puerto apropiado en la variable de entorno `DD_TRACE_AGENT_PORT`. Puedes activar el [modo de depuración][6] en el rastreador para verificar la conectividad con el Agent.
+4. Si estás enviando los datos directamente a Datadog ("modo sin Agent"), asegúrate de que existe la [conectividad de red][16] desde los hosts que ejecutan tests a los hosts de Datadog. Puedes activar el [modo de depuración][6] en el rastreador para verificar la conectividad con Datadog.
+5. Si sigues sin ver resultados, [ponte en contacto con el servicio de asistencia][2] para recibir ayuda y solucionar el problema.
-## Está cargando informes de tests JUnit con `datadog-ci` pero faltan algunos o todos los tests
+## Estás cargando informes de tests JUnit con `datadog-ci` pero faltan algunos o todos los tests
Si estás cargando archivos de informes de tests JUnit con la CLI `datadog-ci` y no ves los tests, es probable que los tests se estén descartando debido a que el informe se considera incorrecto.
Los siguientes aspectos hacen que un informe de test JUnit sea incorrecto:
@@ -23,16 +27,16 @@ Los siguientes aspectos hacen que un informe de test JUnit sea incorrecto:
## Los datos aparecen en las ejecuciones de tests pero no en los tests
-Si puedes ver los datos de los resultados de los tests en la pestaña **Test Runs** (Ejecuciones de tests), pero no en la pestaña **Tests**, es probable que falten metadatos de Git (repositorio, confirmación o rama). Para confirmar que este es el caso, abre una ejecución de test en la sección [**Ejecuciones de tests**][4] y comprueba que no hay `git.repository_url`, `git.commit.sha` o `git.branch`. Si estas etiquetas (tags) no están rellenadas, no se muestra nada en la sección [**Tests**][5].
+Si puedes ver los datos de los resultados de los tests en la pestaña **Test Runs** (Ejecuciones de tests), pero no en la pestaña **Tests**, es probable que falten metadatos de Git (repositorio, confirmación o rama). Para confirmar que este es el caso, abre una ejecución de test en la sección [**Ejecuciones de tests**][4] y comprueba que no hay etiquetas `git.repository_url`, `git.commit.sha` o `git.branch`. Si estas etiquetas (tags) no están rellenadas, no se muestra nada en la sección [**Tests**][5].
-1. Los rastreadores utilizan primero las variables de entorno, si las hay, configuradas por el proveedor CI para recopilar información de Git. Para ver una lista de las variables de entorno que el rastreador intenta leer para cada proveedor CI compatible, consulta la [ejecución de tests dentro de un contenedor][7]. Como mínimo, esto rellena el repositorio, el hash de confirmación y la información de la rama.
+1. Los rastreadores utilizan primero las variables de entorno, si las hay, configuradas por el proveedor CI, para recopilar información de Git. Para ver una lista de las variables de entorno que el rastreador intenta leer para cada proveedor CI compatible, consulta la [ejecución de tests dentro de un contenedor][7]. Como mínimo, esto rellena el repositorio, el hash de confirmación y la información de la rama.
2. A continuación, los rastreadores obtienen los metadatos de Git utilizando la carpeta local `.git`, si está presente, mediante la ejecución de comandos `git`. Esto rellena todos los campos de metadatos de Git, incluyendo el mensaje de confirmación, el autor y la información del autor de la confirmación. Asegúrate de que la carpeta `.git` está presente y que el binario `git` está instalado y en `$PATH`. Esta información se utiliza para rellenar los atributos no detectados en el paso anterior.
3. También puedes proporcionar información de Git manualmente utilizando variables de entorno, que anulan la información detectada por cualquiera de los pasos anteriores.
Las variables de entorno admitidas para proporcionar información de Git son:
`DD_GIT_REPOSITORY_URL` **(Obligatorio)**
- : La URL del repositorio donde se almacena el código. Se admiten tanto URL HTTP como SSH.
+ : La URL del repositorio donde se almacena el código. Se admiten URL tanto HTTP como SSH.
**Ejemplo**: `git@github.com:MyCompany/MyApp.git`, `https://github.com/MyCompany/MyApp.git`
`DD_GIT_COMMIT_SHA` **(Obligatorio)**
@@ -40,7 +44,7 @@ Si puedes ver los datos de los resultados de los tests en la pestaña **Test Run
**Ejemplo**: `a18ebf361cc831f5535e58ec4fae04ffd98d8152`
`DD_GIT_BRANCH`
- : La rama Git a la que se realizan tests. Déjala vacía si se proporciona información de etiquetas.
+ : La rama de Git a la que se realizan tests. Déjala vacía si se proporciona información de etiquetas.
**Ejemplo**: `develop`
`DD_GIT_TAG`
@@ -75,7 +79,7 @@ Si puedes ver los datos de los resultados de los tests en la pestaña **Test Run
: La fecha de confirmación del autor de la confirmación en formato ISO 8601.
**Ejemplo**: `2021-03-12T16:00:28Z`
-4. Si no se encuentras ninguna variable de entorno del proveedor CI, los resultados de los tests se envían sin metadatos de Git.
+4. Si no se encuentra ninguna variable de entorno del proveedor CI, los resultados de los tests se envían sin metadatos de Git.
### El tiempo total del test está vacío
Si no puedes ver el tiempo total del test, es probable que la visibilidad a nivel del conjunto de tests no esté habilitada. Para confirmar, comprueba si tu lenguaje es compatible con la visibilidad a nivel del conjunto de tests en [Características admitidas][14]. Si la visibilidad a nivel del conjunto de tests es compatible, actualiza tu rastreador a la última versión.
@@ -92,16 +96,16 @@ El tiempo total se define como la suma de las duraciones máximas de las sesione
## Los números de estado de los tests no son los esperados
-Los números de estado de los tests se calculan a partir de los tests únicos que se han recopilado. La singularidad de un test se define no sólo por su conjunto y su nombre, sino también por sus parámetros y configuraciones de tests.
+Los números de estado de los tests se calculan a partir de los tests individuales que se han recopilado. La singularidad de un test se define no sólo por su conjunto y su nombre, sino también por sus parámetros y configuraciones de tests.
### Los números son más bajos de lo esperado
-Si los números son más bajos de lo esperado, es probable que la librería o la herramienta que estás utilizando para recopilar los datos de tests no puedan recopilar parámetros de tests o algunas configuraciones de tests.
+Si los números son más bajos de lo esperado, es probable que la biblioteca o la herramienta que estás utilizando para recopilar los datos de tests no puedan recopilar parámetros de tests o algunas configuraciones de tests.
1. Si estás cargando archivos de informes de tests JUnit:
- 1. Si estás ejecutando los mismos tests en entornos con diferentes configuraciones, [asegúrate de que estás definiendo esas etiquetas de configuración durante la carga][10].
+ 1. Si estás ejecutando los mismos tests en entornos con diferentes configuraciones, [asegúrate de definir esas etiquetas de configuración durante la carga][10].
2. Si estás ejecutando tests parametrizados, es muy probable que el informe JUnit no tenga esa información. [Prueba a utilizar una biblioteca nativa para informar de los datos de los tests][3].
-2. Si sigues sin ver resultados esperados, [ponte en contacto con el servicio de asistencia][2] para recibir ayuda y solucionar el problema.
+2. Si sigues sin ver los resultados esperados, [ponte en contacto con el servicio de asistencia][2] para recibir ayuda y solucionar el problema.
### Los números aprobados/fallados/omitidos son diferentes de los esperados
@@ -133,19 +137,45 @@ La rama por defecto se utiliza para alimentar algunas funciones de los productos
### Cómo reparar la rama por defecto
-Si tienes acceso de administrador, puedes actualizar desde la [página de configuración del repositorio][11].
+Si tienes acceso de administrador, puedes actualizarla desde la [página de configuración del repositorio][11].
## El historial de ejecución no está disponible para un caso de test específico
Otros síntomas del mismo problema son:
- Un caso de test que no se clasifica como defectuoso aunque muestre defectos.
-- Un caso de test que no puede ser omitido por [Intelligent Test Runner][12].
+- Una incidencia de test no puede ser omitida por [Test Impact Analisys][12].
Es probable que la [configuración del caso de test][13] sea inestable porque uno o varios de los parámetros del test no son deterministas (por ejemplo, incluyen la fecha actual o un número aleatorio).
La mejor forma de solucionar este problema es asegurarse de que los parámetros de test son los mismos en todas las ejecuciones de tests.
-## Leer más
+## Las pestañas de historial de sesión, rendimiento o cobertura de código solo muestran una única ejecución
+
+Es probable que esto se deba a una huella de sesión inestable de test. Hay un conjunto de parámetros que Datadog comprueba para establecer la correspondencia entre las sesiones de test. El comando test utilizado para ejecutar los tests es uno de ellos. Si el comando test contiene una cadena que cambia en cada ejecución, como una carpeta temporal, Datadog considera que las sesiones no están relacionadas entre sí. Por ejemplo:
+
+- `yarn test --temp-dir=/var/folders/t1/rs2htfh55mz9px2j4prmpg_c0000gq/T`
+- `mvn test --temp-dir=/var/folders/t1/rs2htfh55mz9px2j4prmpg_c0000gq/T`
+- `bundle exec rspec --temp-dir=/var/folders/t1/rs2htfh55mz9px2j4prmpg_c0000gq/T`
+- `dotnet test --results-directory /var/folders/t1/rs2htfh55mz9px2j4prmpg_c0000gq/T`
+
+Esto puede solucionarse utilizando la variable de entorno `DD_TEST_SESSION_NAME`. Utiliza `DD_TEST_SESSION_NAME` para identificar un grupo de tests. Los valores de ejemplo para esta etiqueta incluyen:
+
+- `unit-tests`
+- `integration-tests`
+- `smoke-tests`
+- `flaky-tests`
+- `ui-tests`
+- `backend-tests`
+
+## Test Impact Analysis no muestra ningún ahorro de tiempo
+
+Esto también está causado por una huella de sesión inestable de test. Consulta la sección [La pestaña de historial de sesión, rendimiento o cobertura de código solo muestra una única ejecución](#session-history-performance-or-code-coverage-tab-only-show-a-single-execution) para obtener más información.
+
+## Las etiquetas de gestión de tests defectuosos faltan o tienen un orden inesperado en los eventos de test
+
+Al reintentar un test defectuoso varias veces en un breve tramo de tiempo (menos de un segundo), los eventos de ejecución de test pueden contener etiquetas `@test.is_flaky`, `@test.is_known_flaky` o `@test.is_new_flaky` inesperadas. Se trata de una limitación conocida que se produce debido a una condición de velocidad en el sistema de detección de test defectuoso. En algunos casos, los eventos de ejecución de test pueden ser procesados fuera de orden, causando que las etiquetas no sigan el orden lógico de los eventos.
+
+## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
@@ -153,13 +183,15 @@ La mejor forma de solucionar este problema es asegurarse de que los parámetros
[2]: /es/help/
[3]: /es/continuous_integration/tests/
[4]: https://app.datadoghq.com/ci/test-runs
-[5]: https://app.datadoghq.com/ci/test-services
+[5]: https://app.datadoghq.com/ci/test-repositories
[6]: /es/tracing/troubleshooting/tracer_debug_logs
[7]: /es/continuous_integration/tests/containers/
[8]: https://github.com/travisjeffery/timecop
[9]: https://github.com/spulec/freezegun
[10]: /es/continuous_integration/tests/junit_upload/?tabs=linux#collecting-environment-configuration-metadata
[11]: https://app.datadoghq.com/source-code/repositories
-[12]: /es/continuous_integration/intelligent_test_runner/
+[12]: /es/tests/test_impact_analysis/
[13]: /es/tests/#parameterized-test-configurations
[14]: /es/tests/#supported-features
+[15]: /es/agent/configuration/network/
+[16]: /es/tests/network/
\ No newline at end of file
diff --git a/content/es/tracing/trace_explorer/visualize.md b/content/es/tracing/trace_explorer/visualize.md
index 932fa6f52d55b..2ca3008f4746f 100644
--- a/content/es/tracing/trace_explorer/visualize.md
+++ b/content/es/tracing/trace_explorer/visualize.md
@@ -1,10 +1,16 @@
---
+aliases:
+- /es/tracing/trace_search_and_analytics/request_flow_map
+- /es/tracing/trace_explorer/request_flow_map/
description: Visualiza tramos (spans) en una lista o agrega tramos en series temporales,
listas principales y mucho más.
further_reading:
- link: tracing/trace_explorer/
tag: Documentación
text: Trace Explorer
+- link: https://www.datadoghq.com/blog/apm-request-flow-map-datadog
+ tag: Blog
+ text: Más información sobre los mapas de flujo de solicitudes
title: Visualizaciones de tramos
---
@@ -14,21 +20,21 @@ Las visualizaciones definen cómo se muestran los datos de tramos consultados. S
## Vista de lista
-La vista de lista muestra una lista de tramos que coinciden con el contexto seleccionado, definido por el filtro [consulta de barra de búsqueda][1] y un [intervalo de tiempo][2].
+En la vista de lista se muestra una lista de tramos que coinciden con el contexto seleccionado, definido por el filtro [consulta de barra de búsqueda][1] y un [intervalo de tiempo][2].
En la tabla, selecciona qué información de interés deseas visualizar como columnas. Administra las columnas de una de las siguientes maneras:
-- interactuando con la fila de cabecera de la tabla para **ordenar**, **reorganizar** o **eliminar** columnas.
+- interactuando con la fila de cabecera de la tabla para **ordenar**, **reorganizar** o **eliminar** columnas; o
- seleccionando una faceta desde el panel de facetas de la izquierda o desde el panel lateral de trazas (traces) tras hacer clic en un tramo específico, para **añadir** una columna para un campo. También puedes añadir columnas con el botón **Optons** (**Opciones**).
{{< img src="tracing/trace_explorer/visualize/list_view_table_controls.mp4" alt="Configurar la tabla de visualización" vídeo=true style="width:80%;">}}
-El orden por defecto de tramos en la visualización de lista es por fecha y hora, con la tramos más recientes en primer lugar. Para visualizar tramos con el valor más bajo o más alto de una medida en primer lugar o para ordenar tramos lexicográficamente por el valor de una etiqueta (tag), especifica esa columna como columna **por**.
+El orden por defecto de tramos en la visualización de lista es por marca de tiempo, con la tramos más recientes en primer lugar. Para visualizar tramos con el valor más bajo o más alto de una medida en primer lugar o para ordenar tramos lexicográficamente por el valor de una etiqueta (tag), especifica esa columna como columna **por**.
La configuración de las columnas se almacena junto con otros elementos de tu contexto de solución de problemas en las vistas guardadas.
-El `Latency Breakdown` de la traza (trace) puede faltar en algunos tramos si la traza tiene un formato incorrecto o está incompleta. Por ejemplo, los muestreadores de errores y poco frecuentes capturan trozos de trazas (traces), sin la garantía de capturar la traza completa. En este caso, los datos se omiten para evitar mostrar información de latencia incoherente o engañosa que solo tendría sentido cuando la traza estuviera completa.
+El `Latency Breakdown` de la traza puede faltar en algunos tramos si la traza tiene un formato incorrecto o está incompleta. Por ejemplo, los muestreadores de errores y poco frecuentes capturan trozos de trazas (traces), sin la garantía de capturar la traza completa. En este caso, los datos se omiten para evitar mostrar información de latencia incoherente o engañosa que solo tendría sentido cuando la traza estuviera completa.
Cuando la consulta se filtra en tramos de errores, selecciona la opción **Agrupar en incidencias** para visualizar una lista de incidencias de [Rastreo de errores][5] en lugar de cada tramo de error. Haz clic en cualquier incidencia de la lista para abrir el panel de incidencias y acceder a información adicional sobre este grupo de errores.
@@ -42,7 +48,7 @@ En los detalles de la incidencia, haz clic en `See all errors` para ver cada tra
Utiliza las series temporales para visualizar la evolución de una [medida][3] (o un número de valores únicos de etiquetas) a lo largo de un intervalo de tiempo seleccionado y, opcionalmente, divide los datos en hasta tres etiquetas (agrupación).
-**Nota**: El [Explorador en vivo][4] (15 minutos) permite agrupar por una sola dimensión.
+**Nota**: El [Explorer en vivo][4] (15 minutos) permite agrupar por una sola dimensión.
Las vistas agregadas utilizan opciones de consulta adicionales, para definir la **dimensión de etiqueta medida**, las dimensiones por las que **agrupar** la consulta y el **periodo de agregación**. Por ejemplo:
@@ -50,7 +56,7 @@ Las vistas agregadas utilizan opciones de consulta adicionales, para definir la
{{< img src="tracing/trace_explorer/visualize/group_by_measured_dimension.png" alt="Dimensión medida" style="width:100%;">}}
-2. Selecciona la función de agregación para la medida de`Duration`. La selección de una medida permite elegir la función de agregación mientras que la selección de un atributo cualitativo muestra el número único.
+2. Selecciona la función de agregación para la medida de `Duration`. La selección de una medida permite elegir la función de agregación mientras que la selección de un atributo cualitativo muestra el número único.
{{< img src="tracing/trace_explorer/visualize/group_by_aggregation_function.png" alt="Función de agregación" style="width:100%;">}}
@@ -60,13 +66,13 @@ Las vistas agregadas utilizan opciones de consulta adicionales, para definir la
4. Selecciona si deseas mostrar un número de valores superiores o inferiores en función de la etiqueta seleccionada.
- {{< img src="tracing/trace_explorer/visualize/group_by_top_bottom.png" alt="X values superiores o inferiores" style="width:100%;">}}
+ {{< img src="tracing/trace_explorer/visualize/group_by_top_bottom.png" alt="X valores superiores o inferiores" style="width:100%;">}}
5. Selecciona el periodo de acumulación, por ejemplo, `10min`.
{{< img src="tracing/trace_explorer/visualize/group_by_rollup_period.png" alt="Período de acumulación" style="width:100%;">}}
-En la siguiente vista de series temporales de Trace Explorer se muestra la evolución de los diez principales nombres de recursos de la `shopist-web-ui` de servicio según el percentil 95 de `Duration` en las últimas cuatro horas:
+En la siguiente vista de series temporales de Trace Explorer, se muestra la evolución de los diez principales nombres de recursos de la `shopist-web-ui` de servicio según el percentil 95 de `Duration` en las últimas cuatro horas:
{{< img src="tracing/trace_explorer/visualize/timeseries_view.png" alt="Vista de series temporales" style="width:100%;">}}
@@ -90,7 +96,32 @@ En la siguiente tabla se muestra el número de tramos de errores por `Env`, `Ser
{{< img src="tracing/trace_explorer/visualize/table_view.png" alt="Vista de tabla" style="width:100%;">}}
-## Leer más
+## Mapa de flujos de solicitudes
+
+Los [mapas de flujo de solicitudes][6] combinan las funciones de [mapas de servicios][7] y [exploración en directo][8] de APM para ilustrar las rutas de las solicitudes en tu stack tecnológico. Delimita tus trazas (traces) a cualquier combinación de etiquetas y genera un mapa dinámico que represente el flujo de solicitudes entre cada servicio.
+
+{{< img src="tracing/live_search_and_analytics/request_flow_map/Overview.png" style="width:100%; background:none; border:none; box-shadow:none;" alt="Mapa de flujo de solicitudes que muestra el flujo de solicitudes entre servicios, así como la hora de las solicitudes y las tasas de error" >}}
+
+Por ejemplo, puedes utilizar los mapas de flujo de solicitudes para identificar los servicios con tráfico elevado o realizar un seguimiento del número de llamadas a la base de datos generadas por una solicitud a un endpoint específico. Si utilizas [despliegues de sombra][9] o marcadores de características configurados como etiquetas (tags) de tramos personalizadas, puedes utilizar mapas de flujo de solicitudes para comparar las latencias de las solicitudes entre ellas y anticipar cómo afectarán los cambios de código al rendimiento.
+
+### Navegar por el mapa de flujo de solicitudes
+
+- Pasa el cursor sobre el borde que conecta dos servicios para ver métricas de solicitudes, errores y latencias entre esos servicios. **Nota**: Los bordes resaltados representan las conexiones de mayor rendimiento, o las rutas más comunes.
+
+- Haz clic en **Export** (Exportar) para guardar una imagen PNG del mapa de flujo de solicitudes actual. Utiliza esta función para generar un diagrama de arquitectura en directo o uno limitado a un flujo de usuario específico.
+
+- Haz clic en cualquier servicio del mapa para ver métricas de salud, de rendimiento, de infraestructura y de tiempo de ejecución de ese servicio.
+
+{{< img src="tracing/live_search_and_analytics/request_flow_map/ServicePanel.png" style="width:100%; background:none; border:none; box-shadow:none;" alt="Panel latral del mapa de flujo de solicitudes con métricas y metadatos del servicio seleccionado" >}}
+
+- El mapa selecciona automáticamente un diseño adecuado en función del número de servicios presentes. Haz clic en **Cluster* o **Flow** (Flujo) para cambiar entre los diseños.
+
+- Las aplicaciones RUM están representadas en el mapa de flujo de solicitudes, si [conectaste RUM y trazas][10].
+
+{{< img src="tracing/live_search_and_analytics/request_flow_map/RUMService.mp4" alt="Vídeo que muestra cómo navegar la información de servicio de una aplicación RUM en el mapa de flujo de solicitudes" video=true style="width:100%;">}}
+
+
+## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
@@ -98,4 +129,9 @@ En la siguiente tabla se muestra el número de tramos de errores por `Env`, `Ser
[2]: /es/tracing/trace_explorer/query_syntax/#time-range
[3]: /es/tracing/trace_explorer/facets/#quantitative-facets-measures
[4]: /es/tracing/trace_explorer/?tab=timeseriesview#live-search-for-15-minutes
-[5]: /es/tracing/error_tracking/
\ No newline at end of file
+[5]: /es/tracing/error_tracking/
+[6]: https://app.datadoghq.com/apm/flow-map
+[7]: /es/tracing/services/services_map/
+[8]: /es/tracing/trace_explorer/
+[9]: /es/tracing/services/deployment_tracking/#shadow-deploys
+[10]: /es/real_user_monitoring/correlate_with_other_telemetry/apm?tab=browserrum
\ No newline at end of file
diff --git a/content/fr/api/latest/_index.md b/content/fr/api/latest/_index.md
index 1e00f22f08e16..1a893d1ad9707 100644
--- a/content/fr/api/latest/_index.md
+++ b/content/fr/api/latest/_index.md
@@ -250,4 +250,4 @@ Vous préférez démarrer avec l’application ? Consultez la [documentation g
[4]: /fr/api/v1/using-the-api/
[5]: https://brew.sh
[6]: https://docs.datadoghq.com/fr/developers/community/libraries/
-[7]: /fr/getting_started/application/
+[7]: /fr/getting_started/application/
\ No newline at end of file
diff --git a/content/ja/account_management/billing/custom_metrics.md b/content/ja/account_management/billing/custom_metrics.md
index db284b2500548..7dd9643fceda3 100644
--- a/content/ja/account_management/billing/custom_metrics.md
+++ b/content/ja/account_management/billing/custom_metrics.md
@@ -10,7 +10,7 @@ further_reading:
text: カスタムメトリクスについて
- link: /metrics/guide/custom_metrics_governance/
tag: ガイド
- text: カスタムメトリクスのガバナンスに関するベストプラクティス
+ text: カスタムメトリクス管理のベストプラクティス
title: カスタムメトリクスの課金
---
@@ -82,9 +82,9 @@ Florida の気温を入手するには、次のようにカスタムメトリク
- `temperature{country:USA, state:Florida, city:Miami}`
- `temperature{state:Florida, city:Miami, country:USA}`
-### Metrics without LimitsTM でタグと集計を構成する
+### Metrics without LimitsTM でタグを構成する
-カスタムメトリクスのボリュームは、[Metrics without LimitsTM][3] を使用してタグと集計を構成することによって影響を受ける可能性があります。Metrics without LimitsTM は、インジェストコストとインデキシングコストを切り離すので、Datadog に全てのデータを送り続けることができ (全てインジェストされます)、Datadog プラットフォームでクエリ可能に残しておきたいタグの許可リストを指定することができます。Datadog が構成したメトリクスにインジェストするデータ量は、インデックスを作成した残りのデータ量とは異なるため、Usage ページと Metrics Summary ページには 2 つの異なるボリュームが表示されます。
+カスタムメトリクスのボリュームは、[Metrics without LimitsTM][3] を使用してタグを構成することによって影響を受ける可能性があります。Metrics without LimitsTM は、インジェストコストとインデキシングコストを切り離すので、Datadog に全てのデータを送り続けることができ (全てインジェストされます)、Datadog プラットフォームでクエリ可能に残しておきたいタグの許可リストを指定することができます。お客様が構成したメトリクスに対して Datadog がインジェストするデータ量は、インデックス化したデータ量とは異なるため、Usage ページと Metrics Summary ページには 2 つの異なるボリュームが表示されます。
- **Ingested Custom Metrics**: インジェストされたすべてのタグに基づくカスタムメトリクスの元となる量 (コード経由で送信されます)。
- **Indexed Custom Metrics**: Datadog プラットフォームでクエリ可能なカスタムメトリクスの量 (Metrics without LimitsTM のコンフィギュレーションに基づく)
@@ -99,7 +99,7 @@ Metrics without LimitsTM で構成されていないメトリクスについて
| アカウントの割り当て | - Pro: 1 ホストあたり 100 のインデックスされたカスタムメトリクス
- Enterprise: 1 ホストあたり 200 のインデックスされたカスタムメトリクス |
| 使用量がアカウントの割り当てを超える | アカウントの割り当てを超えるインデックスされたカスタムメトリクス 100 個ごとに、現在の契約で指定された金額をお支払いいただきます。 |
-Metrics without LimitsTM で構成されたメトリクス (タグ/集計が構成されている) の場合、インジェストされたカスタムメトリクスとインデックスされたカスタムメトリクスに対してお支払いいただきます。
+Metrics without LimitsTM で構成されたメトリクス (タグが構成されている) の場合、インジェストされたカスタムメトリクスとインデックスされたカスタムメトリクスに対してお支払いいただきます。
| | 取り込まれたカスタムメトリクス | インデックスされたカスタムメトリクス |
|--------------------------------------|---------------------------------------------------------------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------|
@@ -114,12 +114,6 @@ Metrics without LimitsTM を使って、`endpoint` と `status` のタグだけ
タグ構成の結果、`request.Latency` は合計で **3 つのインデックスされたカスタムメトリクス**を報告しています。このメトリクスに送信されたオリジナルのタグに基づくと、`request.Latency` のオリジナルの**インジェストされた**カスタムメトリクス量は、**4 個のインジェストされたカスタムメトリクス**となります。
-デフォルトでは、Datadog は、構成したメトリクスのクエリの数学的精度を維持するために、メトリクスのタイプに応じて、最も頻繁にクエリされる集計の組み合わせを保存します。
-
-- 構成されたカウント/レートは `SUM` の時間/空間集計でクエリ可能です
-
-クエリにとって価値がある場合は、より多くの集計にオプトインできます。インデックスされたカスタムメトリクスの数は、有効な集計の数に比例します。
-
[Metrics without LimitsTM][3] の詳細についてはこちらをご覧ください。
[1]: /ja/metrics/types/?tab=count#metric-types
@@ -167,9 +161,9 @@ Florida の気温を入手するには、次のようにカスタムメトリク
- `temperature{country:USA, state:Florida, city:Miami}`
- `temperature{state:Florida, city:Miami, country:USA}`
-### Metrics without LimitsTM でタグと集計を構成する
+### Metrics without LimitsTM でタグを構成する
-カスタムメトリクスのボリュームは、[Metrics without LimitsTM][4] を使用してタグと集計を構成することによって影響を受ける可能性があります。Metrics without LimitsTM は、インジェストコストとインデキシングコストを切り離すので、Datadog に全てのデータを送り続けることができ (全てインジェストされます)、Datadog プラットフォームでクエリ可能に残しておきたいタグの許可リストを指定することができます。Datadog が構成したメトリクスにインジェストするデータ量は、インデックスを作成した残りのデータ量とは異なるため、Usage ページと Metrics Summary ページには 2 つの異なるボリュームが表示されます。
+カスタムメトリクスのボリュームは、[Metrics without LimitsTM][4] を使用してタグを構成することによって影響を受ける可能性があります。Metrics without LimitsTM は、インジェストコストとインデキシングコストを切り離すので、Datadog に全てのデータを送り続けることができ (全てインジェストされます)、Datadog プラットフォームでクエリ可能に残しておきたいタグの許可リストを指定することができます。Datadog が構成したメトリクスにインジェストするデータ量は、インデックスを作成した残りのデータ量とは異なるため、Usage ページと Metrics Summary ページには 2 つの異なるボリュームが表示されます。
- **Ingested Custom Metrics**: インジェストされたすべてのタグに基づくカスタムメトリクスの元となる量 (コード経由で送信されます)。
- **Indexed Custom Metrics**: Datadog プラットフォームでクエリ可能なカスタムメトリクスの量 (Metrics without LimitsTM のコンフィギュレーションに基づく)
@@ -184,18 +178,24 @@ Metrics without LimitsTM で構成されていないメトリクスについて
| アカウントの割り当て | - Pro: 1 ホストあたり 100 のインデックスされたカスタムメトリクス
- Enterprise: 1 ホストあたり 200 のインデックスされたカスタムメトリクス |
| 使用量がアカウントの割り当てを超える | アカウントの割り当てを超えるインデックスされたカスタムメトリクス 100 個ごとに、現在の契約で指定された金額をお支払いいただきます。 |
-Metrics without LimitsTM で構成されたメトリクス (タグ/集計が構成されている) の場合、インジェストされたカスタムメトリクスとインデックスされたカスタムメトリクスに対してお支払いいただきます。
+Metrics without LimitsTM で構成されたメトリクス (タグが構成されている) の場合、インジェストされたカスタムメトリクスとインデックスされたカスタムメトリクスに対してお支払いいただきます。
| | 取り込まれたカスタムメトリクス | インデックスされたカスタムメトリクス |
|--------------------------------------|---------------------------------------------------------------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------|
| アカウントの割り当て | - Pro: 1 ホストあたり 100 のインジェストされたカスタムメトリクス
- Enterprise: 1 ホストあたり 200 のインジェストされたカスタムメトリクス | - Pro: 1 ホストあたり 100 のインデックスされたカスタムメトリクス
- Enterprise: 1 ホストあたり 200 のインデックスされたカスタムメトリクス |
| 使用量がアカウントの割り当てを超える | カスタムメトリクスを 100 個インジェストするごとに、アカウントの割り当てを超える場合は、0.10 ドルをお支払いいただきます。 | アカウントの割り当てを超えるインデックスされたカスタムメトリクス 100 個ごとに、現在の契約で指定された金額をお支払いいただきます。 |
-デフォルトでは、Datadog は、構成したメトリクスのクエリの数学的精度を維持するために、メトリクスのタイプに応じて、最も頻繁にクエリされる集計の組み合わせを以下のように保存します。
+デフォルトでは、以下の集約をクエリに使用できます:
+- group by `SUM` と rollup by `AVG`
+- group by `MAX` と rollup by `AVG`
+- group by `MIN` と rollup by `AVG`
+- group by `AVG` と rollup by `SUM`
+- group by `SUM` と rollup by `SUM`
+- group by `MAX` と rollup by `MAX`
+- group by `MIN` と rollup by `MIN`
+- group by `SUM` と rollup by `COUNT`
-- 構成されたゲージは `AVG/AVG` の時間/空間集計ででクエリ可能です
-
-クエリにとって価値がある場合は、より多くの集計にオプトインできます。インデックスされたカスタムメトリクスの数は、有効な集計の数に比例します。
+インデックス化されたカスタム メトリクスの数は、有効化された集約の数に応じて **スケールしません**。
[Metrics without LimitsTM][1] の詳細についてはこちらをご覧ください。
@@ -293,7 +293,8 @@ Metrics without LimitsTM で構成されたメトリクス (タグ/集計が構
管理者ユーザー ([Datadog Admin ロール][7]を持つユーザー) は、1 時間あたりの**インジェスト**および**インデックス**されたカスタムメトリクスの月平均数を確認することができます。また、カスタムメトリクスのトップテーブルでは、[使用量の詳細ページ][8]で**インデックスされた**カスタムメトリクスの平均数を一覧で確認できます。詳細については、[使用量の詳細][9]のドキュメントを参照してください。
特定のメトリクス名のカスタムメトリクスの数をよりリアルタイムに追跡するには、[Metrics Summary ページ][10]でメトリクス名をクリックします。メトリクスの詳細サイドパネルで、**インジェストされた**カスタムメトリクスと**インデックスされた**カスタムメトリクスの数を確認することができます。
-{{< img src="account_management/billing/custom_metrics/mwl_sidepanel_ingested.jpg" alt="Metrics Summary サイドパネル" style="width:80%;">}}
+
+{{< img src="account_management/billing/custom_metrics/mwl_sidepanel_ingested_3142025.jpg" alt="Metrics Summary サイドパネル" style="width:80%;">}}
## 割り当て
diff --git a/content/ja/containers/datadog_operator/secret_management.md b/content/ja/containers/datadog_operator/secret_management.md
new file mode 100644
index 0000000000000..8493143fdd73a
--- /dev/null
+++ b/content/ja/containers/datadog_operator/secret_management.md
@@ -0,0 +1,251 @@
+---
+dependencies:
+- https://github.com/DataDog/datadog-operator/blob/main/docs/secret_management.md
+title: Secret の管理
+---
+セキュリティを強化するため、Datadog Operator は [Secrets][4] を使用して Datadog の認証情報 (API キーとアプリケーション キー) を取得できます。
+
+## Secret の設定
+
+Secret を設定するには、次のいずれかの方法を選択します:
+
+### DatadogAgent リソースに平文の認証情報を設定する
+
+**この方法はテスト用途にのみ推奨されます。**
+
+`DatadogAgent` の spec に API キーとアプリケーション キーを追加します:
+
+```yaml
+apiVersion: datadoghq.com/v2alpha1
+kind: DatadogAgent
+metadata:
+ name: datadog
+spec:
+ global:
+ credentials:
+ apiKey:
+ appKey:
+ # ...
+```
+
+ここで指定した認証情報は、Operator によって作成される Secret に保存されます。`DatadogAgent` CRD に対する RBAC を適切に設定することで、これらの認証情報を閲覧できるユーザーを制限できます。
+
+### Secret 参照を使用する
+
+1. Secret を作成します:
+
+ ```yaml
+ apiVersion: v1
+ kind: Secret
+ metadata:
+ name: datadog-api-secret
+ data:
+ api_key:
+
+ ---
+ apiVersion: v1
+ kind: Secret
+ metadata:
+ name: datadog-app-secret
+ data:
+ app_key:
+ ```
+
+2. `DatadogAgent` リソースで、これらの Secret の名前を指定します:
+
+ ```yaml
+ apiVersion: datadoghq.com/v2alpha1
+ kind: DatadogAgent
+ metadata:
+ name: datadog
+ spec:
+ global:
+ credentials:
+ apiSecret:
+ secretName: datadog-api-secret
+ keyName: api-key
+ appSecret:
+ secretName: datadog-app-secret
+ keyName: app-key
+ # ...
+ ```
+
+
+
+**注**: 同じ Secret を使用して両方の認証情報を保存することもできます:
+
+```yaml
+---
+apiVersion: v1
+kind: Secret
+metadata:
+ name: datadog-secret
+data:
+ api_key:
+ app_key:
+```
+
+次に、`DatadogAgent` リソースで:
+
+```yaml
+apiVersion: datadoghq.com/v2alpha1
+kind: DatadogAgent
+metadata:
+ name: datadog
+spec:
+ global:
+ credentials:
+ apiSecret:
+ secretName: datadog-secret
+ keyName: api-key
+ appSecret:
+ secretName: datadog-secret
+ keyName: app-key
+ # ...
+```
+## secret backend を使用する
+
+Datadog Operator は [secret backend][1] と互換性があります。
+
+### secret backend を使用して Datadog Operator をデプロイする
+
+1. secret backend のコマンドを含む Datadog Operator のコンテナ イメージを作成します。
+
+ 独自に作成する場合は、次の Dockerfile の例では、`latest` イメージをベース イメージとして使用し、`my-secret-backend.sh` スクリプト ファイルをコピーします:
+
+ ```Dockerfile
+ FROM gcr.io/datadoghq/operator:latest
+ COPY ./my-secret-backend.sh /my-secret-backend.sh
+ RUN chmod 755 /my-secret-backend.sh
+ ```
+
+ 次に、以下を実行します。
+
+ ```shell
+ docker build -t datadog-operator-with-secret-backend:latest .
+ ```
+
+2. `.Values.secretBackend.command` パラメーターにコンテナ内の secret backend コマンドのパスを設定した状態で、Datadog Operator のデプロイメントをインストールまたは更新します。カスタム イメージを使用している場合は、そのイメージを更新します。
+
+ ```shell
+ $ helm [install|upgrade] dd-operator --set "secretBackend.command=/my-secret-backend.sh" --set "image.repository=datadog-operator-with-secret-backend" ./chart/datadog-operator
+ ```
+
+### Secret ヘルパーの使用
+
+**注**: Datadog Operator v0.5.0+ が必要です。
+
+Kubernetes は、Secrets を pod 内のファイルとして公開することをサポートしています。Datadog は、Datadog Operator イメージ内に、ファイルから Secrets を読み取るためのヘルパー スクリプトを提供しています。
+
+1. Operator コンテナに Secret をマウントします。例えば、`/etc/secret-volume` にマウントできます。
+
+2. `.Values.secretBackend.command` パラメーターを `/readsecret.sh` に、`.Values.secretBackend.arguments` パラメーターを `/etc/secret-volume` に設定して、Datadog Operator デプロイメントをインストールまたは更新します:
+
+ ```shell
+ helm [install|upgrade] dd-operator --set "secretBackend.command=/readsecret.sh" --set "secretBackend.arguments=/etc/secret-volume" ./chart/datadog-operator
+ ```
+
+### DatadogAgent で secret backend 機能を使用して Agent コンポーネントをデプロイする
+
+**注**: Datadog Operator v1.11+ が必要です。
+
+#### カスタム スクリプトを使用する場合
+
+カスタム スクリプトを使用している場合は、Datadog Agent (または Cluster Agent) のイメージを作成し、`ENC[]` を用いて認証情報を指定し、`spec.global.secretBackend.command` に secret backend コマンドを指定します:
+
+ ```yaml
+ apiVersion: datadoghq.com/v2alpha1
+ kind: DatadogAgent
+ metadata:
+ name: datadog
+ spec:
+ global:
+ credentials:
+ apiKey: ENC[]
+ appKey: ENC[]
+ secretBackend:
+ command: "/my-secret-backend.sh"
+ # ...
+ ```
+
+この構成で設定される環境変数 `DD_SECRET_BACKEND_COMMAND` は、デプロイされるすべてのコンポーネントに自動的に適用されます: node Agent、Cluster Agent、Cluster Checks Runners。すべてのコンポーネントで使用するイメージに、指定したコマンドが含まれていることを確認してください。
+
+#### ヘルパー関数を使用する場合
+
+利便性のため、Datadog Agent および Cluster Agent のイメージには、ファイルおよび Kubernetes Secrets の両方から読み取るために使用できる `readsecret_multiple_providers.sh` [ヘルパー関数][2] が含まれています。Secret を作成したら、`spec.global.secretBackend.command` を `"/readsecret_multiple_providers.sh"` に設定します。
+
+例えば、Agent と Cluster Agent で secret backend を使用するには、"test-secret" という名前の Secret を作成します:
+
+`kubectl create secret generic test-secret --from-literal=api_key='' --from-literal=app_key=''`
+
+その後、DatadogAgent の spec を設定します:
+
+```yaml
+apiVersion: datadoghq.com/v2alpha1
+kind: DatadogAgent
+metadata:
+ name: datadog
+spec:
+ global:
+ secretBackend:
+ command: "/readsecret_multiple_providers.sh"
+ credentials:
+ apiKey: ENC[k8s_secret@default/test-secret/api_key]
+ appKey: ENC[k8s_secret@default/test-secret/app_key]
+```
+
+## 補足
+
+### ServiceAccount の権限
+
+`"/readsecret_multiple_providers.sh"` ヘルパーにより、Agent は自身の Namespace と他の Namespace の両方にわたる Kubernetes Secrets を直接読み取ることができます。関連する ServiceAccount に適切な Roles と RoleBindings を割り当て、必要な権限が付与されていることを確認してください。これらは手動で設定するか、次のオプションを使用できます:
+
+- `global.secretBackend.enableGlobalPermissions`: Agents が Kubernetes Secrets を **すべて** 読み取れるようにする ClusterRole を作成するかどうかを決定します。
+
+ ```yaml
+ apiVersion: datadoghq.com/v2alpha1
+ kind: DatadogAgent
+ metadata:
+ name: datadog
+ spec:
+ global:
+ secretBackend:
+ command: "/readsecret_multiple_providers.sh"
+ enableGlobalPermissions: true
+ # ...
+ ```
+
+- `global.secretBackend.roles`: `enableGlobalPermissions` を置き換え、Agents がアクセスできる namespace/secret の一覧を詳細に指定します。
+
+ ```yaml
+ apiVersion: datadoghq.com/v2alpha1
+ kind: DatadogAgent
+ metadata:
+ name: datadog
+ spec:
+ global:
+ secretBackend:
+ command: "/readsecret_multiple_providers.sh"
+ roles:
+ - namespace: rabbitmq-system
+ secrets:
+ - "rabbitmqcluster-sample-default-user"
+ # ...
+ ```
+
+ この例では、`rabbitmq-system` Namespace の Secret `rabbitmqcluster-sample-default-user` への読み取りアクセスを付与する Role が作成されます。
+
+ **注**: `roles` リスト内の各 Namespace は、Datadog Operator デプロイメントの環境変数 `WATCH_NAMESPACE` または `DD_AGENT_WATCH_NAMESPACE` にも設定する必要があります。
+
+### secret backend の構成オプション
+
+Agent と Cluster Agent に対しては、secret backend コマンドに関するその他の構成オプションがあります:
+ * `global.secretBackend.args`: Agent が secret backend コマンドを実行する際にコマンドへ渡される引数です。
+ * `global.secretBackend.timeout`: secret backend の実行タイムアウトを秒数で指定します。デフォルト値は 30 秒です。
+
+Operator 1.11 より前のバージョンでは、`spec.global.secretBackend` は使用できません。代わりに [これらの手順][3] に従ってください。
+
+[1]: https://docs.datadoghq.com/ja/agent/guide/secrets-management
+[2]: https://docs.datadoghq.com/ja/agent/guide/secrets-management/?tab=linux#script-for-reading-from-multiple-secret-providers
+[3]: https://github.com/DataDog/datadog-operator/blob/2bbda7adace27de3d397b3d76d87fbd49fa304e3/docs/secret_management.md#how-to-deploy-the-agent-components-using-the-secret-backend-feature-with-datadogagent
+[4]: https://kubernetes.io/docs/concepts/configuration/secret/
\ No newline at end of file
diff --git a/content/ja/continuous_testing/environments/multiple_env.md b/content/ja/continuous_testing/environments/multiple_env.md
new file mode 100644
index 0000000000000..2bb66389f973a
--- /dev/null
+++ b/content/ja/continuous_testing/environments/multiple_env.md
@@ -0,0 +1,151 @@
+---
+description: Continuous Testing を使用して、同じ Synthetic テスト シナリオを複数の環境で再利用する方法を学びます。
+further_reading:
+- link: https://www.datadoghq.com/blog/datadog-synthetic-ci-cd-testing/
+ tag: ブログ
+ text: Datadog Continuous Testing のテストを CI/CD パイプラインに組み込む
+- link: https://www.datadoghq.com/blog/internal-application-testing-with-datadog/
+ tag: ブログ
+ text: Datadog の testing tunnel と private locations を使用して社内アプリケーションをテストする
+- link: /continuous_testing/environments/proxy_firewall_vpn
+ tag: ドキュメント
+ text: プロキシ、ファイアウォール、または VPN を使用しながらテストする方法について学ぶ
+title: 複数の環境をテストする
+---
+
+## 概要
+
+Continuous Testing では、本番環境でスケジュールされたテストの同じシナリオを、開発環境やステージング環境にも適用できます。Continuous Testing は、開発サイクル全体で Synthetic テストを使用し、リグレッションをできるだけ早く検出できるようにします。
+
+CI テストのトリガー時に、[ブラウザ][1] または [API テスト][2] の開始 URL を上書きして、Synthetic Worker を適切な環境にルーティングできます。これにより、同じテストを本番環境とステージング環境の両方で使用できます。
+
+[ブラウザ テスト][1] の場合、テスト実行中に `resourceUrlSubstitutionRegexes` を使って、リソース URL の一部をリダイレクトすることもできます。これにより、現在のブランチのフロントエンド アセットをプロダクション バックエンドに対してテストできます。また、API 呼び出しの一部 (ドメインまたはパスに一致するもの) を、変更が含まれるステージング環境にルーティングしつつ、その他のリクエストは本番環境で処理させることもできます。
+
+## ステージング環境で本番テストを使用する
+
+### 開始 URL を上書きする
+
+Synthetic ブラウザ テストは、開始 URL に移動してテスト シナリオを開始します。同様に、API HTTP テストは特定の URL にリクエストを送信します。CI テストをトリガーするとき、この開始 URL を上書きして、アプリケーションがデプロイされている別の環境を指すようにできます。
+
+{{< img src="continuous_testing/starting_url_substitution.png" alt="Continuous Testing トンネルにより、Synthetics Worker がプライベート アプリケーションに到達できる" width="100%" >}}
+
+CI テストをトリガーする際、`startUrl` フィールドを使うと、ブラウザ テストが最初に遷移する URL、または HTTP テストのリクエストで使用される URL を上書きできます。このオプションは、グローバル設定ファイル、Synthetic Monitoring 構成ファイル (`*.synthetics.json`)、またはコマンド ライン フラグ `--override startUrl=` で指定できます。
+
+```shell
+datadog-ci synthetics run-tests \
+ --public-id \
+ --override startUrl="https://staging.my-app.com"
+```
+
+このオプションにより、対象が公開されている限り、同じテスト シナリオを本番環境とその他の開発環境 (例: ステージング) の両方で再利用できます。[プライベート環境][4] に対するテスト方法については、[プロキシ、ファイアウォール、または VPN を使用しながらのテスト][3] を参照してください。
+
+### 開始 URL を部分的に変更する
+
+テストの一部がホーム ページや同様にシンプルな URL から始まる場合、前述の解決策で問題ありませんが、すべてのユース ケースをカバーできるわけではありません。開始 URL を無分別に置き換えると、シナリオがテストすべき URL のパスや、特定の検索クエリ パラメーターが意図せず失われる可能性があります。
+
+`startUrlSubstitutionRegex` フィールドを使うと、開始 URL を完全に上書きすることなく、開始 URL の一部のみを変更できます。このオプションは、指定した正規表現に基づいて既定の開始 URL の一部を置換します。
+
+```shell
+datadog-ci synthetics run-tests \
+ --public-id \
+ --override startUrlSubstitutionRegex="|"
+```
+
+このフィールドは、パイプ文字 `|` で区切られた 2 つの部分を含む文字列を受け取ります:
+
+`|`
+- ``: 既定の開始 URL に適用する正規表現 (regex)
+- ``: URL を書き換えるための表現
+
+#### 例 1
+
+次の `|` 文字列を考えてみます:
+
+```shell
+https://prod.my-app.com/(.*)|https://staging.my-app.com/$1
+```
+
+この正規表現は、キャプチャ グループを使用して URL のパスを取得します。リライト ルールは、`staging.my-app.com` を指す同様の URL を生成し、`$1` を使ってキャプチャしたグループを付加します。例えば、URL `https://prod.my-app.com/product-page?productId=id` が与えられた場合、`https://staging.my-app.com/product-page?productId=id` に書き換えられます。
+
+#### 例 2
+
+次の `|` 文字列を考えてみます:
+
+```
+(https?://)([^/]*)|$1.$2
+```
+
+このオーバーライドにより、URL `https://my-app.com/some/path` は `https://.my-app.com/some/path` に書き換えられます。
+URL パスは置換用の正規表現の一部ではないため、書き換えの影響は受けない点に注意してください。
+
+
+上で示したパイプ |
構文に加えて、startUrlSubstitutionRegex
は sed 構文 s/<regex>/<rewriting rule>/<modifiers>
もサポートします。
+sed 構文はスラッシュ /
を区切り文字として使用するため、URL のスラッシュをエスケープする必要が生じ、エラーになりやすい場合があります。regex 修飾子が必要な場合を除き、Datadog は可読性の観点からパイプ |
構文の使用を推奨します。
+
+
+このツールを使用すると、本番環境で使用している任意のスケジュール済みテストを、開発環境を指すように再利用できます。
+
+## 既存の環境に変更を導入する
+
+### リソース URL を変更する
+
+開始 URL の変更に加えて、`resourceUrlSubstitutionRegexes` オーバーライドを使用して、その後のすべてのリソース リクエストの URL も変更できます。このオプションは、指定した正規表現に基づいてリソース URL の一部を置換します。
+
+これにより、メインの環境から独立してアプリケーションの一部をテストできます。メイン ページは引き続き `startUrl` で指定された環境から配信されますが、`resourceUrlSubstitutionRegexes` の最初の regex に一致する各リクエストは、CI パイプラインをトリガーしたブランチの変更のみをホストする別の環境へリダイレクトできます。
+
+For example: if your frontend JavaScript assets are located under the path `https://prod.my-app.com/resources/chunks/*`, you can use `resourceUrlSubstitutionRegexes` to redirect all JavaScript assets requests to `https://staging.my-app.com/resources/chunks`—while main page and all API calls continue to be served by `prod.my-app.com`. Similarly, if you want to test the service behind the endpoints `https://prod.my-app.com/api/my-service`, you can redirect these API calls to `https://staging.my-app.com/api/my-service` to test this service in isolation with the production frontend.
+
+```shell
+datadog-ci synthetics run-tests \
+ --public-id \
+ --override resourceUrlSubstitutionRegexes="|" \
+ --override resourceUrlSubstitutionRegexes="|"
+```
+
+`resourceUrlSubstitutionRegexes` フィールドは、パイプ文字 `|` で区切られた 2 つの部分を含む文字列を受け付けます:
+
+`|`
+- ``: リソース URL に適用する正規表現 (regex)
+- ``: URL を書き換えるための表現
+
+#### 例 1
+
+次の `|` 文字列を考えてみます:
+
+```
+https://prod.my-app.com/assets/(.*)|https://staging.my-app.com/assets/$1
+```
+
+regex `https://prod.my-app.com/assets/(.*)` は、キャプチャ グループを使用してリソース URL のパスを取得します。
+
+リライト ルール `https://staging.my-app.com/assets/$1` は、`staging.my-app.com` を指す同様の URL を生成し、`$1` を使ってキャプチャしたグループを付加します。
+
+その結果、URL `https://prod.my-app.com/assets/js/chunk-123.js` は `https://staging.my-app.com/assets/js/chunk-123.js` に書き換えられます。
+
+#### 例 2
+
+次の `|` 文字列を考えてみます:
+
+```
+(https?://)([^/]*)|$1.$2
+```
+
+このオーバーライドにより、URL `https://my-app.com/some/path` は `https://.my-app.com/some/path` に書き換えられます。URL パスは置換用の正規表現の一部ではないため、書き換えの影響は受けません。
+
+
+resourceUrlSubstitutionRegexes
は、startUrl
および startUrlSubstitutionRegex
と同様に、最初のリクエストにも適用されます。
+
+
+
+上で示したパイプ |
構文に加えて、resourceUrlSubstitutionRegexes
は sed 構文 s/<regex>/<rewriting rule>/<modifiers>
もサポートします。
+この構文はスラッシュ /
区切りを使用するため、URL のスラッシュをエスケープする必要が生じ、エラーになりやすい場合があります。regex 修飾子が必要な場合を除き、Datadog は可読性の観点からパイプ |
構文の使用を推奨します。
+
+
+## 参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /ja/synthetics/browser_tests/
+[2]: /ja/synthetics/api_tests/
+[3]: /ja/continuous_testing/environments/proxy_firewall_vpn
+[4]: /ja/synthetics/private_locations
\ No newline at end of file
diff --git a/content/ja/opentelemetry/setup/otlp_ingest_in_the_agent.md b/content/ja/opentelemetry/setup/otlp_ingest_in_the_agent.md
new file mode 100644
index 0000000000000..a010190b855b5
--- /dev/null
+++ b/content/ja/opentelemetry/setup/otlp_ingest_in_the_agent.md
@@ -0,0 +1,324 @@
+---
+aliases:
+- /ja/tracing/setup_overview/open_standards/otlp_ingest_in_the_agent/
+- /ja/tracing/trace_collection/open_standards/otlp_ingest_in_the_agent/
+- /ja/opentelemetry/otlp_ingest_in_the_agent/
+- /ja/opentelemetry/interoperability/otlp_ingest_in_the_agent/
+description: Datadog Agent 経由で OTLP トレース データを取り込む
+further_reading:
+- link: https://www.datadoghq.com/about/latest-news/press-releases/datadog-announces-opentelemetry-protocol-support/
+ tag: ブログ
+ text: Agent における OTLP 取り込み
+- link: /metrics/open_telemetry/otlp_metric_types
+ tag: ドキュメント
+ text: OTLP メトリクス タイプ
+- link: /opentelemetry/runtime_metrics/
+ tag: ドキュメント
+ text: OpenTelemetry ランタイム メトリクス
+title: Datadog Agent による OTLP 取り込み
+---
+
+
+Agent における OTLP 取り込みは、[OpenTelemetry SDK][1] でインスツルメントされたアプリケーションから Datadog Agent へテレメトリ データを直接送信する方法です。バージョン 6.32.0 および 7.32.0 以降、Datadog Agent は gRPC または HTTP 経由で OTLP トレースと [OTLP メトリクス][2] を取り込めます。バージョン 6.48.0 および 7.48.0 以降、Datadog Agent は gRPC または HTTP 経由で OTLP ログも取り込めます。
+
+Agent における OTLP 取り込みにより、Datadog Agent の各種可観測性機能を利用できます。OpenTelemetry SDK でインスツルメントされたアプリケーションのデータは、App and API Protection、Continuous Profiler、Ingestion Rules といった Datadog 独自製品では使用できない場合があります。[一部の言語で OpenTelemetry ランタイム メトリクスがサポートされています][10]。
+
+{{< img src="/opentelemetry/setup/dd-agent-otlp-ingest.png" alt="Diagram: OpenTelemetry SDK が OTLP プロトコルでデータを Collector (Datadog Exporter 搭載) に送信し、Collector が Datadog のプラットフォームへ転送する。" style="width:100%;" >}}
+
+このセットアップでサポートされる Datadog 機能については、
OTel to Datadog Agent (OTLP) セクションにある
機能互換性表 を参照してください。
+
+## 初期セットアップ
+
+開始するには、まず OpenTelemetry SDK で [アプリケーションをインスツルメント][3] します。次に、テレメトリ データを OTLP 形式で Datadog Agent にエクスポートします。具体的な構成手順は、以下のページで説明するように、サービスがデプロイされているインフラの種類によって異なります。最新の OTLP バージョンとの互換性を目指していますが、Agent における OTLP 取り込みがすべての OTLP バージョンに対応しているわけではありません。Datadog Agent と互換性のある OTLP バージョンは、OpenTelemetry Collector の OTLP Receiver でサポートされているバージョンと一致します。サポートされている正確なバージョンを確認するには、Agent の `go.mod` ファイル内に記載された `go.opentelemetry.io/collector` のバージョンを確認してください。
+
+OpenTelemetry のインスツルメンテーション ドキュメントを参照し、インスツルメンテーションの送信先として Agent を指定する方法を理解してください。以下に記載する `receiver` セクションは、[OpenTelemetry Collector の OTLP Receiver 構成スキーマ][5] に準拠します。
+
+サポートされるセットアップは、OpenTelemetry データを生成する各ホストに取り込み用 Agent をデプロイする方式です。1 つのホストで動作する Collector やインスツルメント済みアプリから、別ホストの Agent に OpenTelemetry テレメトリを送信することはできません。ただし、Agent が Collector または SDK インスツルメント済みアプリと同一ホスト上にある場合は、複数のパイプラインを構成できます。
+
+## Datadog Agent で OTLP 取り込みを有効化する
+
+{{< tabs >}}
+{{% tab "ホスト" %}}
+
+OTLP 取り込みはデフォルトで無効です。`datadog.yaml` の設定を更新するか、環境変数を設定して有効化できます。以下の `datadog.yaml` の設定は、デフォルト ポートでエンドポイントを有効にします。
+
+{{% otel-endpoint-note %}}
+
+gRPC のデフォルト ポート 4317:
+
+```yaml
+otlp_config:
+ receiver:
+ protocols:
+ grpc:
+ endpoint: 0.0.0.0:4317
+```
+HTTP のデフォルト ポート 4318:
+
+```yaml
+otlp_config:
+ receiver:
+ protocols:
+ http:
+ endpoint: 0.0.0.0:4318
+```
+
+代替として、環境変数でポートを指定してエンドポイントを構成できます:
+
+- gRPC (`localhost:4317`): `DD_OTLP_CONFIG_RECEIVER_PROTOCOLS_GRPC_ENDPOINT`
+- HTTP (`localhost:4318`): `DD_OTLP_CONFIG_RECEIVER_PROTOCOLS_HTTP_ENDPOINT`
+
+これらは core Agent と trace Agent の両プロセスに渡す必要があります。コンテナ化された環境で実行している場合は、ローカル以外のインターフェイスでもサーバーを公開できるよう、`localhost` の代わりに `0.0.0.0` を使用してください。
+
+本機能には gRPC または HTTP のいずれかを構成してください。両方の構成を示す [サンプル アプリケーション][1] があります。
+
+Datadog Agent での OTLP ログ取り込みは、課金に影響する予期せぬログ製品の利用を避けるため、デフォルトで無効になっています。OTLP ログ取り込みを有効にするには:
+
+1. [Host Agent のログ収集セットアップ][2] に従ってログ収集全体を明示的に有効にします:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. `otlp_config.logs.enabled` を true に設定します:
+
+ ```yaml
+ otlp_config:
+ logs:
+ enabled: true
+ ```
+
+[1]: https://gist.github.com/gbbr/4a54dd02d34ad05e694952e0a02e1c67
+[2]: /ja/agent/logs/
+{{% /tab %}}
+{{% tab "Docker" %}}
+
+1. [Datadog Docker Agent のセットアップ][1] に従ってください。
+
+2. Datadog Agent コンテナでは、以下のエンドポイント環境変数を設定し、対応するポートを公開します:
+ - gRPC: `DD_OTLP_CONFIG_RECEIVER_PROTOCOLS_GRPC_ENDPOINT` を `0.0.0.0:4317` に設定し、ポート `4317` を公開します。
+ - HTTP: `DD_OTLP_CONFIG_RECEIVER_PROTOCOLS_HTTP_ENDPOINT` を `0.0.0.0:4318` に設定し、ポート `4318` を公開します。
+
+3. OTLP ログ取り込みを有効にする場合は、Datadog Agent コンテナで次の環境変数を設定します:
+ - `DD_LOGS_ENABLED` を true に設定します。
+ - `DD_OTLP_CONFIG_LOGS_ENABLED` を true に設定します。
+
+
+既知の問題: Agent バージョン 7.61.0 以降、Docker 環境で OTLP 取り込みパイプラインの起動に失敗し、次のエラーが表示される場合があります: Error running the OTLP ingest pipeline: failed to register process metrics: process does not exist
.
+該当バージョンを使用している場合は、次のいずれかの回避策を使用できます:
+1. Agent の Docker コンテナで、環境変数 HOST_PROC
を /proc
に設定します。
+2. Agent の Docker コンテナで、volumes
から /proc/:/host/proc/:ro
を削除します。
+3. Agent の Docker コンテナで、pid
を host
に設定します。
+これらの設定は、docker
コマンドまたは Docker compose ファイルのいずれかで適用できます。
+
+[1]: /ja/agent/docker/
+{{% /tab %}}
+{{% tab "Kubernetes (Daemonset)" %}}
+
+1. [Kubernetes Agent のセットアップ][1] に従ってください。
+
+2. trace Agent コンテナと core Agent コンテナの両方で、次の環境変数を構成します:
+
+ gRPC の場合:
+ ```
+ name: DD_OTLP_CONFIG_RECEIVER_PROTOCOLS_GRPC_ENDPOINT # enables gRPC receiver on port 4317
+ value: "0.0.0.0:4317"
+ ```
+
+ HTTP の場合:
+ ```
+ name: DD_OTLP_CONFIG_RECEIVER_PROTOCOLS_HTTP_ENDPOINT # enables HTTP receiver on port 4318
+ value: "0.0.0.0:4318"
+ ```
+3. core Agent コンテナでは、コンテナ ポート 4317 または 4318 をホスト ポートにマッピングします:
+
+ gRPC の場合:
+ ```
+ ports:
+ - containerPort: 4317
+ hostPort: 4317
+ name: traceportgrpc
+ protocol: TCP
+ ```
+
+ HTTP の場合:
+ ```
+ ports:
+ - containerPort: 4318
+ hostPort: 4318
+ name: traceporthttp
+ protocol: TCP
+ ```
+
+4. OTLP ログ取り込みを有効にする場合は、core Agent コンテナで次のエンドポイント 環境変数を設定します:
+
+ [DaemonSet でのログ収集][2] を有効化します:
+ ```
+ name: DD_LOGS_ENABLED
+ value: "true"
+ ```
+
+ 続いて OTLP ログ取り込みを有効化します:
+ ```
+ name: DD_OTLP_CONFIG_LOGS_ENABLED
+ value: "true"
+ ```
+
+[1]: /ja/agent/kubernetes/?tab=daemonset
+[2]: /ja/containers/guide/kubernetes_daemonset/#log-collection
+{{% /tab %}}
+
+{{% tab "Kubernetes (Helm) - values.yaml" %}}
+
+1. [Kubernetes Agent のセットアップ][1] に従ってください。
+
+2. `values.yaml` ファイルの `datadog.otlp` セクションを編集して、Agent で OTLP エンドポイントを有効化します:
+
+ gRPC の場合:
+ ```
+ otlp:
+ receiver:
+ protocols:
+ grpc:
+ endpoint: 0.0.0.0:4317
+ enabled: true
+ ```
+
+ HTTP の場合:
+ ```
+ otlp:
+ receiver:
+ protocols:
+ http:
+ endpoint: 0.0.0.0:4318
+ enabled: true
+ ```
+
+これにより、各プロトコルがデフォルト ポートで有効になります (OTLP/gRPC は `4317`、OTLP/HTTP は `4318`)。
+
+
+[1]: /ja/agent/kubernetes/?tab=helm
+{{% /tab %}}
+
+{{% tab "Kubernetes (Helm) - set" %}}
+
+1. [Kubernetes Agent のセットアップ][1] に従ってください。
+
+2. 使用したいプロトコルを有効化します:
+
+ gRPC の場合:
+ ```
+ --set "datadog.otlp.receiver.protocols.grpc.enabled=true"
+ ```
+ HTTP の場合:
+ ```
+ --set "datadog.otlp.receiver.protocols.http.enabled=true"
+ ```
+
+これにより、各プロトコルがデフォルト ポートで有効になります (OTLP/gRPC は `4317`、OTLP/HTTP は `4318`)。
+
+[1]: /ja/agent/kubernetes/?tab=helm
+{{% /tab %}}
+{{% tab "Kubernetes (Operator)" %}}
+
+1. [Kubernetes Agent のセットアップ][1] に従ってください。
+
+2. Operator のマニフェストで、使用するプロトコルを有効化します:
+
+ gRPC の場合:
+ ```yaml
+ features:
+ otlp:
+ receiver:
+ protocols:
+ grpc:
+ enabled: true
+ ```
+ HTTP の場合:
+ ```yaml
+ features:
+ otlp:
+ receiver:
+ protocols:
+ http:
+ enabled: true
+ ```
+
+これにより、各プロトコルがデフォルト ポートで有効になります (OTLP/gRPC は `4317`、OTLP/HTTP は `4318`)。
+
+[1]: /ja/agent/kubernetes/?tab=helm
+{{% /tab %}}
+{{% tab "AWS Lambda" %}}
+
+AWS Lambda と Datadog で OpenTelemetry を使用するための詳細な手順 (次を含む):
+
+- OpenTelemetry を用いた Lambda 関数のインスツルメンテーション
+- Datadog トレーサーにおける OpenTelemetry API サポートの利用
+- Datadog Lambda Extension への OpenTelemetry トレースの送信
+
+詳細は、Serverless ドキュメントの [AWS Lambda と OpenTelemetry][100] を参照してください。
+
+[100]: /ja/serverless/aws_lambda/opentelemetry/
+{{% /tab %}}
+{{< /tabs >}}
+
+Datadog Agent でサポートされる環境変数や設定は、ほかにも多数あります。全体像については、[設定テンプレート][6] を参照してください。
+
+## OpenTelemetry のトレース、メトリクス、ログを Datadog Agent に送信する
+
+{{< tabs >}}
+{{% tab "Docker" %}}
+1. アプリケーション コンテナで、Datadog Agent コンテナを指すように環境変数 `OTEL_EXPORTER_OTLP_ENDPOINT` を設定します。例:
+
+ ```
+ OTEL_EXPORTER_OTLP_ENDPOINT=http://:4318
+ ```
+
+2. 両コンテナは同じブリッジ ネットワーク内に定義されている必要があります。Docker Compose を使用している場合は自動的に処理されます。そうでない場合は、[Docker アプリケーションのトレーシング][1] の Docker の例に従って、適切なポートを開けたブリッジ ネットワークを設定してください。
+
+[1]: /ja/agent/docker/apm/#docker-network
+{{% /tab %}}
+
+{{% tab "Kubernetes" %}}
+
+アプリケーションのデプロイメント ファイルで、環境変数 `OTEL_EXPORTER_OTLP_ENDPOINT` を用いて、OpenTelemetry クライアントがトレースを送信するエンドポイントを構成します。
+
+gRPC の場合:
+```yaml
+env:
+ - name: HOST_IP
+ valueFrom:
+ fieldRef:
+ fieldPath: status.hostIP
+ - name: OTEL_EXPORTER_OTLP_ENDPOINT
+ value: "http://$(HOST_IP):4317" # ポート 4317 の gRPC レシーバーに送信
+```
+
+HTTP の場合:
+```yaml
+env:
+ - name: HOST_IP
+ valueFrom:
+ fieldRef:
+ fieldPath: status.hostIP
+ - name: OTEL_EXPORTER_OTLP_ENDPOINT
+ value: "http://$(HOST_IP):4318" # ポート 4318 の HTTP レシーバーに送信
+```
+**注**: カスタム メトリクスのコンテナ タグを充実させるには、OTLP メトリクスを生成するアプリケーション コード内で適切なリソース 属性を設定してください。例えば、`container.id` リソース 属性に Pod の UID を設定します。
+
+{{% /tab %}}
+{{< /tabs >}}
+
+トレースの送信先エンドポイントを構成する際は、使用している OTLP ライブラリが要求する正しいパスを指定してください。ライブラリによっては、トレースの送信先を /v1/traces
パスに期待するものもあれば、ルート パス /
を使用するものもあります。
+
+## 参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://opentelemetry.io/docs/instrumentation/
+[2]: /ja/metrics/open_telemetry/otlp_metric_types/
+[3]: https://opentelemetry.io/docs/concepts/instrumenting/
+[4]: https://github.com/DataDog/datadog-agent/blob/main/CHANGELOG.rst
+[5]: https://github.com/open-telemetry/opentelemetry-collector/blob/main/receiver/otlpreceiver/config.md
+[6]: https://github.com/DataDog/datadog-agent/blob/main/pkg/config/config_template.yaml
+[10]: /ja/opentelemetry/runtime_metrics/
\ No newline at end of file
diff --git a/content/ja/software_catalog/service_definitions/v3-0.md b/content/ja/software_catalog/service_definitions/v3-0.md
new file mode 100644
index 0000000000000..ff25995f9e5bc
--- /dev/null
+++ b/content/ja/software_catalog/service_definitions/v3-0.md
@@ -0,0 +1,396 @@
+---
+aliases:
+- /ja/service_catalog/service_definitions/v3-0
+further_reading:
+- link: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/service_definition_yaml
+ tag: 外部サイト
+ text: Terraform を用いた定義の作成および管理
+- link: /api/latest/service-definition/
+ tag: API
+ text: Definition API について
+- link: /integrations/github
+ tag: ドキュメント
+ text: GitHub インテグレーションについて
+- link: https://www.datadoghq.com/blog/service-catalog-backstage-yaml/
+ tag: ブログ
+ text: Backstage の YAML ファイルを Datadog にインポート
+- link: https://www.datadoghq.com/blog/service-catalog-schema-v3/
+ tag: ブログ
+ text: Service Catalog スキーマ v3.0 で開発者体験とコラボレーションを向上
+title: 定義スキーマ v3.0
+---
+
+## 概要
+
+スキーマ v3.0 は、柔軟性と詳細な定義を提供するために、いくつかの新機能と拡張を導入します。
+
+## 主な特徴
+
+- **拡張されたデータ モデル**: v3.0 は複数種のエンティティをサポートします。システム、サービス、キュー、データ ストアなどのさまざまなコンポーネントでシステムを編成できます。
+
+- **複数所有者**: v3.0 スキーマで定義した任意のオブジェクトに複数の所有者を割り当て、複数の連絡先を指定できます。
+
+- **関係性のマッピング強化**: APM と USM のデータにより、コンポーネント間の依存関係を自動検出できます。v3.0 では、自動検出されたシステム トポロジーを補強するための手動宣言をサポートし、システム内でコンポーネントがどのように相互作用するかの全体像を把握できます。
+
+- **システム メタデータの継承**: システム内のコンポーネントは、そのシステムのメタデータを自動的に継承します。v2.1 や v2.2 のときのように、関連コンポーネントそれぞれにメタデータを一つずつ宣言する必要はありません。
+
+- **コード ロケーションの明確化**: サービスのコード ロケーションのマッピングを追加できます。v3.0 の `codeLocations` セクションでは、コードを含むリポジトリと、その関連する `paths` を指定します。`paths` 属性は、リポジトリ内のパスにマッチさせるための [グロブ][4] のリストです。
+
+- **(プレビュー) カスタム エンティティ**: Service、System、Datastore、Queue、API 以外のカスタムなエンティティ タイプを定義できます。スコアカードやアクションの適用範囲を特定のエンティティ タイプに限定できます。
+
+- **(プレビュー) インテグレーション**: サードパーティ ツールと連携し、コンポーネントに関連する情報を動的に取り込めます (例: GitHub の pull request、PagerDuty のインシデント、GitLab のパイプライン)。任意のサードパーティ ソースに対してレポートし、スコアカード ルールを作成できます。
+
+- **(プレビュー) 製品またはドメインでのグループ化**: コンポーネントを製品別に整理し、複数層の階層グループ化を可能にします。
+
+{{< callout url="https://forms.gle/fwzarcSww6By7tn39" d_target="#signupModal" btn_hidden="false" header="Software Catalog の最新バージョンの Preview にオプトイン" >}}
+{{< /callout >}}
+
+## メタデータ スキーマ v3.0
+
+Entity Definition Schema は、エンティティの基本情報を格納する構造体です。[GitHub にあるフルスキーマ][1]を参照してください。
+
+v3.0 では、更新された公開スキーマの用語に合わせ、ドキュメント内の application
フィールドは system
に置き換えられました。
+
+### `kind:system` の YAML 例
+{{< code-block lang="yaml" filename="entity.datadog.yaml" collapsible="true" >}}
+apiVersion: v3
+kind: system
+metadata:
+ name: myapp
+ displayName: My App
+ tags:
+ - tag:value
+ links:
+ - name: shopping-cart runbook
+ type: runbook
+ url: https://runbook/shopping-cart
+ - name: shopping-cart architecture
+ provider: gdoc
+ url: https://google.drive/shopping-cart-architecture
+ type: doc
+ - name: shopping-cart Wiki
+ provider: wiki
+ url: https://wiki/shopping-cart
+ type: doc
+ - name: shopping-cart source code
+ provider: github
+ url: http://github/shopping-cart
+ type: repo
+ contacts:
+ - name: Support Email
+ type: email
+ contact: team@shopping.com
+ - name: Support Slack
+ type: slack
+ contact: https://www.slack.com/archives/shopping-cart
+ owner: myteam
+ additionalOwners:
+ - name: opsTeam
+ type: operator
+integrations:
+ pagerduty:
+ serviceURL: https://www.pagerduty.com/service-directory/Pshopping-cart
+ opsgenie:
+ serviceURL: https://www.opsgenie.com/service/shopping-cart
+ region: US
+spec:
+ components:
+ - service:myservice
+ - service:otherservice
+extensions:
+ datadoghq.com/shopping-cart:
+ customField: customValue
+datadog:
+ codeLocations:
+ - repositoryURL: https://github.com/myorganization/myrepo.git
+ paths:
+ - path/to/service/code/**
+ events:
+ - name: "deployment events"
+ query: "app:myapp AND type:github"
+ - name: "event type B"
+ query: "app:myapp AND type:github"
+ logs:
+ - name: "critical logs"
+ query: "app:myapp AND type:github"
+ - name: "ops logs"
+ query: "app:myapp AND type:github"
+ pipelines:
+ fingerprints:
+ - fp1
+ - fp2
+{{< /code-block >}}
+
+### `kind:custom.library` の YAML 例
+{{< code-block lang="yaml" filename="entity.datadog.yaml" collapsible="true" >}}
+apiVersion: v3
+kind: custom.library
+metadata:
+ name: my-library
+ displayName: My Library
+ tags:
+ - tag:value
+ links:
+ - name: shopping-cart runbook
+ type: runbook
+ url: https://runbook/shopping-cart
+ - name: shopping-cart architecture
+ provider: gdoc
+ url: https://google.drive/shopping-cart-architecture
+ type: doc
+ - name: shopping-cart Wiki
+ provider: wiki
+ url: https://wiki/shopping-cart
+ type: doc
+ - name: shopping-cart source code
+ provider: github
+ url: http://github/shopping-cart
+ type: repo
+ contacts:
+ - name: Support Email
+ type: email
+ contact: team@shopping.com
+ - name: Support Slack
+ type: slack
+ contact: https://www.slack.com/archives/shopping-cart
+ owner: myteam
+ additionalOwners:
+ - name: opsTeam
+ type: operator
+{{< /code-block >}}
+
+### 複数のシステムに属する共通コンポーネントの指定
+1 つのコンポーネントが複数のシステムに属する場合は、各システムの YAML にそのコンポーネントを記述する必要があります。たとえば、データ ストア `orders-postgres` が postgres フリートと Web アプリケーションの両方のコンポーネントである場合は、2 つの YAML を用意します:
+
+postgres フリート (`managed-postgres`) には、`kind:system` の定義を記述します:
+{{< code-block lang="yaml" filename="entity.datadog.yaml" collapsible="true" >}}
+apiVersion: v3
+kind: system
+spec:
+ components:
+ - datastore:orders-postgres
+ - datastore:foo-postgres
+ - datastore:bar-postgres
+metadata:
+ name: managed-postgres
+ owner: db-team
+{{< /code-block >}}
+
+Web アプリケーション (`shopping-cart`) には、別の `kind:system` 定義を宣言します:
+
+{{< code-block lang="yaml" filename="entity.datadog.yaml" collapsible="true" >}}
+apiVersion: v3
+kind: system
+spec:
+ lifecycle: production
+ tier: critical
+ components:
+ - service:shopping-cart-api
+ - service:shopping-cart-processor
+ - queue:orders-queue
+ - datastore:orders-postgres
+metadata:
+ name: shopping-cart
+ owner: shopping-team
+ additionalOwners:
+ - name: sre-team
+ type: operator
+---
+apiVersion: v3
+kind: datastore
+metadata:
+ name: orders-postgres
+ additionalOwners:
+ - name: db-team
+ type: operator
+---
+apiVersion: v3
+kind: service
+metadata:
+ name: shopping-cart-api
+---
+apiVersion: v3
+kind: service
+metadata:
+ name: shopping-cart-processor
+---
+{{< /code-block >}}
+
+### 明示的・暗黙的なメタデータの継承
+
+#### 明示的継承
+{{< code-block lang="yaml" filename="entity.datadog.yaml" collapsible="true" >}}
+inheritFrom::
+{{< /code-block >}}
+
+`inheritFrom` フィールドは、`:` で参照されるエンティティのメタデータを継承するように取り込みパイプラインに指示します。
+
+#### 暗黙的継承
+コンポーネント(`kind:service`、`kind:datastore`、`kind:queue`、`kind:ui`)は、次の条件を満たす場合に、所属するシステムのすべてのメタデータを継承します:
+- YAML ファイル内で定義されているシステムが 1 つだけであること。
+- YAML ファイルに `inheritFrom::` という句が存在しないこと。
+
+### v3.0 の API エンドポイント
+v3.0 の API エンドポイントについては、最新の [API ドキュメント][5] を参照してください。
+
+## スキーマ概要
+[GitHub 上のスキーマ定義全文][1] を参照できます。以下はスキーマ構造の概要です:
+- `api_version`: スキーマのバージョン (2.0、2.1、3.0)。
+- `kind`: 新しいフィールドで、コンポーネントの種類を定義します (service、queue、datastore、system、API)。
+- `metadata`: 命名、説明、所有者、リンク (ドキュメント、ランブック、リポジトリ、連絡先、ダッシュボード)、およびタグを含みます。
+- `spec`: 階層、ライフサイクル、言語、タイプ、他コンポーネントとの関係を含みます。
+- `integrations`: PagerDuty と OpsGenie への接続を含みます。
+- `datadog`: コード ロケーション、パイプライン、ログ、イベントなど、他の Datadog データへのフィルターやリンク方法を含みます。
+
+### v3.0 への移行
+v3.0 は、従来バージョンと同じメタデータ作成方法をサポートします (GitHub、API、Terraform、Backstage、ServiceNow、UI など)。ただし、v3.0 には新しい [API エンドポイント][5] と新しい [Terraform モジュール][6] があります。
+
+[GitHub 上のスキーマ定義全文][1] も参照できます。v3.0 では v2.2 から次の変更があります:
+- `schema_version` は `apiVersion` になりました。
+- `kind` フィールドが新設され、コンポーネントの種類 (service、queue、datastore、system、API) を定義します。
+- `dd-service` は `metadata.name` になりました。
+- `team` は `owner` に変更され、チームが複数ある場合は `additionalOwners` が使われます。
+- `lifecycle`、`tier`、`languages`、`type` は `spec` の下になりました。
+- `links`、`contacts`、`description`、`tags` は metadata の下になりました。
+- `application` は強化され、独立した kind である `system` になりました。サービス上の個別フィールドとしては存在しません。
+
+## Software Catalog の System ページと API ページ
+
+`kind:system` と `kind:api` のエンティティを定義すると、service、queue、datastore、endpoint を含むエンティティの階層的なグルーピングが作成されます。システムまたは API 内のコンポーネントを定義するには、エンティティの v3 定義の `spec` フィールドにある `components` キーに値を指定します。
+
+`kind:system` の YAML 例:
+{{< code-block lang="yaml" filename="entity.datadog.yaml" collapsible="true" >}}
+apiVersion: v3
+kind: system
+metadata:
+ name: product-recommendation
+ description: Surfaces personalized product suggestions in Shopist
+ displayName: "Product Recommendation"
+ tags:
+ - product:recommendations
+ - business-line:shared-components
+ owner: shopist
+ additionalOwners:
+ - name: Shopist Support Team
+ type: Operator
+spec:
+ lifecycle: production
+ tier: "0"
+ components:
+ - service: product-recommendation
+ - service: orders-app
+ - api: products
+ - system: shopist-user-trends
+{{< /code-block >}}
+
+上記のユーザー定義のシステムは、以下のとおり Software Catalog に表示されます。このページには、システムと上流/下流の依存関係の間のコンポーネントの関係データに加えて、すべてのシステム コンポーネントを横断して集計されたスコア カード、ログ、イベントが保持されます。
+
+{{< img src="/tracing/software_catalog/product-rec-systemV3.png" alt="Software Catalog の Product Recommendations システムの System ページ" style="width:90%;" >}}
+
+`kind:api` の YAML 例:
+{{< code-block lang="yaml" filename="entity.datadog.yaml" collapsible="true" >}}
+{
+ "apiVersion": "v3",
+ "kind": "api",
+ "metadata": {
+ "name": "payments",
+ "displayName": "Payments",
+ "owner": "Payments Team",
+ "links": [
+ {
+ "name": "Deployment Information",
+ "type": "doc",
+ "url": "https://wiki/products
+"
+ },
+ {
+ "name": "Source",
+ "type": "repo",
+ "provider": "github",
+ "url": "https://github.com/"
+ },
+ {
+ "name": "Performance Dashboard",
+ "type": "dashboard",
+ "url": "https://datadoghq.com"
+ }
+ ]
+ },
+ "integrations": {
+ "pagerduty": {
+ "serviceURL": "https://www.pagerduty.com/service-directory/products"
+ }
+ },
+ "spec": {
+ "type": "openapi",
+ "implementedBy": [
+ "service:payment",
+ "service:payments-go"
+ ],
+ "interface": {
+ "definition": {
+ "info": {
+ "title": "Payments"
+ },
+ "openapi": "3.0.0",
+ "paths": {
+ "/add_item": {
+ "post": {
+ "responses": {
+ "200": {
+ "description": "OK"
+ }
+ }
+ }
+ },
+ "/add_purchases": {
+ "post": {
+ "responses": {
+ "200": {
+ "description": "OK"
+ }
+ }
+ }
+ },
+ "/admin/update_user": {
+ "post": {
+ "responses": {
+ "200": {
+ "description": "OK"
+ }
+ }
+ }
+ },
+ "/carts": {
+ "get": {
+ "responses": {
+ "200": {
+ "description": "OK"
+ }
+ }
+ }
+ }
+ }
+ }
+ },
+ "lifecycle": "production",
+ "tier": "Tier 0"
+ }
+}
+{{< /code-block >}}
+
+ユーザー定義の API は、以下のとおり Software Catalog に表示されます。このページには、API が依存関係とどのように相互作用するかに関する関係データ、API コンポーネント、OpenAPI プレビュー、そして全エンド ポイントを横断して集計されたログとイベントが含まれます。
+
+{{< img src="/tracing/software_catalog/api-page-v3.png" alt="Software Catalog の Payments API の API ページ" style="width:90%;" >}}
+
+## 参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://github.com/DataDog/schema/tree/main/service-catalog/v3
+[2]: https://github.com/DataDog/schema/tree/main/service-catalog
+[3]: /ja/code_analysis/faq/#identifying-the-code-location-in-the-service-catalog
+[4]: https://en.wikipedia.org/wiki/Glob_(programming)
+[5]: /ja/api/latest/software-catalog/
+[6]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/software_catalog
+[7]: software_catalog/customize/import_entries_backstage
\ No newline at end of file
diff --git a/content/ja/synthetics/explore/results_explorer/search_runs.md b/content/ja/synthetics/explore/results_explorer/search_runs.md
new file mode 100644
index 0000000000000..37a644d842027
--- /dev/null
+++ b/content/ja/synthetics/explore/results_explorer/search_runs.md
@@ -0,0 +1,272 @@
+---
+aliases:
+- /ja/continuous_testing/explorer/search_runs/
+description: すべてのテスト実行を調査し、失敗したテスト結果のトラブルシューティングを行います。
+further_reading:
+- link: /synthetics/explore/results_explorer
+ tag: ドキュメント
+ text: Learn about the Synthetic Monitoring & Testing Results Explorer
+title: テスト実行の検索
+---
+
+## 概要
+
+右上のドロップダウンメニューから時間帯を選択した後、[Synthetic Monitoring & Testing Results Explorer][1] の **Test Runs** イベントタイプをクリックすると、テスト実行を検索することができます。
+
+{{< img src="continuous_testing/explorer/explorer_test_runs_2.png" alt="Synthetic Monitoring & Testing Results Explorer でテスト実行を検索・管理する" style="width:100%;">}}
+
+ファセットを使用すると、以下のアクションを実行できます。
+
+- 再試行を必要とする最新のテスト実行を観測します。
+- 失敗した API テスト実行を HTTP ステータスコードで集計し、傾向をプロットします。
+
+## ファセットの確認
+
+左側のファセットパネルには、テスト実行を検索するために使用できる複数のファセットが表示されます。検索クエリのカスタマイズを開始するには、**Common** で始まるファセットリストをクリックします。
+
+### Common テスト実行属性
+
+
+
+
+ ファセット |
+ 説明 |
+
+
+
+
+ Batch ID |
+ テスト実行に関連付けられたバッチ ID |
+
+
+ Execution Rule |
+ CI バッチのテスト結果に関連付けられた実行ルール: Blocking, Non Blocking, Skipped |
+
+
+ Location |
+ バッチのテスト結果に関連付けられたロケーション |
+
+
+ Passed |
+ テスト実行の全体的なステータス |
+
+
+ Run Type |
+ テスト実行の種別。scheduled, CI, または manually triggered のいずれか |
+
+
+ Failure Code |
+ テスト失敗の理由を示すコード |
+
+
+ Test Type |
+ 実行されるテストの種類 |
+
+
+ Test Subtype |
+ テストの特定のサブタイプ |
+
+
+ Location Version |
+ プライベート テスト ロケーションのバージョン |
+
+
+ Location Platform |
+ プライベート ロケーションのプラットフォーム名 |
+
+
+ Test ID |
+ テストの識別子 |
+
+
+ Failure Message |
+ 失敗の詳細メッセージ |
+
+
+ Result Retry Number |
+ テストの再試行回数 |
+
+
+ Test Finished At |
+ テストの終了時刻のタイムスタンプ |
+
+
+ Test Started At |
+ テストの開始時刻のタイムスタンプ |
+
+
+ Test Triggered At |
+ テストのトリガー時刻のタイムスタンプ |
+
+
+ Test Will Retry At |
+ テストの次回再試行時刻のタイムスタンプ |
+
+
+ Trace ID |
+ 追跡用のトレース ID |
+
+
+ Open Telemetry ID |
+ Open Telemetry の識別子 |
+
+
+ Variable Name |
+ テストで使用される変数名 |
+
+
+
+
+## Timings 属性
+
+**Timings** ファセットでは、API テスト実行のタイミングに関連する属性でフィルターをかけることができます。
+
+| ファセット | 説明 |
+|----------------|-----------------------------------------------------------------|
+| `DNS` | API テスト実行のための DNS 名解決に費やされた時間。 |
+| `ダウンロード` | API テスト実行で、レスポンスのダウンロードにかかった時間。 |
+| `First Byte` | API テスト実行で、レスポンスの 1 バイト目を受信するまでにかかった時間。 |
+| `Open` | WebSocket テスト実行で、WebSocket が開かれたままの全体の時間。 |
+| `Received` | WebSocket テスト実行で、WebSocket 接続がデータの受信に費やした全体の時間。 |
+| `TCP` | API テスト実行のための TCP 接続の確立にかかった時間。 |
+| `Total` | API テスト実行の総レスポンスタイム。 |
+
+### HTTP 属性
+
+**HTTP** ファセットを使用すると、HTTP 属性でフィルタリングできます。
+
+| ファセット | 説明 |
+|------------------------|---------------------------------------------|
+| `HTTP Status Code` | テスト実行の HTTP ステータスコード。 |
+
+### gRPC 属性
+
+**gRPC** ファセットは、gRPC テスト実行に関連するものです。
+
+| ファセット | 説明 |
+|-------------------------|------------------------------------------------------------------------|
+| `Health Check Status` | gRPC テストのヘルスチェックのステータス。ステータスは `Serving` または `Failing` です。 |
+
+### SSL 属性
+
+**SSL** ファセットは、SSL テスト実行に関連するものです。
+
+| ファセット | 説明 |
+|-----------|------------------------------------------------------------------|
+| `AltNames`| SSL 証明書に関連付けられた代替レコード名。 |
+
+### TCP 属性
+
+**TCP** ファセットは、テスト実行中の TCP 接続に関連するものです。
+
+| ファセット | 説明 |
+|-----------------------|---------------------------------------------------------------------------------------|
+| Connection Outcome
| TCP 接続のステータス。結果は `established`、`timeout`、または `refused` となります。 |
+
+### Devices 属性
+
+**Devices** ファセットは、テスト実行で使用されたデバイスに関連します。
+
+| ファセット | 説明 |
+|--------------------------|--------------------------------------------------------------|
+| `Device Name` | テストで使用したデバイスの名前。 |
+| `Device Resolution Width`| デバイスの解像度の幅。 |
+| `Device Resolution Height`| デバイスの解像度の高さ。 |
+| `Device Type` | テストで使用したデバイスの種類。 |
+
+### Browser 属性
+
+**Browser** ファセットは、ブラウザー テストに関連します。
+
+| ファセット | 説明 |
+|------------------------|-----------------------------------------------------------------|
+| `Browser Type` | テストで使用したブラウザーの種類。 |
+| `Browser Version` | 使用したブラウザーのバージョン。 |
+| `Browser User Agent` | 使用したブラウザーのユーザー エージェント。 |
+
+### API 属性
+
+**API** ファセットは、API テスト実行に関連します。
+
+| ファセット | 説明 |
+|-------------------------------|-------------------------------------------------------------|
+| `Resolved IP` | DNS 解決で得られた IP。 |
+| `DNS Resolution Server` | DNS 解決に使用されたサーバー。 |
+| `Request Body` | HTTP リクエストの本文。 |
+| `Request Headers` | HTTP リクエストのヘッダー。 |
+| `Request Host` | HTTP リクエストの Host ヘッダー。 |
+| `Request Message` | HTTP リクエストのメッセージ。 |
+| `Request Metadata` | HTTP リクエストに関連するメタ データ。 |
+| `Request URL` | HTTP リクエストの URL。 |
+| `Response Body` | HTTP レスポンスの本文。 |
+| `Body Size` | レスポンス本文のサイズ。 |
+| `Cache Headers Server` | レスポンスのキャッシュ ヘッダーに含まれる Server。 |
+| `Cache Headers Vary` | レスポンスのキャッシュ ヘッダーに含まれる Vary。 |
+| `Cache Headers Via` | レスポンスのキャッシュ ヘッダーに含まれる Via。 |
+| `CDN Provider` | レスポンス配信に使用された CDN プロバイダー。 |
+| `Response Close Status Code` | レスポンス クローズ時のステータス コード。 |
+| `Response Is Body Truncated` | レスポンス本文がトランケートされたかどうかを示します。 |
+| `Response Is Message Truncated`| レスポンス メッセージがトランケートされたかどうかを示します。 |
+| `Response Message` | HTTP レスポンスのメッセージ。 |
+| `Response Metadata` | HTTP レスポンスに関連するメタ データ。 |
+| `Response Close Reason` | レスポンス クローズの理由。 |
+| `Response Redirects` | レスポンス内のリダイレクト情報。 |
+| `Response Status Code` | テスト実行の HTTP ステータスコード。 |
+| `Healthcheck Message Service` | ヘルス チェック メッセージ サービスに関する情報。 |
+| `Handshake Request Message` | ハンドシェイク リクエスト時のメッセージ。 |
+| `Handshake Response Headers` | ハンドシェイク レスポンス時のヘッダー。 |
+| `Handshake Response Status Code` | ハンドシェイク レスポンス時のステータス コード。 |
+
+### Mobile 属性
+
+**Mobile** ファセットは、モバイル テストに関連します。
+
+| ファセット | 説明 |
+|---------------------------|-------------------------------------------------------------|
+| `Mobile Platform` | モバイル デバイスのプラットフォーム名。 |
+| `Mobile Application` | モバイル アプリケーションのバージョン ID。 |
+| `Mobile Platform Version` | モバイル プラットフォームのバージョン。 |
+| `Device Resolution Pixel Ratio` | デバイス ディスプレイのピクセル比。 |
+
+### Continuous Testing 属性
+
+**Continuous Testing** ファセットは、継続的テストに関連します。
+
+| ファセット | 説明 |
+|--------------------------|-------------------------------------------------------------------------------|
+| `Concurrency Wait Time` | 同時実行の待機時間。 |
+| `Git Author Email` | コミット作成者のメール アドレス。 |
+| `Git Author Name` | コミット作成者の名前。 |
+| `Git Branch` | 使用したリポジトリのブランチ。 |
+| `Git URL` | Git リポジトリの URL。 |
+| `CI Job Name` | CI ジョブの名前。 |
+| `CI Job URL` | CI ジョブの URL。 |
+| `CI Pipeline ID` | CI パイプラインの識別子。 |
+| `CI Pipeline Name` | CI パイプラインの名前。 |
+| `CI Pipeline Number` | CI パイプラインに割り当てられた番号。 |
+| `CI Pipeline URL` | CI パイプラインの URL。 |
+| `CI Provider Name` | CI プロバイダー名。 |
+| `CI Stage Name` | CI プロセス内のステージ名。 |
+| `CI Workspace Path` | CI プロセス内のワークスペース パス。 |
+
+### Step 属性
+
+**Step** ファセットは、テスト ステップに関連します。
+
+| ファセット | 説明 |
+|---------------|--------------------------------|
+| `Step ID` | テスト ステップの識別子。 |
+| `Step Name` | テスト ステップの名前。 |
+| `Step Status` | テスト ステップのステータス。 |
+
+
+再試行されたテストにフィルターをかけるには、`@result.isFastRetry:true` を使用して検索クエリを作成します。また、`@result.isLastRetry:true` フィールドを使用して、再試行が行われたテストの最後の実行を取得することができます。
+
+テスト実行の検索については、[検索構文][2]を参照してください。
+
+## 参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/synthetics/explorer/
+[2]: /ja/continuous_testing/explorer/search_syntax
\ No newline at end of file
diff --git a/layouts/shortcodes/observability_pipelines/configure_existing_pipelines/install_worker/docker.es.md b/layouts/shortcodes/observability_pipelines/configure_existing_pipelines/install_worker/docker.es.md
new file mode 100644
index 0000000000000..9c31cd2efbb95
--- /dev/null
+++ b/layouts/shortcodes/observability_pipelines/configure_existing_pipelines/install_worker/docker.es.md
@@ -0,0 +1,17 @@
+1. Haz clic en **Select API key** (Seleccionar clave de API) para elegir la clave de API Datadog que quieres utilizar.
+1. Ejecuta el comando proporcionado en la interfaz de usuario para instalar el Worker. El comando se rellena automáticamente con las variables de entorno que introdujiste anteriormente.
+ ```shell
+ docker run -i -e DD_API_KEY= \
+ -e DD_OP_PIPELINE_ID= \
+ -e DD_SITE= \
+ -e \
+ -e \
+ -p 8088:8088 \
+ datadog/observability-pipelines-worker run
+ ```
+ **Nota**: Por defecto, el comando `docker run` expone el mismo puerto en el que escucha el Worker. Si quieres asignar el puerto del contenedor del Worker a un puerto diferente en el host Docker, utiliza la opción `-p | --publish`:
+ ```
+ -p 8282:8088 datadog/observability-pipelines-worker run
+ ```
+1. Haz clic en **Navigate Back** (Navegar hacia atrás) para volver a la página de edición de Observability Pipelines.
+1. Haz clic en **Deploy Changes** (Desplegar cambios).
\ No newline at end of file
diff --git a/layouts/shortcodes/observability_pipelines/destination_env_vars/datadog_archives_amazon_s3.es.md b/layouts/shortcodes/observability_pipelines/destination_env_vars/datadog_archives_amazon_s3.es.md
new file mode 100644
index 0000000000000..177aeaf314a0f
--- /dev/null
+++ b/layouts/shortcodes/observability_pipelines/destination_env_vars/datadog_archives_amazon_s3.es.md
@@ -0,0 +1 @@
+No hay variables de entorno que configurar.
diff --git a/layouts/shortcodes/observability_pipelines/prerequisites/fluent.es.md b/layouts/shortcodes/observability_pipelines/prerequisites/fluent.es.md
new file mode 100644
index 0000000000000..d13389e4ecda1
--- /dev/null
+++ b/layouts/shortcodes/observability_pipelines/prerequisites/fluent.es.md
@@ -0,0 +1,4 @@
+Para utilizar la fuente FluentD o Fluent Bit de Observability Pipelines, necesitas disponer de la siguiente información:
+
+1. El Observability Pipelines Worker escucha en esta dirección bind para recibir logs de tus aplicaciones. Por ejemplo, `0.0.0.0:8088`. Más adelante, configurarás tus aplicaciones para que envíen logs a esta dirección.
+2. Los certificados TLS apropiados y la contraseña que utilizaste para crear tu clave privada si tus forwarders están configurados globalmente para activar SSL.
\ No newline at end of file
From 3fd1506603cb28e78da27e4678a6cdbaa77725b9 Mon Sep 17 00:00:00 2001
From: "webops-guacbot[bot]"
<214537265+webops-guacbot[bot]@users.noreply.github.com>
Date: Sun, 12 Oct 2025 15:07:57 +0000
Subject: [PATCH 2/8] Translated file updates
---
.../datadog_operator/advanced_install.md | 280 +++
.../datadog_operator/custom_check.md | 168 ++
.../explorer/saved_views.md | 65 +
.../continuous_integration/search/_index.md | 84 +-
content/es/data_security/_index.md | 16 +-
.../setup_postgres/_index.md | 4 +-
.../single_step_instrumentation.md | 178 ++
content/es/integrations/appgate_sdp.md | 139 +
content/es/integrations/cockroachdb.md | 2238 ++++++++++++++++-
content/es/integrations/consul.md | 433 ++--
content/es/integrations/coredns.md | 293 ++-
.../es/integrations/delinea_secret_server.md | 216 ++
content/es/integrations/github.md | 507 ++--
content/es/integrations/github_costs.md | 121 +
content/es/integrations/glusterfs.md | 181 +-
.../es/integrations/google_cloud_bigquery.md | 122 +
content/es/integrations/hivemq.md | 382 ++-
content/es/integrations/ilert.md | 118 +-
content/es/integrations/insightfinder.md | 78 +-
content/es/integrations/iocs_dmi4apm.md | 135 +
content/es/integrations/jetbrains_ides.md | 101 +
content/es/integrations/kitepipe_atomwatch.md | 201 ++
content/es/integrations/linux_audit_logs.md | 207 ++
content/es/integrations/microsoft_sysmon.md | 197 ++
content/es/integrations/okta_workflows.md | 119 +
content/es/integrations/shopify.md | 140 ++
content/es/integrations/silverstripe_cms.md | 174 ++
content/es/integrations/sonatype_nexus.md | 182 ++
content/es/integrations/streamnative.md | 153 ++
content/es/integrations/supabase.md | 182 ++
content/es/integrations/temporal.md | 249 ++
...rend_micro_vision_one_endpoint_security.md | 150 ++
content/es/integrations/wiz.md | 76 +-
.../es/metrics/composite_metrics_queries.md | 6 +-
.../archive_logs/splunk_tcp.md | 255 +-
.../set_up_pipelines/dual_ship_logs/socket.md | 384 +++
.../generate_metrics/google_pubsub.md | 273 +-
.../log_volume_control/http_client.md | 97 +-
.../log_volume_control/syslog.md | 281 ++-
.../sensitive_data_redaction/amazon_s3.md | 119 +-
.../sensitive_data_redaction/splunk_hec.md | 277 +-
.../split_logs/sumo_logic_hosted_collector.md | 279 +-
.../integrations/spark_metrics.md | 39 +
.../opentelemetry/mapping/metrics_mapping.md | 51 +
.../es/opentelemetry/reference/concepts.md | 37 +
content/es/partners/_index.md | 84 +-
.../charts/funnel_analysis.md | 138 +
.../setup/gcp/cloud-run/python.md | 121 +
.../threats/add-user-info.md | 847 +++++++
.../threats/setup/standalone/envoy.md | 118 +
.../threats/setup/standalone/ruby.md | 233 ++
.../guide/custom-rules-guidelines.md | 16 +-
.../review_remediate/mute_issues.md | 59 +-
.../security_graph.md | 56 +
.../setup/supported_deployment_types.md | 40 +
.../static_analysis/custom_rules/guide.md | 744 ++++++
.../guide/redact_uuids_in_logs.md | 72 +
.../workload_protection/setup/agent/docker.md | 50 +
.../troubleshooting/threats.md | 233 ++
.../serverless/guide/serverless_warnings.md | 50 +-
.../aggregation_key.md | 25 +
content/es/software_catalog/customize.md | 156 ++
content/es/synthetics/api_tests/ssl_tests.md | 71 +-
content/es/tests/setup/go.md | 147 ++
.../tests/test_impact_analysis/setup/ruby.md | 165 ++
.../custom_instrumentation/nodejs/dd-api.md | 93 +-
.../trace_collection/library_config/nodejs.md | 50 +-
.../fr/api/latest/reference-tables/_index.md | 3 +
content/ja/api/latest/_index.md | 26 +-
.../expressions_and_operators.md | 129 +
.../threats/security_signals.md | 159 ++
.../guide/monitoring-available-disk-space.md | 39 +
data/api/v1/translate_tags.es.json | 20 +-
.../source_env_vars/splunk_hec.es.md | 4 +
...atadog_archives_google_cloud_storage.es.md | 1 +
.../source_settings/http_client.es.md | 15 +
.../source_settings/logstash.es.md | 7 +
77 files changed, 12368 insertions(+), 1590 deletions(-)
create mode 100644 content/es/containers/datadog_operator/advanced_install.md
create mode 100644 content/es/containers/datadog_operator/custom_check.md
create mode 100644 content/es/continuous_delivery/explorer/saved_views.md
create mode 100644 content/es/error_tracking/backend/getting_started/single_step_instrumentation.md
create mode 100644 content/es/integrations/appgate_sdp.md
create mode 100644 content/es/integrations/delinea_secret_server.md
create mode 100644 content/es/integrations/github_costs.md
create mode 100644 content/es/integrations/google_cloud_bigquery.md
create mode 100644 content/es/integrations/iocs_dmi4apm.md
create mode 100644 content/es/integrations/jetbrains_ides.md
create mode 100644 content/es/integrations/kitepipe_atomwatch.md
create mode 100644 content/es/integrations/linux_audit_logs.md
create mode 100644 content/es/integrations/microsoft_sysmon.md
create mode 100644 content/es/integrations/okta_workflows.md
create mode 100644 content/es/integrations/shopify.md
create mode 100644 content/es/integrations/silverstripe_cms.md
create mode 100644 content/es/integrations/sonatype_nexus.md
create mode 100644 content/es/integrations/streamnative.md
create mode 100644 content/es/integrations/supabase.md
create mode 100644 content/es/integrations/temporal.md
create mode 100644 content/es/integrations/trend_micro_vision_one_endpoint_security.md
create mode 100644 content/es/observability_pipelines/set_up_pipelines/dual_ship_logs/socket.md
create mode 100644 content/es/opentelemetry/integrations/spark_metrics.md
create mode 100644 content/es/opentelemetry/mapping/metrics_mapping.md
create mode 100644 content/es/opentelemetry/reference/concepts.md
create mode 100644 content/es/product_analytics/charts/funnel_analysis.md
create mode 100644 content/es/security/application_security/setup/gcp/cloud-run/python.md
create mode 100644 content/es/security/application_security/threats/add-user-info.md
create mode 100644 content/es/security/application_security/threats/setup/standalone/envoy.md
create mode 100644 content/es/security/application_security/threats/setup/standalone/ruby.md
create mode 100644 content/es/security/cloud_security_management/security_graph.md
create mode 100644 content/es/security/cloud_security_management/setup/supported_deployment_types.md
create mode 100644 content/es/security/code_security/static_analysis/custom_rules/guide.md
create mode 100644 content/es/security/sensitive_data_scanner/guide/redact_uuids_in_logs.md
create mode 100644 content/es/security/workload_protection/setup/agent/docker.md
create mode 100644 content/es/security/workload_protection/troubleshooting/threats.md
create mode 100644 content/es/service_management/events/pipelines_and_processors/aggregation_key.md
create mode 100644 content/es/software_catalog/customize.md
create mode 100644 content/es/tests/setup/go.md
create mode 100644 content/es/tests/test_impact_analysis/setup/ruby.md
create mode 100644 content/fr/api/latest/reference-tables/_index.md
create mode 100644 content/ja/ddsql_reference/ddsql_preview/expressions_and_operators.md
create mode 100644 content/ja/security/application_security/threats/security_signals.md
create mode 100644 content/ko/monitors/guide/monitoring-available-disk-space.md
create mode 100644 layouts/shortcodes/observability_pipelines/configure_existing_pipelines/source_env_vars/splunk_hec.es.md
create mode 100644 layouts/shortcodes/observability_pipelines/destination_env_vars/datadog_archives_google_cloud_storage.es.md
create mode 100644 layouts/shortcodes/observability_pipelines/source_settings/http_client.es.md
create mode 100644 layouts/shortcodes/observability_pipelines/source_settings/logstash.es.md
diff --git a/content/es/containers/datadog_operator/advanced_install.md b/content/es/containers/datadog_operator/advanced_install.md
new file mode 100644
index 0000000000000..31724e4c5092b
--- /dev/null
+++ b/content/es/containers/datadog_operator/advanced_install.md
@@ -0,0 +1,280 @@
+---
+dependencies:
+- https://github.com/DataDog/datadog-operator/blob/main/docs/installation.md
+title: Instalación de Datadog Operator
+---
+Este documento contiene información detallada sobre la instalación del Datadog Operator. Para obtener instrucciones básicas de instalación del Agent en Kubernetes, consulta [Instalar el Agent en Kubernetes][10].
+
+## Requisitos previos
+
+- **Versión >= v1.20.X del clúster de Kubernetes**: los tests se realizaron en versiones >= `1.20.0` de Kubernetes. Se espera que funcione en las versiones `>= v1.11.0`, pero para versiones anteriores el Operator puede no funcionar como se espera debido al soporte limitado de CRD.
+- **[Helm][1]** para desplegar el Datadog Operator
+- **[CLI de `kubectl`][2]** para instalar el Datadog Agent
+
+
+## Instalación del Datadog Operator con Helm
+
+Puedes desplegar el Datadog Operator en tu clúster utilizando el [Helm chart de Datadog Operator][3]:
+
+```shell
+helm repo add datadog https://helm.datadoghq.com
+helm install my-datadog-operator datadog/datadog-operator
+```
+
+Para personalizar la configuración del Operator, crea un archivo `values.yaml` que pueda anular los valores predeterminados del Helm chart.
+
+Por ejemplo:
+
+```yaml
+image:
+ tag: 1.2.0
+datadogMonitor:
+ enabled: true
+```
+
+A continuación, para actualizar la versión de Helm, ejecuta:
+
+```shell
+helm upgrade my-datadog-operator datadog/datadog-operator -f values.yaml
+```
+
+### Añadir credenciales
+
+1. Crea un secreto de Kubernetes que contenga tus claves de API y de aplicación.
+
+ ```
+ export DD_API_KEY=
+ export DD_APP_KEY=
+
+ kubectl create secret generic datadog-operator-secret --from-literal api-key=$DD_API_KEY --from-literal app-key=$DD_APP_KEY
+ ```
+
+2. Haz referencia a este secreto en tu archivo `values.yaml`.
+
+ ```yaml
+ apiKeyExistingSecret: datadog-operator-secret
+ appKeyExistingSecret: datadog-operator-secret
+ image:
+ tag: 1.2.0
+ datadogMonitor:
+ enabled: true
+ ```
+
+3. Actualiza la versión de Helm.
+
+ ```shell
+ helm upgrade my-datadog-operator datadog/datadog-operator -f values.yaml
+ ```
+
+## Instalación del Datadog Operator con Operator Lifecycle Manager
+
+Las instrucciones para desplegar el Datadog Operator con [Operator Lifecycle Manager][4] (OLM) están disponibles en [operatorhub.io][5].
+
+### Anular la configuración predeterminada del Operator con OLM
+
+El marco [Operator Lifecycle Manager][4] permite anular la configuración predeterminada del Operator. Consulta [Configuración de la suscripción][6] para consultar la lista de los parámetros de configuración de la instalación admitidos.
+
+Por ejemplo, la siguiente `Subscription` del [Operator Lifecycle Manager][4] cambia los recursos del pod del Datadog Operator:
+
+```yaml
+apiVersion: operators.coreos.com/v1alpha1
+kind: Subscription
+metadata:
+ name: my-datadog-operator
+ namespace: operators
+spec:
+ channel: stable
+ name: datadog-operator
+ source: operatorhubio-catalog
+ sourceNamespace: olm
+ config:
+ resources:
+ requests:
+ memory: "250Mi"
+ cpu: "250m"
+ limits:
+ memory: "250Mi"
+ cpu: "500m"
+```
+
+### Añadir credenciales
+
+1. Crea un secreto de Kubernetes que contenga tus claves de API y de aplicación.
+
+ ```
+ export DD_API_KEY=
+ export DD_APP_KEY=
+
+ kubectl create secret generic datadog-operator-secret --from-literal api-key=$DD_API_KEY --from-literal app-key=$DD_APP_KEY
+ ```
+
+2. Añade referencias al secreto en la instancia del recurso `Subscription` del Datadog Operator.
+
+ ```yaml
+ apiVersion: operators.coreos.com/v1alpha1
+ kind: Subscription
+ metadata:
+ name: my-datadog-operator
+ namespace: operators
+ spec:
+ channel: stable
+ name: datadog-operator
+ source: operatorhubio-catalog
+ sourceNamespace: olm
+ config:
+ env:
+ - name: DD_API_KEY
+ valueFrom:
+ secretKeyRef:
+ key: api-key
+ name: datadog-operator-secret
+ - name: DD_APP_KEY
+ valueFrom:
+ secretKeyRef:
+ key: app-key
+ name: datadog-operator-secret
+ ```
+
+
+## Despliegue del recurso personalizado DatadogAgent gestionado por el Operator
+
+Después de desplegar el Datadog Operator, crea el recurso `DatadogAgent` que activa el despliegue del Datadog Agent, Cluster Agent y ejecutores de checks de clúster (si se utiliza) en tu clúster de Kubernetes. El Datadog Agent se despliega como un DaemonSet, ejecutando un pod en cada nodo de tu clúster.
+
+1. Crea un secreto de Kubernetes con tus claves de API y de aplicación.
+
+ ```
+ export DD_API_KEY=
+ export DD_APP_KEY=
+
+ kubectl create secret generic datadog-secret --from-literal api-key= --from-literal app-key=
+ ```
+
+1. Crea un archivo con las especificaciones de tu configuración de despliegue `DatadogAgent`. La configuración más simple es:
+
+ ```yaml
+ apiVersion: datadoghq.com/v1alpha1
+ kind: DatadogAgent
+ metadata:
+ name: datadog
+ spec:
+ credentials:
+ apiSecret:
+ secretName: datadog-secret
+ keyName: api-key
+ appSecret:
+ secretName: datadog-secret
+ keyName: app-key
+ ```
+
+1. Despliega el Datadog Agent con el archivo de configuración anterior:
+ ```shell
+ kubectl apply -f /path/to/your/datadog-agent.yaml
+ ```
+
+En un clúster con dos nodos de worker, deberías ver los pods del Agent creados en cada nodo.
+
+```console
+$ kubectl get daemonset
+NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE
+datadog-agent 2 2 2 2 2 5m30s
+
+$ kubectl get pod -owide
+NAME READY STATUS RESTARTS AGE IP NODE
+agent-datadog-operator-d897fc9b-7wbsf 1/1 Running 0 1h 10.244.2.11 kind-worker
+datadog-agent-k26tp 1/1 Running 0 5m59s 10.244.2.13 kind-worker
+datadog-agent-zcxx7 1/1 Running 0 5m59s 10.244.1.7 kind-worker2
+```
+
+### Tolerancias
+
+Actualiza tu [archivo `datadog-agent.yaml`][8] con la siguiente configuración para añadir tolerancias en la `Daemonset.spec.template` de tu DaemonSet:
+
+ ```yaml
+ apiVersion: datadoghq.com/v1alpha1
+ kind: DatadogAgent
+ metadata:
+ name: datadog
+ spec:
+ credentials:
+ apiSecret:
+ secretName: datadog-secret
+ keyName: api-key
+ appSecret:
+ secretName: datadog-secret
+ keyName: app-key
+ agent:
+ config:
+ tolerations:
+ - operator: Exists
+ ```
+
+Aplica esta nueva configuración:
+
+```console
+$ kubectl apply -f datadog-agent.yaml
+datadogagent.datadoghq.com/datadog updated
+```
+
+Valida la actualización de DaemonSet mirando el nuevo valor de pod `desired`:
+
+```console
+$ kubectl get daemonset
+NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE
+datadog-agent 3 3 3 3 3 7m31s
+
+$ kubectl get pod
+NAME READY STATUS RESTARTS AGE
+agent-datadog-operator-d897fc9b-7wbsf 1/1 Running 0 15h
+datadog-agent-5ctrq 1/1 Running 0 7m43s
+datadog-agent-lkfqt 0/1 Running 0 15s
+datadog-agent-zvdbw 1/1 Running 0 8m1s
+```
+
+## Configuración
+
+Para obtener una lista completa de las opciones de configuración, consulta la [especificación de configuración][12].
+
+## Instalar el complemento kubectl
+
+Consulta la [documentación del complemento `kubectl`][11].
+
+## Utiliza una imagen personalizada del Datadog Operator
+
+Consulta las instrucciones para crear una imagen de contenedor personalizada del Datadog Operator basada en una versión oficial en [Imágenes de contenedor personalizadas del Operator][9].
+
+### Imágenes del Datadog Operator con Helm charts
+
+Para instalar una imagen personalizada del Datadog Operator utilizando el Helm chart, ejecuta lo siguiente:
+
+```shell
+helm install my-datadog-operator --set image.repository= --set image.tag= datadog/datadog-operator
+```
+
+## Limpieza
+
+El siguiente comando elimina todos los recursos de Kubernetes creados por el Datadog Operator y los `DatadogAgent` `datadog` vinculados.
+
+```shell
+kubectl delete datadogagent datadog
+```
+
+Este comando muestra `datadogagent.datadoghq.com/datadog deleted`.
+
+A continuación, puedes eliminar el Datadog Operator con el comando `helm delete`:
+
+```shell
+helm delete my-datadog-operator
+```
+
+[1]: https://helm.sh
+[2]: https://kubernetes.io/docs/tasks/tools/install-kubectl/
+[3]: https://artifacthub.io/packages/helm/datadog/datadog-operator
+[4]: https://olm.operatorframework.io/
+[5]: https://operatorhub.io/operator/datadog-operator
+[6]: https://github.com/operator-framework/operator-lifecycle-manager/blob/master/doc/design/subscription-config.md
+[7]: https://app.datadoghq.com/account/settings#api
+[8]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogagent/datadog-agent-with-tolerations.yaml
+[9]: https://github.com/DataDog/datadog-operator/blob/main/docs/custom-operator-image.md
+[10]: https://docs.datadoghq.com/es/containers/kubernetes/installation
+[11]: https://github.com/DataDog/datadog-operator/blob/main/docs/kubectl-plugin.md
+[12]: https://github.com/DataDog/datadog-operator/blob/main/docs/configuration.v2alpha1.md
\ No newline at end of file
diff --git a/content/es/containers/datadog_operator/custom_check.md b/content/es/containers/datadog_operator/custom_check.md
new file mode 100644
index 0000000000000..cfb2d211a5871
--- /dev/null
+++ b/content/es/containers/datadog_operator/custom_check.md
@@ -0,0 +1,168 @@
+---
+dependencies:
+- https://github.com/DataDog/datadog-operator/blob/main/docs/custom_check.md
+title: Checks personalizados
+---
+Para ejecutar un [check personalizado][1], puedes configurar el recurso `DatadogAgent` para proporcionar checks personalizados (`checks.d`) y sus correspondientes archivos de configuración (`conf.d`) en el momento de la inicialización. Debes configurar un recurso ConfigMap para cada archivo de script de check y su archivo de configuración.
+
+En esta página, se explica cómo configurar un check personalizado, `hello`, que envía una métrica `hello.world` a Datadog.
+
+Para saber más sobre checks en el ecosistema de Datadog, consulta [Introducción a integraciones][2]. Para configurar un [integración de Datadog][3], consulta [Kubernetes e integraciones][4].
+
+## Crear los archivos de check
+
+Cada check necesita un archivo de configuración (`hello.yaml`) y un archivo de script (`hello.py`).
+
+1. Crea `hello.yaml` con el siguiente contenido:
+
+ ```yaml
+ init_config:
+
+ instances: [{}]
+ ```
+
+2. Crea `hello.py` con el siguiente contenido:
+
+ ```python
+ from datadog_checks.base import AgentCheck
+
+ __version__ = "1.0.0"
+ class HelloCheck(AgentCheck):
+ def check(self, instance):
+ self.gauge('hello.world', 1, tags=['env:dev'])
+ ```
+
+## Crear los ConfigMaps del check
+
+Después de crear los archivos del check `hello`, crea los ConfigMaps asociados:
+
+1. Crea el ConfigMap para el archivo de configuración YAML del check personalizado `hello.yaml`:
+
+ ```bash
+ $ kubectl create configmap -n $DD_NAMESPACE confd-config --from-file=hello.yaml
+ configmap/confd-config created
+ ```
+
+2. Comprueba que el ConfigMap se ha creado correctamente:
+
+ ```bash
+ $ kubectl get configmap -n $DD_NAMESPACE confd-config -o yaml
+ apiVersion: v1
+ data:
+ hello.yaml: |
+ init_config:
+
+ instances: [{}]
+ kind: ConfigMap
+ metadata:
+ name: confd-config
+ namespace: datadog
+ ```
+
+3. Crea el ConfigMap para el archivo Python del check personalizado `hello.py`:
+
+ ```bash
+ $ kubectl create configmap -n $DD_NAMESPACE checksd-config --from-file=hello.py
+ configmap/checksd-config created
+ ```
+
+4. Comprueba que el ConfigMap se ha creado correctamente:
+
+ ```bash
+ $ kubectl get configmap -n $DD_NAMESPACE checksd-config -o yaml
+ apiVersion: v1
+ data:
+ hello.py: |
+ from datadog_checks.base import AgentCheck
+
+ __version__ = "1.0.0"
+ class HelloCheck(AgentCheck):
+ def check(self, instance):
+ self.gauge('hello.world', 1, tags=['env:dev'])
+ kind: ConfigMap
+ metadata:
+ name: checksd-config
+ namespace: datadog
+ ```
+
+## Configurar el Datadog Agent
+
+Después de crear tus ConfigMaps, crea un recurso `DatadogAgent` para utilizarlos:
+
+```yaml
+apiVersion: datadoghq.com/v2alpha1
+kind: DatadogAgent
+metadata:
+ name: datadog
+spec:
+ global:
+ credentials:
+ apiKey: ""
+ appKey: ""
+ override:
+ nodeAgent:
+ extraConfd:
+ configMap:
+ name: confd-config
+ extraChecksd:
+ configMap:
+ name: checksd-config
+```
+
+**Nota**: Cualquier ConfigMap que crees debe estar en el mismo `DD_NAMESPACE` que el recurso `DatadogAgent`.
+
+Esto despliega el Datadog Agent con tu check personalizado.
+
+### ConfigMaps para múltiples checks
+
+Puedes rellenar ConfigMaps con el contenido de múltiples checks o sus respectivos archivos de configuración.
+
+#### Rellenar todos los archivos de script del check
+
+```bash
+$ kubectl create cm -n $DD_NAMESPACE checksd-config $(find ./checks.d -name "*.py" | xargs -I'{}' echo -n '--from-file={} ')
+configmap/checksd-config created
+```
+
+#### Rellenar todos los archivos de configuración del check
+
+```bash
+$ kubectl create cm -n $DD_NAMESPACE confd-config $(find ./conf.d -name "*.yaml" | xargs -I'{}' echo -n '--from-file={} ')
+configmap/confd-config created
+```
+
+## Proporcionar volúmenes adicionales
+
+Puedes montar volúmenes adicionales configurados por el usuario en el nodo o en los contenedores del Cluster Agent configurando las propiedades `volumes` y `volumeMounts`.
+
+**Ejemplo**: uso de un volumen para montar un secreto
+
+```yaml
+apiVersion: datadoghq.com/v2alpha1
+kind: DatadogAgent
+metadata:
+ name: datadog
+spec:
+ global:
+ credentials:
+ apiKey: ""
+ appKey: ""
+ override:
+ nodeAgent:
+ image:
+ name: "gcr.io/datadoghq/agent:latest"
+ volumes:
+ - name: secrets
+ secret:
+ secretName: secrets
+ containers:
+ agent:
+ volumeMounts:
+ - name: secrets
+ mountPath: /etc/secrets
+ readOnly: true
+```
+[1]: https://docs.datadoghq.com/es/developers/custom_checks/
+[2]: https://docs.datadoghq.com/es/getting_started/integrations/
+[3]: https://docs.datadoghq.com/es/integrations/
+[4]: https://docs.datadoghq.com/es/containers/kubernetes/integrations/?tab=annotations
\ No newline at end of file
diff --git a/content/es/continuous_delivery/explorer/saved_views.md b/content/es/continuous_delivery/explorer/saved_views.md
new file mode 100644
index 0000000000000..f7a00940a5372
--- /dev/null
+++ b/content/es/continuous_delivery/explorer/saved_views.md
@@ -0,0 +1,65 @@
+---
+descriptions: Aprende a crear y compartir vistas guardadas en el CD Visibility Explorer.
+further_reading:
+- link: /continuous_delivery/explorer/search_syntax/
+ tag: Documentación
+ text: Aprender a crear una consulta de búsqueda
+title: Vistas guardadas
+---
+
+{{< callout url="https://docs.google.com/forms/d/e/1FAIpQLScNhFEUOndGHwBennvUp6-XoA9luTc27XBwtSgXhycBVFM9yA/viewform?usp=sf_link" btn_hidden="false" header="Únete a la vista previa" >}}
+CD Visibility está en Vista previa. Si te interesa esta función, rellena el formulario para solicitar acceso.
+{{< /callout >}}
+
+## Información general
+
+Las vistas guardadas te permiten guardar el estado de la [página de Ejecuciones de despliegues][1] y posibilitan una resolución eficaz de problemas, ya que te proporcionan acceso a consultas delimitadas, facetas relevantes, opciones de visualización e intervalos de tiempo.
+
+Las vistas guardadas te permiten realizar un seguimiento de tus:
+
+- Resultados de despliegues y datos del entorno
+- Busca consultas (como ejecuciones de despliegues fallidas con un proveedor de CD específico, ejecuciones de despliegues fallidas en un entorno determinado por su estado de despliegue, ejecuciones de despliegues que requirieron reversiones, e ID o URL de despliegues).
+- Intervalos de tiempo en directo (como la última hora o la última semana)
+- Visualizaciones (como series temporales, lista de elementos principales, tabla o lista)
+
+También puedes utilizar las vistas guardadas para compartir consultas y configuraciones comunes con tus compañeros de equipo.
+
+## Vistas guardadas
+
+Para acceder a las vistas guardadas, amplía **> Views* (> Vistas) a la izquierda de la [página de Ejecuciones de despliegues][1].
+
+Todas las vistas guardadas, excepto la [vista por defecto](#default-views), se comparten en toda la organización, incluidas las vistas guardadas personalizadas creadas por los usuarios. Cualquier persona en tu organización puede editarlas y mostrar el avatar del usuario que creó la vista. Haz clic en **Save** (Guardar) para crear una vista guardada personalizada a partir del contenido actual de tu explorador.
+
+Los usuarios con permisos de sólo lectura no podrán actualizar, renombrar ni eliminar vistas guardadas.
+
+{{< img src="continuous_delivery/explorer/saved_view.png" alt="Vista por defecto en el CD Visibility Explorer" width="100%" >}}
+
+Puedes:
+
+- Cargar o volver a cargar una vista guardada
+- Actualizar una vista guardada con la configuración de la vista actual
+- Renombrar o borrar una vista guardada
+- Compartir una vista guardada a través de un enlace corto
+- Marcar una vista guardada como favorita para añadirla a tu lista de vistas guardadas, a la que tendrás acceso a través del menú de navegación
+
+Los usuarios con permisos de sólo lectura no podrán actualizar, renombrar ni eliminar vistas guardadas.
+
+## Vistas predeterminadas
+
+Puedes configurar una vista guardada para que sea tu página de inicio en la [página de Ejecuciones de despliegues][1]. Las vistas predeterminadas se configuran por cada usuario y no tienen ningún impacto en tu organización.
+
+{{< img src="continuous_delivery/explorer/default_view.png" alt="Vista por defecto en el CD Visibility Explorer" width="100%" >}}
+
+Sobrescribir temporalmente tu vista guardada por defecto realizando una acción en la interfaz de usuario o abriendo enlaces en el explorador que integra una configuración diferente.
+
+En la vista predeterminada del panel **Vistas**, puedes:
+
+- Hacer clic en la entrada para volver a cargar la vista predeterminada
+- Actualizar tu vista predeterminada con los parámetros actuales
+- Restablecer la configuración por defecto de la vista predeterminada si quieres ejecutar un reinicio
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/ci/deployments/executions
\ No newline at end of file
diff --git a/content/es/continuous_integration/search/_index.md b/content/es/continuous_integration/search/_index.md
index 1d4706fa707fc..a3b6cf727ec9c 100644
--- a/content/es/continuous_integration/search/_index.md
+++ b/content/es/continuous_integration/search/_index.md
@@ -6,90 +6,89 @@ further_reading:
- link: /continuous_integration/explorer
tag: Documentación
text: Buscar y filtrar las ejecuciones de pipelines
-- link: /integración_continua/guías/identificar_los_empleos_de_mayor_impacto_con_recorrido_crítico/
+- link: /continuous_integration/guides/identify_highest_impact_jobs_with_critical_path/
tag: Documentación
- text: Identifique los trabajos CI en la ruta crítica para reduce the Pipeline Duration
+ text: Identifica los trabajos de CI en la ruta crítica para reduce la duración del
+ pipeline
+- link: /continuous_integration/guides/use_ci_jobs_failure_analysis/
+ tag: Documentación
+ text: Utilizar el análisis de fallos en los trabajos de CI para identificar las
+ causas raíz de los trabajos fallidos
title: Buscar y gestionar pipelines CI
---
-## Resumen
+## Información general
-La página [Pipelines][1] es útil para los desarrolladores que quieren mantener un ojo en el proceso de construcción de su servicio.
+La [página de pipelines][1] es útil para los desarrolladores que quieren controlar el pipeline de compilación para su servicio.
-{{< img src="/continuous_integration/pipelines.png" text="CI Pipelines page" style="width:100%" >}}
+{{< img src="/continuous_integration/pipelines.png" text="Página de pipelines de CI" style="width:100%" >}}
Esta página responde a las siguientes preguntas:
-- ¿Es el pipeline de su servicio eficaz y fiable, especialmente en la rama por defecto?
+- ¿El pipeline es eficaz y fiable para tu servicio, especialmente en la rama por defecto?
- Si no es así, ¿cuál es la causa?
-Puede acceder a la acumulación de alto nivel y las tendencias, incluyendo:
-
-- Una visión general de la salud de todo el sistema de construcción, con estadísticas agregadas para las ejecuciones de tuberías y ramas.
-- Una ventana para detectar y solucionar rápidamente problemas inmediatos y urgentes, como canalizaciones rotas a producción.
-- Cómo se ha ejecutado cada canalización, a lo largo del tiempo, y con qué resultados y tendencias.
-- El desglose de dónde se invierte el tiempo en cada etapa de construcción, a lo largo del tiempo, para que pueda centrar sus esfuerzos de mejora donde se hace la mayor diferencia.
-
-## Buscar para pipelines
-
-Para ver sus canalizaciones, vaya a [**Software Delivery** > **CI Visibility** > **CI Pipeline lista**][1].
+Puedes acceder a acumulaciones y tendencias superficiales, entre otras:
-La página [Pipelines][1] muestra las estadísticas agregadas de la rama predeterminada de cada pipeline durante el periodo de tiempo seleccionado, así como el estado de la última ejecución del pipeline. Utiliza esta página para ver todos tus pipelines y obtener una visión rápida de su estado. Sólo se muestran en esta página los pipelines con información Git asociada a la rama por defecto (normalmente llamada `main` o `prod`), así como los pipelines sin ninguna información Git.
+- Una visión general del estado de todo el sistema de compilación, con estadísticas agregadas para ejecuciones y ramas de pipeline.
+- Una ventana para detectar y solucionar rápidamente problemas inmediatos y urgentes, como pipelines rotos en la producción.
+- Cómo ha funcionado cada pipeline, a lo largo del tiempo, y con qué resultados y tendencias.
+- El desglose de dónde se invierte el tiempo en cada fase de compilación, a lo largo del tiempo, para que puedas centrar tus esfuerzos de mejora donde se marca la mayor diferencia.
- métricas muestra la frecuencia de compilación, la tasa de fallos, la duración media y el cambio en la duración media tanto en términos absolutos como relativos. Esta información revela qué canalizaciones consumen muchos recursos o experimentan regresiones. El último resultado de compilación, la duración y el último tiempo de ejecución muestran el efecto de la última confirmación.
+## Buscar pipelines
-Puede filtrar la página por nombre de canalización para ver las canalizaciones que más le preocupan. Haz clic en un pipeline que sea lento o que falle para profundizar en los detalles que muestran qué commit podría haber introducido la regresión de rendimiento o el error de compilación. Si utilizas [Datadog Teams][6], puedes filtrar los pipelines específicos asociados a tu equipo utilizando [custom etiquetas (tags)][7] que coincidan con los nombres de los equipos.
+Para ver tus pipelines, navega hasta [**Software Delivery** > **CI Visibility** > **CI Pipeline List**][1] (Entrega de software > CI Visibility > Lista de pipeline de CI).
-## Detalles y ejecuciones de los pipelines
+La [página de pipelines][1] muestra las estadísticas agregadas de la rama por defecto de cada pipeline durante el periodo seleccionado, así como el estado de la última ejecución del pipeline. Utiliza esta página para ver todos tus pipelines y obtener una visión rápida de su estado. Solo los pipelines con información Git asociada a la rama por defecto (normalmente llamada `main` o `prod`), así como los pipelines sin ninguna información Git, se muestran en esta página.
-Haga clic en un pipeline específico para ver la página _Detalles del pipeline_ que proporciona vistas de los datos del pipeline que ha seleccionado durante un periodo de tiempo especificado.
+Las métricas mostradas incluyen la frecuencia de compilación, la tasa de fallos, la duración media y el cambio en la duración media tanto en términos absolutos como relativos. Esta información revela qué pipelines son de uso frecuente y potencialmente consumen muchos recursos, o están experimentando regresiones. El último resultado de compilación, la duración y el último tiempo de ejecución muestran el efecto de la última confirmación.
-{{< img src="ci/pipeline_branch_overview_updated.png" alt="Pipeline Details page for a single pipeline" style="width:100%;">}}
+Puedes filtrar página por el nombre de pipeline para ver los pipelines que más te preocupan. Haz clic en un pipeline que sea lento o que falle para profundizar en los detalles que muestran qué commit podría haber introducido la regresión de rendimiento o el error de compilación. Si estás usando [Datadog Teams][6], puedes filtrar por pipelines específicos asociados a tu equipo usando [etiquetas personalizadas][7] que coincidan con los nombres de los equipos.
-Obtenga información sobre el proceso seleccionado, como las ejecuciones totales y fallidas a lo largo del tiempo, los percentiles de duración de la compilación, las tasas de error y el tiempo total de desglose por etapa. También hay tablas de resumen para las etapas y los trabajos para que pueda ordenarlos rápidamente en términos de duración, porcentaje del tiempo de ejecución total o tasa de fallos.
+## Detalles y ejecuciones de pipeline
-La ejecución del pipeline lista muestra todas las veces que el pipeline (o sus etapas o trabajos) se ejecutó durante el periodo de tiempo seleccionado, para la rama seleccionada. Utilice las facetas de la parte izquierda para filtrar lista exactamente a los pipelines, etapas o trabajos que desee ver.
+Haz clic en un pipeline específico para ver la página de _Detalles del pipeline_ que proporciona vistas de los datos para el pipeline que has seleccionado durante un periodo especificado.
-### Ver canalización unificada rastrear
+{{< img src="ci/pipeline_branch_overview_updated.png" alt="Página de detalles del pipeline para un único pipeline" style="width:100%;">}}
-Para ver el pipeline unificado rastrear, haga clic en la casilla `View unified trace` de la página de ejecución del pipeline.
+Obtén información sobre el pipeline seleccionado, como ejecuciones totales y fallidas a lo largo del tiempo, percentiles de duración de la compilación, tasas de error y desglose del tiempo total empleado por fase. También hay tablas de resumen para las etapas y los trabajos para que puedas ordenarlos rápidamente en términos de duración, porcentaje del tiempo total de ejecución o tasa de fallos.
-El rastrear unificado muestra en un único rastrear todos los trazas (traces) del pipeline generados debido a los diferentes reintentos parciales de su pipeline. Si la ejecución del pipeline no tiene reintentos parciales, el rastrear unificado muestra sólo el rastrear de una única ejecución del pipeline.
+La lista de ejecuciones de pipeline muestra todas las veces que el pipeline (o sus etapas o trabajos) se ejecutaron durante el periodo seleccionado, para la rama seleccionada. Utiliza las facetas del lado izquierdo para filtrar la lista exactamente a los pipelines, etapas o trabajos que desees ver.
-### Resaltar ruta crítica
+### Resaltar la ruta crítica
-Para resaltar la ruta crítica en rastrear, haga clic en la casilla `Critical path` de la página de ejecución del pipeline.
+Para resaltar la ruta crítica en la traza, haz clic en la casilla `Critical path` en la página de ejecución del pipeline.
-La ruta crítica resalta los tramos (spans) que necesita acelerar si desea reduce el tiempo de ejecución total de su pipeline. Si un trabajo CI está en la ruta crítica, significa que forma parte de la ruta más larga a través de rastrear en términos de tiempo de ejecución. Acelerar los CI Jobs en la ruta crítica es estrictamente necesario para acelerar el pipeline CI.
+La ruta crítica destaca los tramos que es necesario acelerar si se quiere reducir el tiempo total de ejecución de pipeline. Si un trabajo de CI se encuentra en la ruta crítica, significa que forma parte de la ruta más larga a través la traza en términos de tiempo de ejecución. Acelerar los trabajos de CI en la ruta crítica es estrictamente necesario para acelerar el pipeline de CI.
-Puede utilizar [esta guía][11] para identificar los trabajos CI en la ruta crítica para ayuda determinar qué trabajos priorizar con el fin de reducir la duración total de los conductos CI.
+Puedes utilizar [esta guía][11] para identificar los trabajos de CI en la ruta crítica para ayudarte a determinar qué trabajos priorizar con el fin de reducir la duración total de los pipelines de CI.
-### Explore las conexiones con servicios, recursos y red eventos
+### Explorar conexiones con servicios, recursos y eventos de red
-Haga clic en una de las ejecuciones para abrir la vista de ejecución de la canalización y ver el gráfico de llamas o tramo (span) lista para la canalización y sus etapas. Las _Ejecuciones (n)_ lista en el lado izquierdo le da acceso rápido a los datos para cada reintento de la tubería para el mismo commit.
+Haz clic en una de las ejecuciones para abrir la vista de ejecución del pipeline y ver la gráfica de llamas o la lista de tramos para el pipeline y sus etapas. La lista _Ejecuciones (n)_ de la izquierda permite acceder rápidamente a los datos de cada reintento del pipeline para la misma confirmación.
-Haga clic en el enlace del proveedor de CI (`gitlab-ci gitlab.pipeline > documentation` en la siguiente imagen) para investigar la página de Recursos, servicio, o Análisis para el pipeline, etapa o trabajo específicamente. También puede encontrar información completa en etiquetas (tags) y enlaces a red Monitorización eventos .
+Haz clic en el enlace del proveedor de CI (`gitlab-ci gitlab.pipeline > documentation` en la siguiente imagen) para investigar la página de Recurso, Servicio o Analítica para el pipeline, fase o trabajo específicamente. También puedes encontrar información completa sobre etiquetas y enlaces a eventos de monitorización de red.
-{{< img src="ci/ci-pipeline-execution.png" alt="Pipeline execution view with rastrear info and flamegraph display" style="width:100%;">}}
+{{< img src="ci/ci-pipeline-execution.png" alt="Vista de ejecución del pipeline con información de traza y el diseño de gráfica de llamas" style="width:100%;">}}
-### Explorar conexiones a Logs
+### Explorar las conexiones con los logs
-Si se admite y habilita la recopilación de trabajos loguear para el proveedor de CI, se pueden encontrar loguear eventos relacionados en la vista _Logs_ pestaña de la ejecución de la canalización.
+Si la recopilación de logs de trabajo es compatible y habilitada para el proveedor de CI, los eventos de log relacionados se pueden encontrar en la pestaña _Logs_ de la vista de ejecución del pipeline.
-La recopilación de trabajos loguear es compatible con los siguientes proveedores:
+La recopilación de logs de trabajo es compatible con los siguientes proveedores:
- [AWS CodePipeline][8]
- [Azure][9]
- [CircleCI][10]
- [Acciones de GitHub][3]
- [GitLab][4]
-- Jenkins][5]
+- [Jenkins][5]
-#### Resúmenes generados por IA loguear
+### Análisis de fallos de trabajos de CI basados en logs pertinentes
-Los resúmenes generados por la IA loguear están en vista previa. Para solicitar acceso, rellene
este formulario.
+CI Visibility utiliza un modelo LLM para generar mensajes de error mejorados y categorizarlos con un dominio y un subdominio, basándose en los logs pertinentes recopilados de cada trabajo de CI fallido.
-Pipeline Visibility proporciona explicaciones generadas por IA para los errores de pipeline basadas en su trabajo CI logs. Estas explicaciones pueden encontrarse en **Failed Jobs** pestaña para cada ejecución de canalización. Puede utilizar estos resúmenes para determinar si un error en CI está asociado al código escrito por el desarrollador o a la propia canalización de CI, así como para solucionar los fallos de ejecución.
+Utiliza [Análisis de fallos de trabajos de CI][12] para identificar las causas de fallo más comunes de tus trabajos de CI.
## Referencias adicionales
@@ -105,3 +104,4 @@ Pipeline Visibility proporciona explicaciones generadas por IA para los errores
[9]: /es/continuous_integration/pipelines/azure/#enable-job-log-collection
[10]: /es/continuous_integration/pipelines/circleci/#enable-log-collection
[11]: /es/continuous_integration/guides/identify_highest_impact_jobs_with_critical_path
+[12]: /es/continuous_integration/guides/use_ci_jobs_failure_analysis/
\ No newline at end of file
diff --git a/content/es/data_security/_index.md b/content/es/data_security/_index.md
index c36655f123be3..9cd417704e277 100644
--- a/content/es/data_security/_index.md
+++ b/content/es/data_security/_index.md
@@ -41,7 +41,7 @@ Los datos que se transmiten a través de las herramientas proporcionadas por Dat
### El Datadog Agent
-El Agent representa el principal canal de transmisión de los datos desde tus sistemas a Datadog. [Consulta todo lo que debes saber sobre las medidas de seguridad que aplica el Agent para proteger tus datos][4].
+El Agent representa el principal canal de transmisión de los datos desde tus sistemas a Datadog. [Consulta todo lo que debes saber sobre las medidas de seguridad que aplica el Agent para proteger tus datos][4].
Para saber cómo evitar que se almacenen secretos en texto sin formato en los archivos de configuración del Agent, consulta [Gestión de secretos][5].
@@ -69,9 +69,9 @@ Sensitive Data Scanner es un servicio de flujos (streams) que hace comparaciones
### Gestión de logs
-Los logs son los registros que producen tus sistemas y servicios, así como también las actividades derivadas de ellos. Para obtener información sobre cómo proteger los datos de los logs, por ejemplo, cómo filtrarlos y enmascararlos, consulta [Seguridad de los datos en Log Management][11].
+Los logs son los registros que producen tus sistemas y servicios, así como también las actividades derivadas de ellos. Para obtener información sobre cómo proteger los datos de los logs, por ejemplo, cómo filtrarlos y enmascararlos, consulta [Seguridad de los datos en Log Management][11].
-Y si quieres información más detallada, puedes consultar la guía [Controlar los datos confidenciales de los logs][12] y el artículo sobre la [configuración avanzada de Agent para recopilar logs][13].
+Para profundizar en el control de los datos de logs consulta la guía [Gestionar el acceso a datos confidenciales de logs][12] y [Configuración avanzada del Agent para logs][13].
Para reducir los riesgos que amenazan la seguridad de los datos en los logs, es fundamental controlar los accesos. Descubre cómo [configurar RBAC en los logs][14] y cómo [funcionan los permisos de RBAC][15] en Datadog.
@@ -79,7 +79,7 @@ Para reducir los riesgos que amenazan la seguridad de los datos en los logs, es
Para que no se filtren datos confidenciales cuando estás monitorizando procesos activos y contenedores activos, Datadog te ofrece la función predeterminada de limpieza de contraseñas confidenciales en argumentos de procesos y charts de Helm. Puedes enmascarar más secuencias confidenciales en comandos o argumentos de procesos con el [parámetro `custom_sensitive_words`][16] y añadirlas a la lista de palabras para limpiar en contenedores con la [variable de entorno `DD_ORCHESTRATOR_EXPLORER_CUSTOM_SENSITIVE_WORDS`][17].
-### APM y otros productos de librerías de rastreo
+### APM y otros productos de bibliotecas de rastreo
Las bibliotecas de rastreo de Datadog sirven para instrumentar aplicaciones, servicios, tests y pipelines, y enviar datos de funcionamiento a Datadog a través del Agent. Se generan datos de trazas y tramos (spans), entre muchos otros, para que puedan utilizarlos los siguientes productos:
@@ -88,7 +88,7 @@ Las bibliotecas de rastreo de Datadog sirven para instrumentar aplicaciones, ser
- CI Visibility
- App and API Protection
-Para obtener información detallada sobre cómo se gestionan los datos que proceden de librerías de rastreo, sobre las configuraciones de seguridad básicas y sobre las operaciones predeterminadas de enmascaramiento, limpieza, exclusión y modificación de elementos relacionados con trazas, consulta la [configuración del Agent y el rastreador para proteger los datos de trazas][18].
+Para obtener información detallada sobre cómo se gestionan los datos que proceden de bibliotecas de rastreo, sobre las configuraciones de seguridad básicas y sobre las operaciones predeterminadas de enmascaramiento, limpieza, exclusión y modificación de elementos relacionados con trazas, consulta la [configuración del Agent y el rastreador para proteger los datos de trazas][18].
### Rastreo distribuido sin servidor
@@ -122,7 +122,7 @@ Métricas
: Las métricas (incluidas las métricas de infraestructura y las métricas provenientes de las integraciones) y los demás datos consumidos (como logs, trazas, RUM y tests Synthetic) son cronologías que sirven para rellenar gráficos. Suelen tener etiquetas asociadas.
Datos de APM
-: Entre los datos de APM se incluyen servicios, recursos, perfiles, trazas y tramos, además de sus etiquetas asociadas. Consulta el [glosario de APM][25] para ver una explicación de cada uno.
+: Entre los datos de APM se incluyen servicios, recursos, perfiles, trazas y tramos, además de sus etiquetas asociadas. Consulta el [glosario de APM][25] para ver una explicación de cada uno.
Firmas de consultas de la base de datos
: Entre los datos de monitorización de la base de datos se incluyen las métricas y las muestras (junto con sus etiquetas asociadas) que recopila el Agent y se utilizan para controlar cómo han funcionado las consultas normalizadas en el pasado. El nivel de detalle de estos datos viene determinado por la firma de la consulta normalizada correspondiente y el identificador de host único. Todos los parámetros de las consultas quedan enmascarados y se descartan de las muestras recopiladas antes de enviarse a Datadog.
@@ -152,7 +152,7 @@ Pipelines y tests de integración continua
[9]: /es/integrations/google_cloud_platform/
[10]: /es/security/sensitive_data_scanner/
[11]: /es/data_security/logs/
-[12]: /es/logs/guide/control-sensitive-logs-data/
+[12]: /es/logs/guide/manage-sensitive-logs-data-access/
[13]: /es/agent/logs/advanced_log_collection
[14]: /es/logs/guide/logs-rbac
[15]: /es/logs/guide/logs-rbac-permissions
@@ -165,4 +165,4 @@ Pipelines y tests de integración continua
[22]: /es/real_user_monitoring/session_replay/browser/privacy_options
[23]: /es/database_monitoring/data_collected/#sensitive-information
[24]: /es/getting_started/tagging/
-[25]: /es/tracing/glossary/
+[25]: /es/tracing/glossary/
\ No newline at end of file
diff --git a/content/es/database_monitoring/setup_postgres/_index.md b/content/es/database_monitoring/setup_postgres/_index.md
index 5b662edd7f615..bde99705a9c92 100644
--- a/content/es/database_monitoring/setup_postgres/_index.md
+++ b/content/es/database_monitoring/setup_postgres/_index.md
@@ -14,8 +14,8 @@ title: Configuración de Postgres
| Postgres 13 | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} |
| Postgres 14 | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} |
| Postgres 15 | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} |
-| Postgres 16 | {{< X >}} | {{< X >}} | {{< X >}} | | | {{< X >}} |
-| Postgres 17 | {{< X >}} | {{< X >}} | {{< X >}} | | | |
+| Postgres 16 | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} |
+| Postgres 17 | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | |
### Instrucciones de instalación por tipo de alojamiento
diff --git a/content/es/error_tracking/backend/getting_started/single_step_instrumentation.md b/content/es/error_tracking/backend/getting_started/single_step_instrumentation.md
new file mode 100644
index 0000000000000..3cc730277950b
--- /dev/null
+++ b/content/es/error_tracking/backend/getting_started/single_step_instrumentation.md
@@ -0,0 +1,178 @@
+---
+aliases:
+- /es/error_tracking/standalone_backend/getting_started/single_step_instrumentation
+further_reading:
+- link: /error_tracking/issue_states/
+ tag: Documentación
+ text: Estados de problemas y flujos de trabajo de Error Tracking
+- link: /error_tracking/explorer
+ tag: Documentación
+ text: Más información sobre el Explorador de seguimiento de errores
+- link: /error_tracking/guides/enable_infra
+ tag: Guía
+ text: Activar la monitorización de infraestructuras
+- link: /error_tracking/guides/enable_apm
+ tag: Guía
+ text: Activar APM
+title: Instrumentación de un solo paso para el seguimiento de errores de backend
+---
+
+## Información general
+
+Instala o actualiza el Datadog Agent con las opciones **Habilitar la Instrumentación APM** y **Seguimiento de errores independiente** para habilitar el seguimiento de errores de backend independiente.
+Esta acción te permite instrumentar automáticamente tu aplicación, sin ningún paso adicional de instalación o configuración.
+
+## Instalar el Seguimiento de errores de backend independiente
+
+Los siguientes ejemplos muestran cómo funciona para cada tipo de despliegue.
+
+{{< tabs >}}
+{{% tab "Linux host or VM" %}}
+
+Para un host Linux:
+
+1. Ejecuta el comando de instalación de una línea:
+
+ ```shell
+ DD_API_KEY= DD_SITE="" DD_APM_INSTRUMENTATION_ENABLED=host DD_APM_INSTRUMENTATION_LIBRARIES="java:1,python:2,js:5,dotnet:3,php:1" DD_APM_ERROR_TRACKING_STANDALONE=true DD_ENV= bash -c "$(curl -L https://install.datadoghq.com/scripts/install_script_agent7.sh)"
+ ```
+
+ Sustituye `` por tu [clave de API Datadog][1], `` por tu [sitio Datadog][2] y `` por el entorno en el que está instalado tu Agent (por ejemplo, `staging`).
+2. Reinicia los servicios en el host o la máquina virtual.
+
+[1]: https://app.datadoghq.com/organization-settings/api-keys
+[2]: /es/getting_started/site/
+
+{{% /tab %}}
+
+{{% tab "Kubernetes" %}}
+
+Puedes activar el Seguimiento de errores de backend instalando el Agent con cualquiera de las dos opciones:
+
+- Datadog Operator
+- Helm Chart Datadog
+
+La Instrumentación de un solo paso no instrumenta aplicaciones en el espacio de nombres donde instalas el Datadog Agent. Se recomienda instalar el Agent en un espacio de nombres separado en tu clúster, donde no ejecutes tus aplicaciones.
+
+### Requisitos
+
+- Kubernetes v1.20 y posterior
+- [Helm][3] para desplegar el Datadog Operator.
+- [CLI de Kubectl][4] para instalar el Agent.
+
+{{< collapse-content title="Instalación con el Datadog Operator" level="h4" >}}
+Sigue los pasos a continuación para habilitar la Instrumentación de un solo paso en todo tu clúster utilizando el Datadog Operator. Esto permite el rastreo en todas las aplicaciones escritas en lenguajes compatibles.
+
+
+1. Instala el [Datadog Operator][7] v1.14.0 o posterior con Helm:
+ ```shell
+ helm repo add datadog https://helm.datadoghq.com
+ helm repo update
+ helm install my-datadog-operator datadog/datadog-operator
+ ```
+2. Crea un secreto de Kubernetes para almacenar tu [clave de API][5] Datadog:
+ ```shell
+ kubectl create secret generic datadog-secret --from-literal api-key=
+ ```
+3. Crea `datadog-agent.yaml` con las especificaciones de configuración del despliegue de tu Datadog Agent. La siguiente configuración es la más sencilla:
+ ```yaml
+ apiVersion: datadoghq.com/v2alpha1
+ kind: DatadogAgent
+ metadata:
+ name: datadog
+ spec:
+ global:
+ site:
+ tags:
+ - env:
+ credentials:
+ apiSecret:
+ secretName: datadog-secret
+ keyName: api-key
+ env:
+ - name: DD_CORE_AGENT_ENABLED
+ value: "false"
+ features:
+ apm:
+ errorTrackingStandalone:
+ enabled: true
+ instrumentation:
+ enabled: true
+ libVersions:
+ java: "1"
+ dotnet: "3"
+ python: "2"
+ js: "5"
+ php: "1"
+ ```
+ Sustituye `` por tu [sitio Datadog][6] y `` por el entorno en el que está instalado tu Agent (por ejemplo, `env:staging`).
+4. Ejecuta el siguiente comando:
+ ```shell
+ kubectl apply -f /path/to/your/datadog-agent.yaml
+ ```
+5. Espera unos minutos a que se apliquen los cambios del Datadog Cluster Agent y reinicia tus aplicaciones.
+{{< /collapse-content >}}
+
+{{< collapse-content title="Installing with Helm" level="h4" >}}
+Sigue los pasos a continuación para habilitar la Instrumentación de un solo paso en todo tu clúster utilizando Helm. Esto permite el rastreo en todas las aplicaciones escritas en lenguajes compatibles.
+
+
+1. Añade el repositorio de Datadog Helm:
+ ```shell
+ helm repo add datadog https://helm.datadoghq.com
+ helm repo update
+ ```
+2. Crea un secreto de Kubernetes para almacenar tu [clave de API][5] Datadog:
+ ```shell
+ kubectl create secret generic datadog-secret --from-literal api-key=
+ ```
+3. Crea `datadog-values.yaml` y añade la siguiente configuración:
+ ```yaml
+ agents:
+ containers:
+ agent:
+ env:
+ - name: DD_CORE_AGENT_ENABLED
+ value: "false"
+ datadog:
+ processAgent:
+ enabled: false
+ containerCollection: false
+ apiKeyExistingSecret: datadog-secret
+ site:
+ tags:
+ - env:
+ apm:
+ errorTrackingStandalone:
+ enabled: true
+ # Required to enable Single-Step Instrumentation
+ instrumentation:
+ enabled: true
+ libVersions:
+ java: "1"
+ dotnet: "3"
+ python: "2"
+ js: "5"
+ php: "1"
+ ```
+ Sustituye `` por tu [sitio Datadog][6] y `` por el entorno en el que está instalado tu Agent (por ejemplo, `env:staging`).
+4. Ejecuta el siguiente comando para desplegar el Agent:
+ ```shell
+ helm install datadog-agent -f datadog-values.yaml datadog/datadog
+ ```
+5. Espera unos minutos a que se apliquen los cambios del Datadog Cluster Agent y reinicia tus aplicaciones.
+
+{{< /collapse-content >}}
+
+[3]: https://v3.helm.sh/docs/intro/install/
+[4]: https://kubernetes.io/docs/tasks/tools/install-kubectl/
+[5]: https://app.datadoghq.com/organization-settings/api-keys
+[6]: /es/getting_started/site/
+[7]: https://github.com/DataDog/helm-charts/tree/master/charts/datadog-operator
+
+{{% /tab %}}
+{{< /tabs >}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/es/integrations/appgate_sdp.md b/content/es/integrations/appgate_sdp.md
new file mode 100644
index 0000000000000..1b88686e11b9a
--- /dev/null
+++ b/content/es/integrations/appgate_sdp.md
@@ -0,0 +1,139 @@
+---
+app_id: appgate-sdp
+app_uuid: 77acdb8a-4ea8-4294-baa7-d5ccfe698d9f
+assets:
+ dashboards:
+ Appgate SDP Overview: assets/dashboards/overview.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ metrics:
+ check: appgate_sdp.appliance.active_connections
+ metadata_path: metadata.csv
+ prefix: appgate_sdp.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 24819432
+ source_type_name: Appgate SDP
+ monitors:
+ Active Connection Exceeds Limit: assets/monitors/monitor_Active_connection_exceeds_limit.json
+ Appliance Function Suspension State: assets/monitors/monitor_Appliance_Function_Suspension_state.json
+ Appliance Function Unhealthy: assets/monitors/monitor_Appliance_Function_Unhealthy.json
+ Appliance Status Warning: assets/monitors/monitor_Appliance_status_warning_for_appliance.json
+ Certificate Expiration Soon: assets/monitors/monitor_Certificate_expiration_soon.json
+ Controller Database Replication: assets/monitors/monitor_Controller_Database_Replication.json
+ Database Replication Replay Lag: assets/monitors/monitor_Database_replication_replay_lag_on_controller.json
+ Excessive Database Size: assets/monitors/monitor_Excessive_database_size_on_controller.json
+ High CPU on Appliance: assets/monitors/monitor_High_CPU_on_appliance.json
+ High Disk Utilization: assets/monitors/monitor_High_Disk_Utilization_on_appliance.json
+ High Disk Utilization for Controller Database: assets/monitors/monitor_High_disk_utilization_for_controller_database_partition.json
+ High Event Queue on Gateway: assets/monitors/monitor_High_event_queue_on_gateway.json
+ High Gateway Session Count: assets/monitors/monitor_Hight_Gateway_session_count.json
+ High IP Pool Utilization: assets/monitors/monitor_High_IP_pool_utilization_on_appliance.json
+ High Memory on Appliance: assets/monitors/monitor_High_memory_on_appliance.json
+ High Sessiond Heap Utilization: assets/monitors/monitor_High_sessiond_heap_utilization_on_appliance.json
+ High Token Size Utilization: assets/monitors/monitor_High_token_size_utilization_on_gateway.json
+ High User License Utilization: assets/monitors/monitor_High_user_license_utilization_on_controller.json
+ SSH Access Attempted: assets/monitors/monitor_SSH_Access_attempted.json
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- métricas
+- recopilación de logs
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/appgate_sdp/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: appgate_sdp
+integration_id: appgate-sdp
+integration_title: Appgate SDP
+integration_version: 1.1.0
+is_public: true
+manifest_version: 2.0.0
+name: appgate_sdp
+public_title: Appgate SDP
+short_description: Monitoriza el estado y el rendimiento de Appgate SDP.
+supported_os:
+- linux
+- macos
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::macOS
+ - Submitted Data Type::Metrics
+ - Offering::Integration
+ - Category::Metrics
+ - Category::Log Collection
+ configuration: README.md#Configuración
+ description: Monitoriza el estado y el rendimiento de Appgate SDP.
+ media: []
+ overview: README.md#Información general
+ support: README.md#Soporte
+ title: Appgate SDP
+---
+
+
+
+
+## Información general
+
+Este check monitoriza [Appgate SDP][1] a través del Datadog Agent.
+
+- Monitoriza el estado y el rendimiento de dispositivos, controladores y puertas de enlace Appgate SDP mediante la recopilación de métricas clave.
+- Proporciona visibilidad de uso de recursos, conexiones activas, recuentos de sesiones y uso de licencias para ayudar a garantizar una gestión del acceso segura y eficaz.
+- Permite la alerta proactiva y la resolución de problemas mediante el seguimiento de indicadores críticos como el uso de CPU, memoria, y disco, y los eventos del sistema en entornos distribuidos.
+
+## Configuración
+
+Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos contenedorizados, consulta las [plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones.
+
+### Instalación
+
+El check de Appgate SDP está incluido en el paquete del [Datadog Agent][3]. No se necesita ninguna instalación adicional en tu servidor.
+
+### Configuración
+
+1. Edita el archivo `appgate_sdp.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent para empezar a recopilar tus datos de rendimiento de Appgate SDP. Para conocer todas las opciones de configuración disponibles, consulta el [appgate_sdp.d/conf.yaml de ejemplo][4].
+
+2. [Reinicia el Agent][5].
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][6] y busca `appgate_sdp` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "appgate_sdp" >}}
+
+
+### Eventos
+
+La integración Appgate SDP no incluye eventos.
+
+### Checks de servicio
+{{< get-service-checks-from-git "appgate_sdp" >}}
+
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][9].
+
+
+[1]: https://sdphelp.appgate.com/adminguide/v6.3/introduction.html
+[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/
+[3]: https://app.datadoghq.com/account/settings/agent/latest
+[4]: https://github.com/DataDog/integrations-core/blob/master/appgate_sdp/datadog_checks/appgate_sdp/data/conf.yaml.example
+[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[7]: https://github.com/DataDog/integrations-core/blob/master/appgate_sdp/metadata.csv
+[8]: https://github.com/DataDog/integrations-core/blob/master/appgate_sdp/assets/service_checks.json
+[9]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/cockroachdb.md b/content/es/integrations/cockroachdb.md
index 3641c66bdc228..47eb98aed0420 100644
--- a/content/es/integrations/cockroachdb.md
+++ b/content/es/integrations/cockroachdb.md
@@ -1,108 +1,51 @@
---
app_id: cockroachdb
-app_uuid: 7368f005-2333-4dc5-a2b5-14419e4995d1
-assets:
- dashboards:
- CockroachDB Overview: assets/dashboards/overview.json
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- metrics:
- check: cockroachdb.sys.uptime
- metadata_path: metadata.csv
- prefix: cockroachdb.
- process_signatures:
- - cockroach
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10036
- source_type_name: CockroachDB
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
- almacenamiento en caché
- nube
- almacenes de datos
- recopilación de logs
custom_kind: integración
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/cockroachdb/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: cockroachdb
-integration_id: cockroachdb
-integration_title: CockroachDB
-integration_version: 5.1.0
-is_public: true
-manifest_version: 2.0.0
-name: cockroachdb
-public_title: CockroachDB
-short_description: Monitoriza el estado y el rendimiento general de tus clústeres
- de CockroachDB.
+description: Monitoriza el estado y el rendimiento general de tus clústeres de CockroachDB.
+further_reading:
+- link: https://www.datadoghq.com/blog/monitor-cockroachdb-performance-metrics-with-datadog
+ tag: blog
+ text: Monitorizar métricas de rendimiento de CockroachDB con Datadog
+integration_version: 6.0.0
+media: []
supported_os:
- linux
- windows
- macos
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Category::Caching
- - Category::Cloud
- - Category::Data Stores
- - Category::Log Collection
- - Supported OS::Linux
- - Supported OS::Windows
- - Supported OS::macOS
- - Submitted Data Type::Metrics
- - Submitted Data Type::Logs
- - Offering::Integration
- configuration: README.md#Configuración
- description: Monitoriza el estado y el rendimiento general de tus clústeres de CockroachDB.
- media: []
- overview: README.md#Información general
- resources:
- - resource_type: Blog
- url: https://www.datadoghq.com/blog/monitor-cockroachdb-performance-metrics-with-datadog
- support: README.md#Soporte
- title: CockroachDB
+title: CockroachDB
---
-
-
-
-
## Información general
-El check de CockroachDB monitoriza el estado general y el rendimiento de un clúster de [CockroachDB][1].
+El check de CockroachDB monitoriza el estado general y el rendimiento de un clúster de [CockroachDB](https://www.cockroachlabs.com/product/cockroachdb).
## Configuración
### Instalación
-El check de CockroachDB está incluido en el paquete del [Datadog Agent][2], por lo que no
-necesitas instalar nada más en tu servidor.
+El check de CockroachDB está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest) package,, por lo que no necesitas instalar nada más en tus servidores CockroachDB.
-A partir de la versión 1.9.0, esta integración basada en OpenMetrics cuenta con un modo más reciente (que se activa configurando `openmetrics_endpoint` para que apunte al endpoint de destino) y un modo heredado (que se activa configurando `prometheus_url`). Para obtener todas las funciones más actualizadas, Datadog recomienda activar el modo más reciente. Ten en cuenta que el último modo requiere Python 3. Para obtener más información, consulta [Versiones más recientes y heredadas de integraciones basadas en OpenMetrics][3].
+A partir de la versión 1.9.0, esta integración basada en OpenMetrics cuenta con un modo más reciente (que se activa configurando `openmetrics_endpoint` para que apunte al endpoint de destino) y un modo legacy (que se activa configurando `prometheus_url`). Para obtener todas las funciones más actualizadas, Datadog recomienda activar el modo más reciente. Ten en cuenta que el modo más reciente requiere Python 3. Para obtener más información, consulta [Versiones más recientes y legacy de integraciones basadas en OpenMetrics](https://docs.datadoghq.com/integrations/guide/versions-for-openmetrics-based-integrations).
-Para los hosts que no pueden usar Python 3, o que no pueden usar el modo heredado, consulta la siguiente [configuración][4].
+Para los hosts que no pueden utilizar Python 3, o para utilizar el modo legacy, consulta la siguiente [configuración](https://github.com/DataDog/integrations-core/blob/7.33.x/cockroachdb/datadog_checks/cockroachdb/data/conf.yaml.example).
### Configuración
{{< tabs >}}
+
{{% tab "Host" %}}
-#### Host
+#### host
Para configurar este check para un Agent que se ejecuta en un host:
##### Recopilación de métricas
-1. Edita el archivo `cockroachdb.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][1], para empezar a recopilar los datos de rendimiento de tu CockroachDB. Para un clúster de varios nodos, configura una instancia de check independiente para cada nodo. Para conocer todas las opciones de configuración disponibles, consulta el [cockroachdb.d/conf.yaml de ejemplo][2].
+1. Edita el archivo `cockroachdb.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/) para comenzar a recopilar datos de rendimiento de CockroachDB. Consulta el [ejemplo de cockroachdb.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/cockroachdb/datadog_checks/cockroachdb/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
```yaml
init_config:
@@ -114,19 +57,19 @@ Para configurar este check para un Agent que se ejecuta en un host:
- openmetrics_endpoint: http://localhost:8080/_status/vars
```
-2. [Reinicia el Agent][3].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
##### Recopilación de logs
_Disponible para la versión 6.0 o posteriores del Agent_
-1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala en tu archivo `datadog.yaml`:
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en `datadog.yaml`:
```yaml
logs_enabled: true
```
-2. Añade este bloque de configuración a tu archivo `cockroachdb.d/conf.yaml` para empezar a recopilar tus logs de CockroachDB:
+1. Añade este bloque de configuración a tu archivo `cockroachdb.d/conf.yaml` para empezar a recopilar tus logs de CockroachDB:
```yaml
logs:
@@ -140,19 +83,17 @@ _Disponible para la versión 6.0 o posteriores del Agent_
pattern: [A-Z]\d{6}\s\d+\:\d+\:\d+\.\d+
```
- Cambia los valores de los parámetros `path` y `service` y configúralos para tu entorno. Consulta el [cockroachdb.d/conf.yaml de ejemplo][2] para ver todas las opciones de configuración disponibles.
+ Cambia los valores de los parámetros `path` y `service` y configúralos para tu entorno. Consulta el [ejemplo de cockroachdb.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/cockroachdb/datadog_checks/cockroachdb/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
-3. [Reinicia el Agent][3].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
-[1]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/
-[2]: https://github.com/DataDog/integrations-core/blob/master/cockroachdb/datadog_checks/cockroachdb/data/conf.yaml.example
-[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
{{% /tab %}}
+
{{% tab "Contenedorizado" %}}
-#### Contenedores
+#### En contenedores
-Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación.
+Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de los parámetros que se indican a continuación.
| Parámetro | Valor |
| -------------------- | -------------------------------------------------------- |
@@ -162,32 +103,2136 @@ Para entornos en contenedores, consulta las [plantillas de integración de Autod
##### Recopilación de logs
-La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta [Recopilación de logs de Docker][2].
+La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Docker](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations).
-Luego, configura las [integraciones de logs][2] como etiquetas de Docker:
+A continuación, configura [integraciones de logs](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como etiquetas Docker:
```yaml
LABEL "com.datadoghq.ad.logs"='[{"source": "cockroachdb", "service": ""}]'
```
-[1]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/
-[2]: https://docs.datadoghq.com/es/agent/docker/log/?tab=containerinstallation#log-integrations
{{% /tab %}}
+
{{< /tabs >}}
### Validación
-[Ejecuta el subcomando `status` del Agent][5] y busca `cockroachdb` en la sección Checks.
+[Ejecuta el subcomando `status` del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `cockroachdb` en la sección Checks.
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "cockroachdb" >}}
+| | |
+| --- | --- |
+| **cockroachdb.abortspanbytes**
(gauge) | Número de bytes del tramo (span) de cancelación
_Se muestra como byte_ |
+| **cockroachdb.addsstable.applications**
(count) | \[OpenMetrics v1\] Número de ingestas de SSTable aplicadas (es decir, aplicadas por réplicas)
_Se muestra como operación_ |
+| **cockroachdb.addsstable.applications.count**
(count) | \[OpenMetrics v2\] Número de ingestas de SSTable aplicadas (es decir, aplicadas por réplicas)
_Se muestra como operación_ |
+| **cockroachdb.addsstable.copies**
(count) | \[OpenMetrics v1\] Número de ingestas de SSTable que requirieron copiar archivos durante la aplicación
_Se muestra como operación_ |
+| **cockroachdb.addsstable.copies.count**
(count) | \[OpenMetrics v2\] Número de ingestas de SSTable que requirieron copiar archivos durante la aplicación
_Se muestra como operación_ |
+| **cockroachdb.addsstable.delay.count**
(count) | Cantidad en la que se retrasó la evaluación de las solicitudes AddSSTable
_Se muestra como nanosegundo_ |
+| **cockroachdb.addsstable.delay.enginebackpressure.count**
(count) | Cantidad en la que se retrasó la evaluación de las solicitudes AddSSTable por la contrapresión del motor de almacenamiento
_Se muestra como nanosegundo_. |
+| **cockroachdb.addsstable.proposals**
(count) | \[OpenMetrics v1\] Número de ingestas de SSTable propuestas (es decir, enviadas a Raft por los arrendatarios)
_Se muestra como operación_ |
+| **cockroachdb.addsstable.proposals.count**
(count) | \[OpenMetrics v2\] Número de ingestas de SSTable propuestas (es decir, enviadas a Raft por los arrendatarios)
_Se muestra como operación_ |
+| **cockroachdb.admission.admitted.elastic_cpu.bulk_normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.elastic_cpu.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.elastic_cpu.normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.kv**
(count) | \[OpenMetrics v1\] Número de solicitudes KV admitidas
_Se muestra como solicitud_ |
+| **cockroachdb.admission.admitted.kv.bulk_normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.kv.count**
(count) | \[OpenMetrics v2\] Número de solicitudes KV admitidas
_Se muestra como solicitud_ |
+| **cockroachdb.admission.admitted.kv.high_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.kv.locking_normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.kv.normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.kv_stores**
(count) | \[OpenMetrics v1\] Número de solicitudes de almacenes KV admitidas
_Se muestra como solicitud_ |
+| **cockroachdb.admission.admitted.kv_stores.bulk_normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.kv_stores.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de almacenes KV admitidas
_Se muestra como solicitud_ |
+| **cockroachdb.admission.admitted.kv_stores.high_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.kv_stores.locking_normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.kv_stores.normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.kv_stores.ttl_low_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.sql.leaf.start**
(count) | \[OpenMetrics v1\] Número de solicitudes de inicio de hoja SQL admitidas
_Se muestra como solicitud_ |
+| **cockroachdb.admission.admitted.sql.leaf.start.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de inicio de hoja SQL admitidas
_Se muestra como solicitud_ |
+| **cockroachdb.admission.admitted.sql.root.start**
(count) | \[OpenMetrics v1\] Número de solicitudes de inicio de raíz SQL admitidas
_Se muestra como solicitud_ |
+| **cockroachdb.admission.admitted.sql.root.start.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de inicio de raíz SQL admitidas
_Se muestra como solicitud_ |
+| **cockroachdb.admission.admitted.sql_kv.response**
(count) | \[OpenMetrics v1\] Número de solicitudes de respuesta SQL KV admitidas
_Se muestra como solicitud_ |
+| **cockroachdb.admission.admitted.sql_kv.response.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de respuesta SQL KV admitidas
_Se muestra como solicitud_ |
+| **cockroachdb.admission.admitted.sql_kv_response.locking_normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.sql_kv_response.normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.sql_leaf_start.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.sql_leaf_start.locking_normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.sql_leaf_start.normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.sql_root_start.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.sql_root_start.locking_normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.sql_root_start.normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.sql_sql.response**
(count) | \[OpenMetrics v1\] Número de solicitudes de respuesta SQL distribuidas admitidas
_Se muestra como solicitud_ |
+| **cockroachdb.admission.admitted.sql_sql.response.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de respuesta SQL distribuidas admitidas
_Se muestra como solicitud_ |
+| **cockroachdb.admission.admitted.sql_sql_response.locking_normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.admitted.sql_sql_response.normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.elastic_cpu.acquired_nanos.count**
(count) | Total de nanosegundos de CPU adquiridos por el trabajo elástico
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.elastic_cpu.available_nanos**
(gauge) | Nanosegundos de CPU disponibles instantáneamente por segundo ignorando el límite de uso
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.elastic_cpu.max_available_nanos.count**
(count) | Máximo de nanosegundos de CPU disponibles por segundo ignorando el límite de uso
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.elastic_cpu.nanos_exhausted_duration**
(gauge) | Duración total cuando se agotaron los nanosegundos de CPU elástica, en microsegundos|
+| **cockroachdb.admission.elastic_cpu.over_limit_durations.bucket**
(count) | Medida de cuánto sobrepasaron el límite prescrito las solicitudes elásticas (no se registra si las solicitudes no se sobrepasan)
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.elastic_cpu.over_limit_durations.count**
(count) | Medida de cuánto sobrepasaron el límite prescrito las solicitudes elásticas (no se registra si las solicitudes no sobrepasan)
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.elastic_cpu.over_limit_durations.sum**
(count) | Medida de cuánto sobrepasaron el límite prescrito las solicitudes elásticas (no se registra si las solicitudes no sobrepasan)
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.elastic_cpu.pre_work_nanos.count**
(count) | Total de nanosegundos de CPU dedicados al trabajo previo, antes de realizar el trabajo elástico
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.elastic_cpu.returned_nanos.count**
(count) | Total de nanosegundos de CPU devueltos por el trabajo elástico
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.elastic_cpu.utilization**
(gauge) | Uso de CPU por trabajo elástico
_Se muestra como porcentaje_ |
+| **cockroachdb.admission.elastic_cpu.utilization_limit**
(gauge) | Límite de uso fijado para el trabajo elástico de la CPU
_Se muestra como porcentaje_ |
+| **cockroachdb.admission.errored.elastic_cpu.bulk_normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.elastic_cpu.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.elastic_cpu.normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.kv.bulk_normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.errored.kv.count**
(count) | \[OpenMetrics v1\] Número de solicitudes KV no admitidas debido a un error
_Se muestra como solicitud_ |
+| **cockroachdb.admission.errored.kv.countt**
(count) | \[OpenMetrics v2\] Número de solicitudes KV no admitidas debido a un error
_Se muestra como solicitud_ |
+| **cockroachdb.admission.errored.kv.high_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.kv.locking_normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.kv.normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.kv_stores.bulk_normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.kv_stores.count**
(count) | \[OpenMetrics v1\] Número de solicitudes de almacenes KV no admitidas debido a un error
_Se muestra como solicitud_ |
+| **cockroachdb.admission.errored.kv_stores.countt**
(count) | \[OpenMetrics v2\] Número de solicitudes de almacenes KV no admitidas debido a un error
_Se muestra como solicitud_ |
+| **cockroachdb.admission.errored.kv_stores.high_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.kv_stores.locking_normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.kv_stores.normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.kv_stores.ttl_low_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.sql.leaf.start**
(count) | \[OpenMetrics v1\] Número de peticiones de inicio de hoja SQL no admitidas debido a un error
_Se muestra como solicitud_ |
+| **cockroachdb.admission.errored.sql.leaf.start.count**
(count) | \[OpenMetrics v2\] Número de peticiones de inicio de hoja SQL no admitidas debido a un error
_Se muestra como solicitud_ |
+| **cockroachdb.admission.errored.sql.root.start**
(count) | \[OpenMetrics v1\] Número de solicitudes de inicio de raíz SQL no admitidas debido a un error
_Se muestra como solicitud_ |
+| **cockroachdb.admission.errored.sql.root.start.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de inicio de raíz SQL no admitidas debido a un error
_Se muestra como solicitud_ |
+| **cockroachdb.admission.errored.sql_kv.response**
(count) | \[OpenMetrics v1\] Número de solicitudes SQL KV no admitidas debido a un error
_Se muestra como solicitud_ |
+| **cockroachdb.admission.errored.sql_kv.response.count**
(count) | \[OpenMetrics v2\] Número de solicitudes SQL KV no admitidas debido a un error
_Se muestra como solicitud_ |
+| **cockroachdb.admission.errored.sql_kv_response.locking_normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.sql_kv_response.normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.sql_leaf_start.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.sql_leaf_start.locking_normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.sql_leaf_start.normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.sql_root_start.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.sql_root_start.locking_normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.sql_root_start.normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.sql_sql.response**
(count) | \[OpenMetrics v1\] Número de solicitudes SQL distribuidas no admitidas debido a un error
_Se muestra como solicitud_ |
+| **cockroachdb.admission.errored.sql_sql.response.count**
(count) | \[OpenMetrics v2\] Número de solicitudes SQL distribuidas no admitidas debido a un error
_Se muestra como solicitud_ |
+| **cockroachdb.admission.errored.sql_sql_response.locking_normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.errored.sql_sql_response.normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error|
+| **cockroachdb.admission.granter.cpu_load_long_period_duration.kv.count**
(count) | Duración total cuando CPULoad fue llamado con un periodo largo, en micros|
+| **cockroachdb.admission.granter.cpu_load_short_period_duration.kv.count**
(count) | Duración total cuando CPULoad fue llamado con un periodo corto, en micros|
+| **cockroachdb.admission.granter.elastic_io_tokens_available.kv**
(gauge) | Número de tokens disponibles|
+| **cockroachdb.admission.granter.io.tokens.exhausted.duration.kv**
(count) | \[OpenMetrics v1\] Duración total cuando se agotaron los tokens de E/S, en micros
_Se muestra como microsegundo_ |
+| **cockroachdb.admission.granter.io.tokens.exhausted.duration.kv.count**
(count) | \[OpenMetrics v2\] Duración total cuando se agotaron los tokens de E/S, en micros
_Se muestra como microsegundo_ |
+| **cockroachdb.admission.granter.io_tokens_available.kv**
(gauge) | Número de tokens disponibles|
+| **cockroachdb.admission.granter.io_tokens_bypassed.kv.count**
(count) | Número total de tokens tomados por trabajos que eluden el control de admisión (por ejemplo, escrituras de seguidores sin control de flujo)|
+| **cockroachdb.admission.granter.io_tokens_exhausted_duration.kv.count**
(count) | Duración total cuando se agotaron los tokens de E/S, en micros|
+| **cockroachdb.admission.granter.io_tokens_returned.kv.count**
(count) | Número total de tokens devueltos|
+| **cockroachdb.admission.granter.io_tokens_taken.kv.count**
(count) | Número total de tokens tomados|
+| **cockroachdb.admission.granter.slot_adjuster_decrements.kv.count**
(count) | Número de decrementos del total de ranuras KV|
+| **cockroachdb.admission.granter.slot_adjuster_increments.kv.count**
(count) | Número de incrementos del total de ranuras KV|
+| **cockroachdb.admission.granter.slots_exhausted_duration.kv.count**
(count) | Duración total cuando se agotaron las ranuras KV, en micros|
+| **cockroachdb.admission.granter.total.slots.kv**
(gauge) | \[OpenMetrics v1 y v2\] Total de ranuras para el trabajo KV|
+| **cockroachdb.admission.granter.total_slots.kv**
(gauge) | Ranuras totales para el trabajo KV|
+| **cockroachdb.admission.granter.used.slots.kv**
(gauge) | \[OpenMetrics v1 y v2\] Ranuras utilizadas para el trabajo KV|
+| **cockroachdb.admission.granter.used.slots.sql.leaf.start**
(gauge) | \[OpenMetrics v1 y v2\] Ranuras utilizadas para el trabajo de inicio de hoja SQL|
+| **cockroachdb.admission.granter.used.slots.sql.root.start**
(gauge) | \[OpenMetrics v1 y v2\] Ranuras utilizadas para el trabajo de inicio de raíz SQL|
+| **cockroachdb.admission.granter.used_slots.kv**
(gauge) | Ranuras utilizadas|
+| **cockroachdb.admission.granter.used_slots.sql_leaf_start**
(gauge) | Ranuras utilizadas|
+| **cockroachdb.admission.granter.used_slots.sql_root_start**
(gauge) | Ranuras utilizadas|
+| **cockroachdb.admission.io.overload**
(gauge) | Float normalizado a 1 que indica si el control de admisión de E/S considera el almacén como sobrecargado con respecto a la compactación fuera de L0 (considera subniveles y recuentos de archivos).|
+| **cockroachdb.admission.l0_compacted_bytes.kv.count**
(count) | Total de bytes compactados a partir de L0 (utilizados para generar tokens de E/S)|
+| **cockroachdb.admission.l0_tokens_produced.kv.count**
(count) | Número total de tokens generados a partir de L0|
+| **cockroachdb.admission.raft.paused_replicas**
(gauge) | Número de seguidores (es decir, réplicas) cuya replicación está actualmente pausada para ayudarles a recuperarse de la sobrecarga de E/S. Estas réplicas se ignoran a efectos de la cuota de propuesta y no reciben tráfico de replicación. Esencialmente, son tratadas como desconectadas a efectos de replicación. Esto sirve como una forma rudimentaria de control de admisión. El recuento es emitido por el arrendatario de cada rango.|
+| **cockroachdb.admission.raft.paused_replicas_dropped_msgs.count**
(count) | Número de mensajes descartados en lugar de ser enviados a réplicas pausadas. Los mensajes se descartan para ayudar a estas réplicas a recuperarse de la sobrecarga de E/S.|
+| **cockroachdb.admission.requested.elastic_cpu.bulk_normal_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.elastic_cpu.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.elastic_cpu.normal_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.kv**
(count) | \[OpenMetrics v1\] Número de solicitudes de admisión KV
_Se muestra como solicitud_ |
+| **cockroachdb.admission.requested.kv.bulk_normal_pri.count**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.requested.kv.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de admisión KV
_Se muestra como solicitud_ |
+| **cockroachdb.admission.requested.kv.high_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.kv.locking_normal_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.kv.normal_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.kv_stores.bulk_normal_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.kv_stores.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de admisión de almacenes KV
_Se muestra como solicitud_ |
+| **cockroachdb.admission.requested.kv_stores.high_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.kv_stores.locking_normal_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.kv_stores.normal_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.kv_stores.ttl_low_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.sql.leaf.start**
(count) | \[OpenMetrics v1\] Número de solicitudes de admisión de inicio de hoja SQL
_Se muestra como solicitud_ |
+| **cockroachdb.admission.requested.sql.leaf.start.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de admisión de inicio de hoja SQL
_Se muestra como solicitud_ |
+| **cockroachdb.admission.requested.sql_kv.response**
(count) | \[OpenMetrics v1\] Número de solicitudes de admisión SQL KV
_Se muestra como solicitud_ |
+| **cockroachdb.admission.requested.sql_kv.response.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de admisión SQL KV
_Se muestra como solicitud_ |
+| **cockroachdb.admission.requested.sql_kv_response.locking_normal_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.sql_kv_response.normal_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.sql_leaf_start.locking_normal_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.sql_leaf_start.normal_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.sql_root_start.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.sql_root_start.locking_normal_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.sql_root_start.normal_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.sql_sql.response**
(count) | \[OpenMetrics v1\] Número de solicitudes de admisión SQL distribuidas
_Se muestra como solicitud_ |
+| **cockroachdb.admission.requested.sql_sql.response.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de admisión SQL distribuidas
_Se muestra como solicitud_ |
+| **cockroachdb.admission.requested.sql_sql_response.locking_normal_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.requested.sql_sql_response.normal_pri.count**
(count) | Número de solicitudes|
+| **cockroachdb.admission.scheduler_latency_listener.p99_nanos**
(gauge) | La latencia de programación en el p99 observada por el escuchador de latencia del programador
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.kv**
(gauge) | \[OpenMetrics v1\] Duraciones de tiempo de espera de solicitudes KV que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.kv.bucket**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes KV que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.kv.count**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes KV que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.kv.sum**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes KV que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.kv_stores**
(gauge) | \[OpenMetrics v1\] Duraciones de tiempo de espera de solicitudes de almacenes KV que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.kv_stores.bucket**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de almacenes KV que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.kv_stores.count**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de almacenes KV que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.kv_stores.sum**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de almacenes KV que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.sql.leaf.start**
(gauge) | \[OpenMetrics v1\] Duraciones de tiempo de espera de solicitudes de inicio de hoja SQL que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.sql.leaf.start.bucket**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de inicio de hoja SQL que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.sql.leaf.start.count**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de inicio de hoja SQL que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.sql.leaf.start.sum**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de inicio de hoja SQL que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.sql_kv.response**
(gauge) | \[OpenMetrics v1\] Duraciones de tiempo de espera de solicitudes de respuesta SQL KV que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.sql_kv.response.bucket**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de respuesta SQL KV que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.sql_kv.response.count**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de respuesta SQL KV que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.sql_kv.response.sum**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de respuesta SQL KV que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.sql_sql.response**
(gauge) | \[OpenMetrics v1\] Duraciones de tiempo de espera de solicitudes SQL distribuidas que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.sql_sql.response.bucket**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes SQL distribuidas que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.sql_sql.response.count**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes SQL distribuidas que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.durations.sql_sql.response.sum**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes SQL distribuidas que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait.queue.length.kv**
(gauge) | \[OpenMetrics v1 y v2\] Longitud de la cola de espera KV|
+| **cockroachdb.admission.wait.queue.length.kv_stores**
(gauge) | \[OpenMetrics v1 y v2\] Longitud de la cola de espera de los almacenes KV|
+| **cockroachdb.admission.wait.queue.length.sql.leaf.start**
(gauge) | \[OpenMetrics v1 y v2\] Longitud de la cola de espera de inicio de la hoja SQL|
+| **cockroachdb.admission.wait.queue.length.sql_kv.response**
(gauge) | \[OpenMetrics v1 y v2\] Longitud de la cola de espera SQL KV|
+| **cockroachdb.admission.wait.queue.length.sql_sql.response**
(gauge) | \[OpenMetrics v1 y v2\] Longitud de la cola de espera SQL distribuida|
+| **cockroachdb.admission.wait.queue.lengths.sql.root.start**
(gauge) | \[OpenMetrics v1 y v2\] Longitud de la cola de espera de inicio de la raíz SQL|
+| **cockroachdb.admission.wait.sum.kv**
(count) | \[OpenMetrics v1\] Tiempo total de espera KV en micros
_Se muestra como microsegundo_ |
+| **cockroachdb.admission.wait.sum.kv.count**
(count) | \[OpenMetrics v2\] Tiempo total de espera KV en micros
_Se muestra como microsegundo_ |
+| **cockroachdb.admission.wait.sum.kv_stores**
(count) | \[OpenMetrics v1\] Tiempo total de espera de los almacenes KV en micros
_Se muestra como microsegundo_ |
+| **cockroachdb.admission.wait.sum.kv_stores.count**
(count) | \[OpenMetrics v2\] Tiempo total de espera de los almacenes KV en micros
_Se muestra como microsegundo_ |
+| **cockroachdb.admission.wait.sum.sql.root.start**
(count) | \[OpenMetrics v1\] Tiempo total de espera de inicio de raíz SQL en micros
_Se muestra como microsegundo_ |
+| **cockroachdb.admission.wait.sum.sql.root.start.count**
(count) | \[OpenMetrics v2\] Tiempo total de espera de inicio de raíz SQL en micros
_Se muestra como microsegundo_ |
+| **cockroachdb.admission.wait.sum.sql_kv.response**
(count) | \[OpenMetrics v1\] Tiempo total de espera de SQL KV en micros
_Se muestra como microsegundo_ |
+| **cockroachdb.admission.wait.sum.sql_kv.response.count**
(count) | \[OpenMetrics v2\] Tiempo total de espera de SQL KV en micros
_Se muestra como microsegundo_ |
+| **cockroachdb.admission.wait.sum.sql_sql.response**
(count) | \[OpenMetrics v1\] Tiempo total de espera de SQL distribuido en micros
_Se muestra como microsegundo_ |
+| **cockroachdb.admission.wait.sum.sql_sql.response.count**
(count) | \[OpenMetrics v2\] Tiempo total de espera de SQL distribuido en micros
_Se muestra como microsegundo_ |
+| **cockroachdb.admission.wait_durations.elastic_cpu.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.elastic_cpu.bulk_normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.elastic_cpu.bulk_normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.elastic_cpu.bulk_normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.elastic_cpu.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.elastic_cpu.normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.elastic_cpu.normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.elastic_cpu.normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.elastic_cpu.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv.bulk_normal_pri**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.wait_durations.kv.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv.high_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv.high_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv.high_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv.locking_normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv.locking_normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv.locking_normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv.normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv.normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv.normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.bulk_normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.bulk_normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.bulk_normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.high_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.high_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.high_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.locking_normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.locking_normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.locking_normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.ttl_low_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.ttl_low_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.kv_stores.ttl_low_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_kv_response.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_kv_response.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_kv_response.locking_normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_kv_response.locking_normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_kv_response.locking_normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_kv_response.normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_kv_response.normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_kv_response.normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_kv_response.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_leaf_start.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_leaf_start.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_leaf_start.locking_normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_leaf_start.locking_normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_leaf_start.locking_normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_leaf_start.normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_leaf_start.normal_pri.count**
(count) | Duración del tiempo de espera para las solicitudes que esperaron
_Se muestra en nanosegundos_ |
+| **cockroachdb.admission.wait_durations.sql_leaf_start.normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_leaf_start.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_root_start.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_root_start.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_root_start.locking_normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_root_start.locking_normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_root_start.locking_normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_root_start.normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_root_start.normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_root_start.normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_root_start.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_sql_response.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_sql_response.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_sql_response.locking_normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_sql_response.locking_normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_sql_response.locking_normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_sql_response.normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_sql_response.normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_sql_response.normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_durations.sql_sql_response.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ |
+| **cockroachdb.admission.wait_queue_length.elastic_cpu**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.elastic_cpu.bulk_normal_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.elastic_cpu.normal_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.kv**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.kv.bulk_normal_pri**
(count) | Número de solicitudes admitidas|
+| **cockroachdb.admission.wait_queue_length.kv.high_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.kv.locking_normal_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.kv.normal_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.kv_stores**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.kv_stores.bulk_normal_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.kv_stores.high_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.kv_stores.locking_normal_pri**
(calibre) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.kv_stores.normal_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.kv_stores.ttl_low_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.sql_kv_response**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.sql_kv_response.locking_normal_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.sql_kv_response.normal_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.sql_leaf_start**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.sql_leaf_start.locking_normal_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.sql_leaf_start.normal_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.sql_root_start**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.sql_root_start.locking_normal_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.sql_root_start.normal_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.sql_sql_response**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.sql_sql_response.locking_normal_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.admission.wait_queue_length.sql_sql_response.normal_pri**
(gauge) | Duración de la cola de espera|
+| **cockroachdb.backup.last_failed_time.kms_inaccessible**
(indicador) | La marca de tiempo Unix del fallo más reciente de la copia de seguridad debido a errKMSInaccessible por una copia de seguridad especificada como que mantiene esta métrica|
+| **cockroachdb.batch_requests.bytes.count**
(count) | Recuento total de bytes de solicitudes por lotes procesadas
_Se muestra como byte_ |
+| **cockroachdb.batch_requests.cross_region.bytes.count**
(count) | Recuento total de bytes de solicitudes por lotes procesadas en toda la región cuando los niveles de región están configurados
_Se muestra como byte_ |
+| **cockroachdb.batch_requests.cross_zone.bytes.count**
(count) | Recuento total de bytes de solicitudes por lotes procesadas entre zonas dentro de la misma región cuando los niveles de región y zona están configurados. Sin embargo, si los niveles de región no están configurados, este recuento también puede incluir datos por lotes enviados entre diferentes regiones. Garantizar una configuración coherente de los niveles de región y zona en todos los nodos ayuda a monitorizar con precisión los datos transmitidos.
_Se muestra como byte_ |
+| **cockroachdb.batch_responses.bytes.count**
(count) | Recuento total de bytes de respuestas por lotes recibidas
_Se muestra como byte_ |
+| **cockroachdb.batch_responses.cross_region.bytes.count**
(count) | Recuento total de bytes de respuestas por lotes recibidas en toda la región cuando los niveles de región están configurados
_Se muestra como byte_ |
+| **cockroachdb.batch_responses.cross_zone.bytes.count**
(count) | Recuento total de bytes de respuestas por lotes recibidas entre zonas dentro de la misma región cuando los niveles de región y zona están configurados. Sin embargo, si los niveles de región no están configurados, este recuento también puede incluir datos por lotes recibidos entre diferentes regiones. Garantizar una configuración coherente de los niveles de región y zona en todos los nodos ayuda a monitorizar con precisión los datos transmitidos.
_Se muestra como byte_ |
+| **cockroachdb.build.timestamp**
(gauge) | \[OpenMetrics v1 y v2\] Información de compilación
_Se muestra como tiempo_ |
+| **cockroachdb.capacity.available**
(gauge) | \[OpenMetrics v1 y v2\] Capacidad de almacenamiento disponible
_Se muestra como byte_ |
+| **cockroachdb.capacity.reserved**
(gauge) | \[OpenMetrics v1 y v2\] Capacidad reservada para snapshots
_Se muestra como byte_ |
+| **cockroachdb.capacity.total**
(gauge) | \[OpenMetrics v1 y v2\] Capacidad total de almacenamiento
_Se muestra como byte_ |
+| **cockroachdb.capacity.used**
(gauge) | \[OpenMetrics v1 y v2\] Capacidad de almacenamiento utilizada
_Se muestra como byte_ |
+| **cockroachdb.changefeed.admit.latency**
(gauge) | \[OpenMetrics v1\] Latencia de admisión de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que fue admitido en el pipeline changefeed
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.admit.latency.bucket**
(count) | \[OpenMetrics v2\] Latencia de admisión de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que fue admitido en el pipeline changefeed
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.admit.latency.count**
(count) | \[OpenMetrics v2\] Latencia de admisión de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que fue admitido en el pipeline changefeed
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.admit.latency.sum**
(count) | \[OpenMetrics v2\] Latencia de admisión de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que fue admitido en el pipeline changefeed
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.aggregator_progress**
(gauge) | Fecha más temprana hasta la que se garantiza que cualquier agregador ha emitido todos los valores para|
+| **cockroachdb.changefeed.backfill**
(gauge) | \[OpenMetrics v1 y v2\] Número de changefeeds que ejecutan backfills en la actualidad|
+| **cockroachdb.changefeed.backfill.pending.ranges**
(gauge) | \[OpenMetrics v1 y v2\] Número de rangos en un backfill en curso que aún no se han emitido por completo|
+| **cockroachdb.changefeed.backfill_count**
(gauge) | Número de changefeeds que ejecutan backfills en la actualidad|
+| **cockroachdb.changefeed.batch_reduction_count**
(gauge) | Número de veces que un nodo agregador de changefeed intentó reducir el tamaño de los lotes de mensajes que emitía al sumidero|
+| **cockroachdb.changefeed.buffer_entries.allocated_mem**
(gauge) | Asignación actual de memoria del grupo de cuotas
_Se muestra como byte_ |
+| **cockroachdb.changefeed.buffer_entries.flush.count**
(count) | Número de elementos de descarga añadidos al búfer|
+| **cockroachdb.changefeed.buffer_entries.in.count**
(count) | Total de entradas que ingresan al búfer entre raft y los sumideros de changefeeds|
+| **cockroachdb.changefeed.buffer_entries.kv.count**
(count) | Número de elementos KV añadidos al búfer|
+| **cockroachdb.changefeed.buffer_entries.out.count**
(count) | Total de entradas que abandonan el búfer entre raft y los sumideros de changefeeds|
+| **cockroachdb.changefeed.buffer_entries.released.count**
(count) | Total de entradas procesadas, emitidas y reconocidas por los sumideros|
+| **cockroachdb.changefeed.buffer_entries.resolved.count**
(count) | Número de elementos resueltos añadidos al búfer|
+| **cockroachdb.changefeed.buffer_entries_mem.acquired.count**
(count) | Cantidad total de memoria adquirida para las entradas a medida que ingresan al sistema|
+| **cockroachdb.changefeed.buffer_entries_mem.released.count**
(count) | Cantidad total de memoria liberada por las entradas tras su emisión|
+| **cockroachdb.changefeed.buffer_pushback.count**
(count) | Tiempo total dedicado a esperar mientras el búfer estaba lleno
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.bytes.messages_pushback.count**
(count) | Tiempo total de limitación de la cuota de bytes
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.checkpoint_hist_nanos.bucket**
(count) | Tiempo dedicado a comprobar el progreso del changefeed
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.checkpoint_hist_nanos.count**
(count) | Tiempo dedicado a comprobar el progreso del changefeed
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.checkpoint_hist_nanos.sum**
(count) | Tiempo dedicado a comprobar el progreso del changefeed
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.checkpoint_progress**
(gauge) | Marca de tiempo más antigua de cualquier punto de control persistente de un changefeed (los valores anteriores a esta marca de tiempo nunca tendrán que volver a emitirse)|
+| **cockroachdb.changefeed.cloudstorage_buffered_bytes**
(gauge) | Número de bytes almacenados en búfer en archivos de sumidero de cloudstorage que aún no se han emitido|
+| **cockroachdb.changefeed.commit.latency**
(gauge) | \[OpenMetrics v1\] Latencia de confirmación de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que fue reconocido por el sumidero descendente
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.commit.latency.bucket**
(count) | \[OpenMetrics v2\] Latencia de confirmación de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que fue reconocido por el sumidero descendente
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.commit.latency.count**
(count) | \OpenMetrics v2\] Latencia de confirmación de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que fue reconocido por el sumidero aguas abajo
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.commit.latency.sum**
(count) | \[OpenMetrics v2\] Latencia de confirmación de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que fue reconocido por el sumidero aguas abajo
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.emitted.messages**
(count) | \[OpenMetrics v1\] Mensajes emitidos por todas las fuentes|
+| **cockroachdb.changefeed.emitted.messages.count**
(count) | \[OpenMetrics v2\] Mensajes emitidos por todas las fuentes|
+| **cockroachdb.changefeed.emitted_bytes**
(count) | Bytes emitidos por todas las fuentes
_Se muestra como byte_ |
+| **cockroachdb.changefeed.emitted_bytes.count**
(count) | Bytes emitidos por todas las fuentes|
+| **cockroachdb.changefeed.emitted_messages**
(count) | Mensajes emitidos por todas las fuentes|
+| **cockroachdb.changefeed.error.retries**
(count) | \ [OpenMetrics v1\] Total de errores reintentables encontrados por todos los changefeeds|
+| **cockroachdb.changefeed.error.retries.count**
(count) | \ [OpenMetrics v2\] Total de errores reintentables encontrados por todos los changefeeds|
+| **cockroachdb.changefeed.error_retries**
(count) | Total de errores reintentables encontrados por todos los changefeeds|
+| **cockroachdb.changefeed.failures**
(count) | \[OpenMetrics v1\] Número total de trabajos de changefeeds que fallaron|
+| **cockroachdb.changefeed.failures.count**
(count) | \[OpenMetrics v2\] Número total de trabajos de changefeeds que fallaron|
+| **cockroachdb.changefeed.filtered_messages.count**
(count) | Mensajes filtrados por todas las fuentes. Este recuento no incluye el número de mensajes que pueden filtrarse debido a las restricciones de rango.|
+| **cockroachdb.changefeed.flush.messages_pushback.count**
(count) | Tiempo total de limitación de la cuota de descarga
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.flush_hist_nanos.bucket**
(count) | Tiempo dedicado a descargar mensajes en todos los changefeeds
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.flush_hist_nanos.count**
(count) | Tiempo dedicado a descargar mensajes en todos los changefeeds
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.flush_hist_nanos.sum**
(count) | Tiempo dedicado a descargar mensajes en todos los changefeeds
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.flushed_bytes.count**
(count) | Bytes emitidos por todas las fuentes; puede ser diferentes de changefeed.emitted_bytes cuando la compresión está activada
_Se muestra como byte_ |
+| **cockroachdb.changefeed.flushes.count**
(count) | Total de descargas en todas las fuentes|
+| **cockroachdb.changefeed.forwarded_resolved_messages.count**
(count) | Marcas de tiempo resueltas enviadas desde el agregador de cambios a la frontera de cambios|
+| **cockroachdb.changefeed.frontier_updates.count**
(count) | Número de actualizaciones de fronteras de cambio en todas las fuentes|
+| **cockroachdb.changefeed.internal_retry_message**
(gauge) | Número de mensajes para los que se realizó un intento dentro de un nodo agregador|
+| **cockroachdb.changefeed.lagging_ranges**
(gauge) | Número de rangos considerados como atrasados|
+| **cockroachdb.changefeed.max.behind.nanos**
(gauge) | \[OpenMetrics v1 y v2\] La mayor duración de confirmación a emisión de cualquier fuente en ejecución|
+| **cockroachdb.changefeed.max_behind_nanos**
(gauge) | (Obsoleto en favor de checkpoint_progress) Punto de control persistente de cualquier changefeed más atrasado que el actual
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.message.size.hist**
(gauge) | \[OpenMetrics v1\] Histograma del tamaño de los mensajes|
+| **cockroachdb.changefeed.message.size.hist.bucket**
(count) | \[OpenMetrics v2\] Histograma del tamaño de los mensajes|
+| **cockroachdb.changefeed.message.size.hist.count**
(count) | \[OpenMetrics v2\] Histograma del tamaño de los mensajes|
+| **cockroachdb.changefeed.message.size.hist.sum**
(count) | \[OpenMetrics v2\] Histograma del tamaño de los mensajes|
+| **cockroachdb.changefeed.message_size_hist.bucket**
(count) | Histograma del tamaño del mensaje
_Se muestra como byte_ |
+| **cockroachdb.changefeed.message_size_hist.count**
(count) | Histograma del tamaño del mensaje
_Se muestra como byte_ |
+| **cockroachdb.changefeed.message_size_hist.sum**
(count) | Histograma del tamaño del mensaje
_Se muestra como byte_ |
+| **cockroachdb.changefeed.messages.messages_pushback.count**
(count) | Tiempo total de limitación de la cuota de mensajes
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.nprocs_consume_event_nanos.bucket**
(count) | Tiempo total de espera para añadir un evento al consumidor paralelo
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.nprocs_consume_event_nanos.count**
(count) | Tiempo total de espera para añadir un evento al consumidor paralelo
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.nprocs_consume_event_nanos.sum**
(count) | Tiempo total de espera para añadir un evento al consumidor paralelo
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.nprocs_flush_nanos.bucket**
(count) | Tiempo total de inactividad esperando a que el consumidor paralelo se descargue
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.nprocs_flush_nanos.count**
(count) | Tiempo total de inactividad esperando a que el consumidor paralelo se descargue
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.nprocs_flush_nanos.sum**
(count) | Tiempo total de inactividad esperando a que el consumidor paralelo se descargue
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.nprocs_in_flight**
(gauge) | Número de eventos almacenados en el consumidor paralelo|
+| **cockroachdb.changefeed.parallel_io_queue_nanos.bucket**
(count) | Tiempo de espera en cola de las solicitudes salientes al sumidero debido a solicitudes en curso con claves en conflicto
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.parallel_io_queue_nanos.count**
(count) | Tiempo de espera en cola de las solicitudes salientes al sumidero debido a solicitudes en curso con claves en conflicto
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.parallel_io_queue_nanos.sum**
(count) | Tiempo de espera en cola de las solicitudes salientes al sumidero debido a solicitudes en curso con claves en conflicto
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.queue_time.count**
(count) | Tiempo que el evento KV estuvo esperando ser procesado
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.running**
(gauge) | \[OpenMetrics v1 y v2\] Número de todos los changefeeds que se están ejecutando actualmente, incluidos los sinkless|
+| **cockroachdb.changefeed.schema_registry.registrations.count**
(count) | Número de intentos de inscripción en el registro de esquemas|
+| **cockroachdb.changefeed.schema_registry.retry.count**
(count) | Número de reintentos encontrados al enviar solicitudes al registro de esquemas|
+| **cockroachdb.changefeed.schemafeed.table_history_scans.count**
(count) | Número de análisis de historiales de tablas durante el sondeo|
+| **cockroachdb.changefeed.schemafeed.table_metadata.count**
(count) | Tiempo bloqueado mientras se verifican los historiales de metadatos de tablas
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.sink_batch_hist_nanos.bucket**
(count) | Tiempo transcurrido en el búfer del sumidero antes de ser vaciado y confirmado
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.sink_batch_hist_nanos.count**
(count) | Tiempo transcurrido en el búfer del sumidero antes de ser vaciado y confirmado
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.sink_batch_hist_nanos.sum**
(count) | Tiempo transcurrido en el búfer del sumidero antes de ser vaciado y confirmado
_Se muestra como nanosegundo_ |
+| **cockroachdb.changefeed.sink_io_inflight**
(gauge) | Número de claves actualmente en curso como solicitudes de E/S que se envían al sumidero|
+| **cockroachdb.changefeed.size_based_flushes.count**
(count) | Descargas totales basadas en el tamaño en todas las fuentes|
+| **cockroachdb.clock.offset.meannanos**
(gauge) | \[OpenMetrics v1 y v2\] Desfase medio del reloj con otros nodos en nanosegundos
_Se muestra como nanosegundo_ |
+| **cockroachdb.clock.offset.stddevnanos**
(gauge) | \[OpenMetrics v1 y v2\] Desfase Stdddev del reloj con otros nodos en nanosegundos
_Se muestra como nanosegundo_ |
+| **cockroachdb.cloud.read_bytes.count**
(count) | Número de bytes leídos
_Se muestra como byte_ |
+| **cockroachdb.cloud.write_bytes.count**
(count) | Número de bytes leídos
_Se muestra como byte_ |
+| **cockroachdb.cluster.preserve_downgrade_option.last_updated**
(gauge) | Fecha y hora de la última actualización de preserve_downgrade_option|
+| **cockroachdb.compactor.compactingnanos**
(count) | \[OpenMetrics v1\] Número de nanosegundos dedicados a compactar rangos
_Se muestra como nanosegundo_ |
+| **cockroachdb.compactor.compactingnanos.count**
(count) | \[OpenMetrics v2\] Número de nanosegundos dedicados a compactar rangos
_Se muestra como nanosegundo_ |
+| **cockroachdb.compactor.compactions.failure**
(count) | \[OpenMetrics v1\] Número de solicitudes de compactación fallidas enviadas al motor de almacenamiento
_Se muestra como solicitud_ |
+| **cockroachdb.compactor.compactions.failure.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de compactación fallidas enviadas al motor de almacenamiento
_Se muestra como solicitud_ |
+| **cockroachdb.compactor.compactions.success**
(count) | \[OpenMetrics v1\] Número de solicitudes de compactación enviadas con éxito al motor de almacenamiento
_Se muestra como solicitud_ |
+| **cockroachdb.compactor.compactions.success.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de compactación enviadas con éxito al motor de almacenamiento
_Se muestra como solicitud_ |
+| **cockroachdb.compactor.suggestionbytes.compacted**
(count) | \[OpenMetrics v1\] Número de bytes lógicos compactados a partir de las compactaciones sugeridas
_Se muestra como byte_ |
+| **cockroachdb.compactor.suggestionbytes.compacted.count**
(count) | \[OpenMetrics v2\] Número de bytes lógicos compactados a partir de las compactaciones sugeridas
_Se muestra como byte_ |
+| **cockroachdb.compactor.suggestionbytes.queued**
(gauge) | \[OpenMetrics v1 y v2\] Número de bytes lógicos en compactaciones sugeridas en la cola
_Se muestra como byte_ |
+| **cockroachdb.compactor.suggestionbytes.skipped**
(count) | \[OpenMetrics v1 y v2\] Número de bytes lógicos en compactaciones sugeridas que no se compactaron
_Se muestra como byte_ |
+| **cockroachdb.compactor.suggestionbytes.skipped.count**
(count) | \[OpenMetrics v2\] Número de bytes lógicos en compactaciones sugeridas que no se compactaron
_Se muestra como byte_ |
+| **cockroachdb.distsender.batch_requests.cross_region.bytes.count**
(count) | Recuento total de bytes de solicitudes por lotes dirigidas por réplicas procesadas entre regiones cuando los niveles de región están configurados
_Se muestra como byte_ |
+| **cockroachdb.distsender.batch_requests.cross_zone.bytes.count**
(count) | Recuento total de bytes de solicitudes por lotes dirigidas por réplicas procesadas entre zonas dentro de la misma región cuando los niveles de región y zona están configurados. Sin embargo, si los niveles de región no están configurados, este recuento también puede incluir datos por lotes enviados entre diferentes regiones. Garantizar una configuración coherente de los niveles de región y zona en todos los nodos ayuda a monitorizar con precisión los datos transmitidos.
_Se muestra como byte_ |
+| **cockroachdb.distsender.batch_requests.replica_addressed.bytes.count**
(count) | Recuento total de bytes de solicitudes por lotes dirigidas por réplicas procesadas
_Se muestra como byte_ |
+| **cockroachdb.distsender.batch_responses.cross_region.bytes.count**
(count) | Recuento total de bytes de respuestas por lotes dirigidas por réplicas recibidas entre regiones cuando los niveles de región están configurados
_Se muestra como byte_ |
+| **cockroachdb.distsender.batch_responses.cross_zone.bytes.count**
(count) | Recuento total de bytes de respuestas por lotes dirigidas por réplicas recibidas entre zonas dentro de la misma región cuando los niveles de región y zona están configurados. Sin embargo, si los niveles de región no están configurados, este recuento también puede incluir datos por lotes recibidos entre diferentes regiones. Garantizar una configuración coherente de los niveles de región y zona en todos los nodos ayuda a monitorizar con precisión los datos transmitidos.
_Se muestra como byte_ |
+| **cockroachdb.distsender.batch_responses.replica_addressed.bytes.count**
(count) | Recuento total de bytes de respuestas por lotes dirigidas por réplicas recibidas
_Se muestra como byte_ |
+| **cockroachdb.distsender.batches.async.sent.count**
(count) | Número de lotes parciales enviados de forma asíncrona|
+| **cockroachdb.distsender.batches.async.throttled.count**
(count) | Número de lotes parciales no enviados de forma asíncrona debido a limitaciones|
+| **cockroachdb.distsender.batches.count**
(count) | Número de lotes procesados|
+| **cockroachdb.distsender.batches.partial**
(count) | \[OpenMetrics v1\] Número de lotes parciales procesados|
+| **cockroachdb.distsender.batches.partial.count**
(count) | \[OpenMetrics v2\] Número de lotes parciales procesados|
+| **cockroachdb.distsender.batches.total**
(count) | \[OpenMetrics v1\] Número de lotes procesados|
+| **cockroachdb.distsender.batches.total.count**
(count) | \[OpenMetrics v2\] Número de lotes procesados|
+| **cockroachdb.distsender.errors.inleasetransferbackoffs.count**
(count) | Número de veces que se ha hecho backoff debido a NotLeaseHolderErrors durante la transferencia del arrendamiento|
+| **cockroachdb.distsender.errors.notleaseholder**
(count) | \[OpenMetrics v1\] Número de NotLeaseHolderErrors encontrados
_Se muestra como error_ |
+| **cockroachdb.distsender.errors.notleaseholder.count**
(count) | \[OpenMetrics v2\] Número de NotLeaseHolderErrors encontrados
_Se muestra como error_ |
+| **cockroachdb.distsender.rangefeed.catchup_ranges**
(gauge) | Número de rangos en modo actualización. Se cuenta el número de rangos con un rangefeed activo que está realizando un análisis de actualización.|
+| **cockroachdb.distsender.rangefeed.error_catchup_ranges.count**
(count) | Número de rangos en modo actualización en los que se produjo un error.|
+| **cockroachdb.distsender.rangefeed.restart_ranges.count**
(count) | Número de rangos que se reiniciaron debido a errores transitorios|
+| **cockroachdb.distsender.rangefeed.retry.logical_ops_missing.count**
(count) | Número de rangos en los que se produjo un error LOGICAL_OPS_MISSING reintentable|
+| **cockroachdb.distsender.rangefeed.retry.no_leaseholder.count**
(count) | Número de rangos en los que se produjo un error NO_LEASEHOLDER reintentable|
+| **cockroachdb.distsender.rangefeed.retry.node_not_found.count**
(count) | Número de rangos en los que se produjo un error NODE_NOT_FOUND reintentable|
+| **cockroachdb.distsender.rangefeed.retry.raft_snapshot.count**
(count) | Número de rangos en los que se produjo un error RAFT_SNAPSHOT reintentable|
+| **cockroachdb.distsender.rangefeed.retry.range_key_mismatch.count**
(count) | Número de rangos en los que se produjo un error RANGE_KEY_MISMATCH reintentable|
+| **cockroachdb.distsender.rangefeed.retry.range_merged.count**
(count) | Número de rangos en los que se produjo un error RANGE_MERGED reintentable|
+| **cockroachdb.distsender.rangefeed.retry.range_not_found.count**
(count) | Número de rangos en los que se produjo un error RANGE_NOT_FOUND reintentable|
+| **cockroachdb.distsender.rangefeed.retry.range_split.count**
(count) | Número de rangos en los que se produjo un error RANGE_SPLIT reintentable|
+| **cockroachdb.distsender.rangefeed.retry.rangefeed_closed.count**
(count) | Número de rangos en los que se produjo un error RANGEFEED_CLOSED reintentable|
+| **cockroachdb.distsender.rangefeed.retry.replica_removed.count**
(count) | Número de rangos en los que se produjo un error REPLICA_REMOVED reintentable|
+| **cockroachdb.distsender.rangefeed.retry.send.count**
(count) | Número de en los que se produjo un error SEND reintentable|
+| **cockroachdb.distsender.rangefeed.retry.slow_consumer.count**
(count) | Número de rangos en los que se produjo un error SLOW_CONSUMER reintentable|
+| **cockroachdb.distsender.rangefeed.retry.store_not_found.count**
(count) | Número de rangos en los que se produjo un error STORE_NOT_FOUND reintentable|
+| **cockroachdb.distsender.rangefeed.retry.stuck.count**
(count) | Número de rangos en los que se produjo un error STUCK reintentable|
+| **cockroachdb.distsender.rangefeed.total_ranges**
(gauge) | Número de rangos que ejecutan el rangefeed. Se cuenta el número de rangos con un rangefeed activo.|
+| **cockroachdb.distsender.rangelookups.count**
(count) | Número de búsquedas de rangos|
+| **cockroachdb.distsender.rpc.addsstable.sent.count**
(count) | Número de solicitudes AddSSTable procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.adminchangereplicas.sent.count**
(count) | Número de solicitudes AdminChangeReplicas procesadas. Se cuentan las solicitudes en lotes entregados a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.adminmerge.sent.count**
(count) | Número de solicitudes AdminMerge procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.adminrelocaterange.sent.count**
(count) | Número de solicitudes AdminRelocateRange procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.adminscatter.sent.count**
(count) | Número de solicitudes AdminScatter procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.adminsplit.sent.count**
(count) | Número de solicitudes AdminSplit procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.admintransferlease.sent.count**
(count) | Número de solicitudes AdminTransferLease procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.adminunsplit.sent.count**
(count) | Número de solicitudes AdminUnsplit procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.adminverifyprotectedtimestamp.sent.count**
(count) | Número de solicitudes AdminVerifyProtectedTimestamp procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.barrier.sent.count**
(count) | Número de solicitudes Barrier procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.checkconsistency.sent.count**
(count) | Número de solicitudes CheckConsistency procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.clearrange.sent.count**
(count) | Número de solicitudes ClearRange procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.computechecksum.sent.count**
(count) | Número de solicitudes ComputeChecksum procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.conditionalput.sent.count**
(count) | Número de solicitudes ConditionalPut procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.delete.sent.count**
(count) | Número de solicitudes Delete procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.deleterange.sent.count**
(count) | Número de solicitudes DeleteRange procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.endtxn.sent.count**
(count) | Número de solicitudes EndTxn procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.err.ambiguousresulterrtype.count**
(count) | Número de errores AmbiguousResultErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.batchtimestampbeforegcerrtype.count**
(count) | Número de errores BatchTimestampBeforeGCErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.communicationerrtype.count**
(count) | Número de errores CommunicationErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.conditionfailederrtype.count**
(count) | Número de errores ConditionFailedErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.errordetailtype.count**
(count) | Número de errores ErrorDetailType (etiquetados por su número) recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.indeterminatecommiterrtype.count**
(count) | Número de errores IndeterminateCommitErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.integeroverflowerrtype.count**
(count) | Número de errores IntegerOverflowErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.intentmissingerrtype.count**
(count) | Número de errores IntentMissingErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.internalerrtype.count**
(count) | Número de errores InternalErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.invalidleaseerrtype.count**
(count) | Número de errores InvalidLeaseErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.leaserejectederrtype.count**
(count) | Número de errores LeaseRejectedErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.lockconflicterrtype.count**
(count) | Número de errores LockConflictErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.mergeinprogresserrtype.count**
(count) | Número de errores MergeInProgressErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.mintimestampboundunsatisfiableerrtype.count**
(count) | Número de errores MinTimestampBoundUnsatisfiableErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.mvcchistorymutationerrtype.count**
(count) | Número de errores MVCCHistoryMutationErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.nodeunavailableerrtype.count**
(count) | Número de errores NodeUnavailableErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.notleaseholdererrtype.count**
(count) | Número de errores NotLeaseHolderErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.oprequirestxnerrtype.count**
(count) | Número de errores OpRequiresTxnErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.optimisticevalconflictserrtype.count**
(count) | Número de errores OptimisticEvalConflictsErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.raftgroupdeletederrtype.count**
(count) | Número de errores RaftGroupDeletedErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.rangefeedretryerrtype.count**
(count) | Número de errores RangeFeedRetryErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.rangekeymismatcherrtype.count**
(count) | Number of RangeKeyMismatchErrType errors received replica-bound RPCsEsto cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde las réplicas como parte de la ejecución de peticiones de posible alcance. Los fallos para alcanzar la réplica de destino se contabilizarán como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.rangenotfounderrtype.count**
(count) | Número de errores RangeNotFoundErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.readwithinuncertaintyintervalerrtype.count**
(count) | Número de errores ReadWithinUncertaintyIntervalErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.refreshfailederrtype.count**
(count) | Número de errores RefreshFailedErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.replicacorruptionerrtype.count**
(count) | Número de errores ReplicaCorruptionErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.replicatooolderrtype.count**
(count) | Número de errores ReplicaTooOldErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.storenotfounderrtype.count**
(count) | Número de errores StoreNotFoundErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.transactionabortederrtype.count**
(count) | Número de errores TransactionAbortedErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.transactionpusherrtype.count**
(count) | Número de errores TransactionPushErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.transactionretryerrtype.count**
(count) | Número de errores TransactionRetryErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.transactionretrywithprotorefresherrtype.count**
(count) | Número de errores TransactionRetryWithProtoRefreshErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.transactionstatuserrtype.count**
(count) | Número de errores TransactionStatusErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.txnalreadyencounterederrtype.count**
(count) | Número de errores TxnAlreadyEncounteredErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.unsupportedrequesterrtype.count**
(count) | Número de errores UnsupportedRequestErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.writeintenterrtype.count**
(count) | Número de errores WriteIntentErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.err.writetooolderrtype.count**
(count) | Número de errores WriteTooOldErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.|
+| **cockroachdb.distsender.rpc.export.sent.count**
(count) | Número de solicitudes Export procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.gc.sent.count**
(count) | Número de solicitudes GC procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.get.sent.count**
(count) | Número de solicitudes Get procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.heartbeattxn.sent.count**
(count) | Número de solicitudes HeartbeatTxn procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.increment.sent.count**
(count) | Número de solicitudes Increment procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.initput.sent.count**
(count) | Número de solicitudes InitPut procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.isspanempty.sent.count**
(count) | Número de solicitudes IsSpanEmpty procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.leaseinfo.sent.count**
(count) | Número de solicitudes LeaseInfo procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.merge.sent.count**
(count) | Número de solicitudes Merge procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.migrate.sent.count**
(count) | Número de solicitudes Migrate procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.probe.sent.count**
(count) | Número de solicitudes Probe procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.pushtxn.sent.count**
(count) | Número de solicitudes PushTxn procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.put.sent.count**
(count) | Número de solicitudes Put procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.queryintent.sent.count**
(count) | Número de solicitudes QueryIntent procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.querylocks.sent.count**
(count) | Número de solicitudes QueryLocks procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.queryresolvedtimestamp.sent.count**
(count) | Número de solicitudes QueryResolvedTimestamp procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.querytxn.sent.count**
(count) | Número de solicitudes QueryTxn procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.rangestats.sent.count**
(count) | Número de solicitudes RangeStats procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.recomputestats.sent.count**
(count) | Número de solicitudes RecomputeStats procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.recovertxn.sent.count**
(count) | Número de solicitudes RecoverTxn procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.refresh.sent.count**
(count) | Número de solicitudes Refresh procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.refreshrange.sent.count**
(count) | Número de solicitudes RefreshRange procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.requestlease.sent.count**
(count) | Número de solicitudes RequestLease procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.resolveintent.sent.count**
(count) | Número de solicitudes ResolveIntent procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.resolveintentrange.sent.count**
(count) | Número de solicitudes ResolveIntentRange procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.reversescan.sent.count**
(count) | Número de solicitudes ReverseScan procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.revertrange.sent.count**
(count) | Número de solicitudes RevertRange procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.scan.sent.count**
(count) | Número de solicitudes Scan procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.sent.count**
(count) | Número de RPC dirigidas por réplicas enviadas|
+| **cockroachdb.distsender.rpc.sent.local**
(count) | \[OpenMetrics v1\] Número de RPC locales enviadas|
+| **cockroachdb.distsender.rpc.sent.local.count**
(count) | \[OpenMetrics v2\] Número de RPC locales enviadas|
+| **cockroachdb.distsender.rpc.sent.nextreplicaerror**
(count) | \[OpenMetrics v1\] Número de RPC enviadas debido a errores por réplica
_Se muestra como error_ |
+| **cockroachdb.distsender.rpc.sent.nextreplicaerror.count**
(count) | \[OpenMetrics v2\] Número de RPC enviadas debido a errores por réplica
_Se muestra como error_ |
+| **cockroachdb.distsender.rpc.sent.total**
(count) | \[OpenMetrics v1\] Número de RPC enviadas|
+| **cockroachdb.distsender.rpc.sent.total.count**
(count) | \[OpenMetrics v2\] Número de RPC dirigidas por réplicas enviadas|
+| **cockroachdb.distsender.rpc.subsume.sent.count**
(count) | Número de solicitudes Subsume procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.transferlease.sent.count**
(count) | Número de solicitudes TransferLease procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.truncatelog.sent.count**
(count) | Número de solicitudes TruncateLog procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.distsender.rpc.writebatch.sent.count**
(count) | Número de solicitudes WriteBatch procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.|
+| **cockroachdb.exec.error**
(count) | \[OpenMetrics v1\] Número de solicitudes KV por lotes que no se pudieron ejecutar en este nodo. Estas advertencias indican una limpieza en lugar de errores, y pueden ignorarse como parte de la operación.
_Se muestra como solicitud_ |
+| **cockroachdb.exec.error.count**
(count) | \[OpenMetrics v2\] Número de solicitudes KV por lotes que no se pudieron ejecutar en este nodo. Estas advertencias indican una limpieza en lugar de errores, y pueden ignorarse como parte de la operación.
_Se muestra como solicitud_ |
+| **cockroachdb.exec.latency**
(gauge) | \[OpenMetrics v1\] Latencia en nanosegundos de las solicitudes KV por lotes ejecutadas en este nodo
_Se muestra como nanosegundo_ |
+| **cockroachdb.exec.latency.bucket**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de las solicitudes KV por lotes ejecutadas en este nodo
_Se muestra como nanosegundo_ |
+| **cockroachdb.exec.latency.count**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de las solicitudes KV por lotes ejecutadas en este nodo
_Se muestra como nanosegundo_ |
+| **cockroachdb.exec.latency.sum**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de las solicitudes KV por lotes ejecutadas en este nodo
_Se muestra como nanosegundo_ |
+| **cockroachdb.exec.success**
(count) | \[OpenMetrics v1\] Número de solicitudes KV por lotes ejecutadas con éxito en este nodo
_Se muestra como solicitud_ |
+| **cockroachdb.exec.success.count**
(count) | \[OpenMetrics v2\] Número de solicitudes KV por lotes ejecutadas con éxito en este nodo
_Se muestra como solicitud_ |
+| **cockroachdb.exportrequest.delay.count**
(count) | Número de solicitudes Export retrasadas debido a solicitudes concurrentes|
+| **cockroachdb.follower_reads.success_count.count**
(count) | Número de lecturas de seguidores exitosas|
+| **cockroachdb.gcbytesage**
(gauge) | \[OpenMetrics v1 y v2\] Antigüedad acumulada de los datos no activos en segundos
_Se muestra como segundo_ |
+| **cockroachdb.gossip.bytes.received**
(count) | \[OpenMetrics v1\] Número de bytes gossip recibidos
_Se muestra como byte_ |
+| **cockroachdb.gossip.bytes.received.count**
(count) | \[OpenMetrics v2\] Número de bytes gossip recibidos
_Se muestra como byte_ |
+| **cockroachdb.gossip.bytes.sent**
(count) | \[OpenMetrics v1\] Número de bytes gossip enviados
_Se muestra como byte_ |
+| **cockroachdb.gossip.bytes.sent.count**
(count) | \[OpenMetrics v2\] Número de bytes gossip enviados
_Se muestra como byte_ |
+| **cockroachdb.gossip.connections.incoming**
(gauge) | \[OpenMetrics v1 y v2\] Número de conexiones gossip entrantes activas
_Se muestra como conexión_ |
+| **cockroachdb.gossip.connections.outgoing**
(gauge) | \[OpenMetrics v1 y v2\] Número de conexiones gossip salientes activas
_Se muestra como conexión_ |
+| **cockroachdb.gossip.connections.refused**
(count) | \[OpenMetrics v1\] Número de conexiones gossip entrantes rechazadas
_Se muestra como conexión_ |
+| **cockroachdb.gossip.connections.refused.count**
(count) | \[OpenMetrics v2\] Número de conexiones gossip entrantes rechazadas
_Se muestra como conexión_ |
+| **cockroachdb.gossip.infos.received**
(count) | \[OpenMetrics v1\] Número de objetos de información gossip recibidos|
+| **cockroachdb.gossip.infos.received.count**
(count) | \[OpenMetrics v2\] Número de objetos de información gossip recibidos|
+| **cockroachdb.gossip.infos.sent**
(count) | \[OpenMetrics v1\] Número de objetos de información gossip enviados|
+| **cockroachdb.gossip.infos.sent.count**
(count) | \[OpenMetrics v2\] Número de objetos de información gossip enviados|
+| **cockroachdb.intentage**
(gauge) | \[OpenMetrics v1 y v2\] Antigüedad acumulada de intenciones en segundos
_Se muestra como segundo_ |
+| **cockroachdb.intentbytes**
(gauge) | \[OpenMetrics v1 y v2\] Número de bytes en pares KV de intenciones
_Se muestra como byte_ |
+| **cockroachdb.intentcount**
(gauge) | \[OpenMetrics v1 y v2\] Recuento de claves de intención
_Se muestra como clave_ |
+| **cockroachdb.intentresolver.async.throttled**
(count) | Número de intentos de resolución de intenciones no ejecutados de forma asíncrona debido a limitaciones|
+| **cockroachdb.intentresolver.async.throttled.count**
(count) | Número de intentos de resolución de intenciones no ejecutados de forma asíncrona debido a limitaciones|
+| **cockroachdb.intentresolver.finalized_txns.failed**
(count) | Número de fallos de limpieza de transacciones finalizadas. La limpieza de transacciones se refiere al proceso de resolución de todas las intenciones de una transacción y luego de recolección de su registro de transacciones.|
+| **cockroachdb.intentresolver.finalized_txns.failed.count**
(count) | Número de fallos de limpieza de transacciones finalizadas. La limpieza de transacciones se refiere al proceso de resolución de todas las intenciones de una transacción y luego de recolección de su registro de transacciones.|
+| **cockroachdb.intentresolver.intents.failed**
(count) | Número de fallos en la resolución de intenciones. La unidad de medida es una sola intención, por lo que si falla un lote de solicitudes de resolución de intenciones, la métrica se incrementará por cada solicitud del lote.|
+| **cockroachdb.intentresolver.intents.failed.count**
(count) | Número de fallos en la resolución de intenciones. La unidad de medida es una sola intención, por lo que si falla un lote de solicitudes de resolución de intenciones, la métrica se incrementará por cada solicitud del lote.|
+| **cockroachdb.intents.abort_attempts**
(count) | Recuento de intentos de evaluación de intenciones de cancelación de no envenenamiento (punto o rango)|
+| **cockroachdb.intents.abort_attempts.count**
(count) | Recuento de intentos de evaluación de intenciones de cancelación de no envenenamiento (punto o rango)|
+| **cockroachdb.intents.poison_attempts**
(count) | Recuento de intentos de evaluación de intenciones de cancelación de envenenamiento (punto o rango)|
+| **cockroachdb.intents.poison_attempts.count**
(count) | Recuento de intentos de evaluación de intenciones de cancelación de envenenamiento (punto o rango)|
+| **cockroachdb.intents.resolve_attempts**
(count) | Recuento de intentos de evaluación de confirmaciones de intenciones (punto o rango)|
+| **cockroachdb.intents.resolve_attempts.count**
(count) | Recuento de intentos de evaluación de confirmaciones de intenciones (punto o rango)|
+| **cockroachdb.jobs.adopt_iterations.count**
(count) | Número de iteraciones de adopción de trabajos realizadas por el registro|
+| **cockroachdb.jobs.auto.create.stats.currently_paused**
(gauge) | Número de trabajos de auto_create_stats actualmente considerados como pausados|
+| **cockroachdb.jobs.auto.create.stats.currently_running**
(gauge) | Número de trabajos de auto_create_stats que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.auto.create.stats.resume_failed.count**
(count) | Número de trabajos de auto_create_stats que fallaron con un error no reintentable|
+| **cockroachdb.jobs.auto_config_env_runner.currently_idle**
(gauge) | Número de trabajos de auto_config_env_runner actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.auto_config_env_runner.currently_paused**
(gauge) | Número de trabajos de auto_config_env_runner actualmente considerados como pausados|
+| **cockroachdb.jobs.auto_config_env_runner.currently_running**
(gauge) | Número de trabajos de auto_config_env_runner que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.auto_config_env_runner.expired_pts_records.count**
(count) | Número de registros timestamp protegidos caducados que son propiedad de trabajos de auto_config_env_runner|
+| **cockroachdb.jobs.auto_config_env_runner.fail_or_cancel_completed.count**
(count) | Número de trabajos de auto_config_env_runner que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_config_env_runner.fail_or_cancel_failed.count**
(count) | Número de trabajos de auto_config_env_runner que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_config_env_runner.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de auto_config_env_runner que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_config_env_runner.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de auto_config_env_runner
_Se muestra como segundo_ |
+| **cockroachdb.jobs.auto_config_env_runner.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos por trabajos de auto_config_env_runner|
+| **cockroachdb.jobs.auto_config_env_runner.resume_completed.count**
(count) | Número de trabajos de auto_config_env_runner reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.auto_config_env_runner.resume_failed.count**
(count) | Número de trabajos de auto_config_env_runner que fallaron con un error no reintentable|
+| **cockroachdb.jobs.auto_config_env_runner.resume_retry_error.count**
(count) | Número de trabajos de auto_config_env_runner que fallaron con un error reintentable|
+| **cockroachdb.jobs.auto_config_runner.currently_idle**
(gauge) | Número de trabajos de auto_config_runner actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.auto_config_runner.currently_paused**
(gauge) | Número de trabajos de auto_config_runner actualmente considerados como pausados|
+| **cockroachdb.jobs.auto_config_runner.currently_running**
(gauge) | Número de trabajos de auto_config_runner que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.auto_config_runner.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que pertenecen a trabajos de auto_config_runner|
+| **cockroachdb.jobs.auto_config_runner.fail_or_cancel_completed.count**
(count) | Número de trabajos de auto_config_runner que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_config_runner.fail_or_cancel_failed.count**
(count) | Número de trabajos de auto_config_runner que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_config_runner.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de auto_config_runner que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_config_runner.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de auto_config_runner
_Se muestra como segundo_ |
+| **cockroachdb.jobs.auto_config_runner.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos por trabajos de auto_config_runner|
+| **cockroachdb.jobs.auto_config_runner.resume_completed.count**
(count) | Número de trabajos de auto_config_runner reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.auto_config_runner.resume_failed.count**
(count) | Número de trabajos de auto_config_runner que fallaron con un error no reintentable|
+| **cockroachdb.jobs.auto_config_runner.resume_retry_error.count**
(count) | Número de trabajos de auto_config_runner que fallaron con un error reintentable|
+| **cockroachdb.jobs.auto_config_task.currently_idle**
(gauge) | Número de trabajos de auto_config_task actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.auto_config_task.currently_paused**
(gauge) | Número de trabajos de auto_config_task actualmente considerados como pausados|
+| **cockroachdb.jobs.auto_config_task.currently_running**
(gauge) | Número de trabajos de auto_config_task que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.auto_config_task.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de auto_config_task|
+| **cockroachdb.jobs.auto_config_task.fail_or_cancel_completed.count**
(count) | Número de trabajos de auto_config_task que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_config_task.fail_or_cancel_failed.count**
(count) | Número de trabajos de auto_config_task que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_config_task.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de auto_config_task que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_config_task.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de auto_config_task
_Se muestra como segundo_ |
+| **cockroachdb.jobs.auto_config_task.protected_record_count**
(gauge) | Número de registros de fecha y hora mantenidos por trabajos de auto_config_task|
+| **cockroachdb.jobs.auto_config_task.resume_completed.count**
(count) | Número de trabajos de auto_config_task reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.auto_config_task.resume_failed.count**
(count) | Número de trabajos de auto_config_task que fallaron con un error no reintentable|
+| **cockroachdb.jobs.auto_config_task.resume_retry_error.count**
(count) | Número de trabajos de auto_config_task que fallaron con un error reintentable|
+| **cockroachdb.jobs.auto_create_stats.currently_idle**
(gauge) | Número de trabajos de auto_create_stats actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.auto_create_stats.currently_paused**
(gauge) | Número de trabajos de auto_create_stats actualmente considerados como pausados|
+| **cockroachdb.jobs.auto_create_stats.currently_running**
(gauge) | Número de trabajos de auto_create_stats que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.auto_create_stats.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de auto_config_stats|
+| **cockroachdb.jobs.auto_create_stats.fail_or_cancel_completed.count**
(count) | Número de trabajos de auto_create_stats que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_create_stats.fail_or_cancel_failed.count**
(count) | Número de trabajos de auto_create_stats que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_create_stats.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de auto_create_stats que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_create_stats.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de auto_create_stats
_Se muestra como segundo_ |
+| **cockroachdb.jobs.auto_create_stats.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de auto_create_stats|
+| **cockroachdb.jobs.auto_create_stats.resume_completed.count**
(count) | Número de trabajos de auto_create_stats reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.auto_create_stats.resume_failed.count**
(count) | Número de trabajos de auto_create_stats que fallaron con un error no reintentable|
+| **cockroachdb.jobs.auto_create_stats.resume_retry_error.count**
(count) | Número de trabajos de auto_create_stats que fallaron con un error reintentable|
+| **cockroachdb.jobs.auto_schema_telemetry.currently_idle**
(gauge) | Número de trabajos de auto_schema_telemetry actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.auto_schema_telemetry.currently_paused**
(gauge) | Número de trabajos de auto_schema_telemetry actualmente considerados como pausados|
+| **cockroachdb.jobs.auto_schema_telemetry.currently_running**
(gauge) | Número de trabajos de auto_schema_telemetry que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.auto_schema_telemetry.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de auto_schema_telemetry|
+| **cockroachdb.jobs.auto_schema_telemetry.fail_or_cancel_completed.count**
(count) | Número de trabajos de auto_schema_telemetry que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_schema_telemetry.fail_or_cancel_failed.count**
(count) | Número de trabajos de auto_schema_telemetry que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_schema_telemetry.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de auto_schema_telemetry que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_schema_telemetry.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de auto_schema_telemetry
_Se muestra como segundo_ |
+| **cockroachdb.jobs.auto_schema_telemetry.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de auto_schema_telemetry|
+| **cockroachdb.jobs.auto_schema_telemetry.resume_completed.count**
(count) | Número de trabajos de auto_schema_telemetry reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.auto_schema_telemetry.resume_failed.count**
(count) | Número de trabajos de auto_schema_telemetry que fallaron con un error no reintentable|
+| **cockroachdb.jobs.auto_schema_telemetry.resume_retry_error.count**
(count) | Número de trabajos de auto_schema_telemetry que fallaron con un error reintentable|
+| **cockroachdb.jobs.auto_span_config_reconciliation.currently_idle**
(gauge) | Número de trabajos de auto_span_config_reconciliation actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.auto_span_config_reconciliation.currently_paused**
(gauge) | Número de trabajos de auto_span_config_reconciliation actualmente considerados como pausados|
+| **cockroachdb.jobs.auto_span_config_reconciliation.currently_running**
(gauge) | Número de trabajos de auto_span_config_reconciliation que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.auto_span_config_reconciliation.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de auto_span_config_reconciliation|
+| **cockroachdb.jobs.auto_span_config_reconciliation.fail_or_cancel_completed.count**
(count) | Número de trabajos de auto_span_config_reconciliation que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_span_config_reconciliation.fail_or_cancel_failed.count**
(count) | Número de trabajos de auto_span_config_reconciliation que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_span_config_reconciliation.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de auto_span_config_reconciliation que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_span_config_reconciliation.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de auto_span_config_reconciliation
_Se muestra como segundo_ |
+| **cockroachdb.jobs.auto_span_config_reconciliation.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos caducados mantenidos por trabajos de auto_span_config_reconciliation|
+| **cockroachdb.jobs.auto_span_config_reconciliation.resume_completed.count**
(count) | Número de trabajos de auto_span_config_reconciliation reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.auto_span_config_reconciliation.resume_failed.count**
(count) | Número de trabajos de auto_span_config_reconciliation que fallaron con un error no reintentable|
+| **cockroachdb.jobs.auto_span_config_reconciliation.resume_retry_error.count**
(count) | Número de trabajos de auto_span_config_reconciliation que fallaron con un error reintentable|
+| **cockroachdb.jobs.auto_sql_stats_compaction.currently_idle**
(gauge) | Número de trabajos de auto_sql_stats_compaction actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.auto_sql_stats_compaction.currently_paused**
(gauge) | Número de trabajos de auto_sql_stats_compaction actualmente considerados como pausados|
+| **cockroachdb.jobs.auto_sql_stats_compaction.currently_running**
(gauge) | Número de trabajos de auto_sql_stats_compaction que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.auto_sql_stats_compaction.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de auto_sql_stats_compaction|
+| **cockroachdb.jobs.auto_sql_stats_compaction.fail_or_cancel_completed.count**
(count) | Número de trabajos de auto_sql_stats_compaction que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_sql_stats_compaction.fail_or_cancel_failed.count**
(count) | Número de trabajos de auto_sql_stats_compaction que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_sql_stats_compaction.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de auto_sql_stats_compaction que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_sql_stats_compaction.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de auto_sql_stats_compaction
_Se muestra como segundo_ |
+| **cockroachdb.jobs.auto_sql_stats_compaction.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de auto_sql_stats_compaction|
+| **cockroachdb.jobs.auto_sql_stats_compaction.resume_completed.count**
(count) | Número de trabajos de auto_sql_stats_compaction reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.auto_sql_stats_compaction.resume_failed.count**
(count) | Número de trabajos de auto_sql_stats_compaction que fallaron con un error no reintentable|
+| **cockroachdb.jobs.auto_sql_stats_compaction.resume_retry_error.count**
(count) | Número de trabajos de auto_sql_stats_compaction que fallaron con un error reintentable|
+| **cockroachdb.jobs.auto_update_sql_activity.currently_idle**
(gauge) | Número de trabajos de auto_update_sql_activity actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.auto_update_sql_activity.currently_paused**
(gauge) | Número de trabajos de auto_update_sql_activity actualmente considerados como pausados|
+| **cockroachdb.jobs.auto_update_sql_activity.currently_running**
(gauge) | Número de trabajos de auto_update_sql_activity que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.auto_update_sql_activity.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de auto_update_sql_activity|
+| **cockroachdb.jobs.auto_update_sql_activity.fail_or_cancel_completed.count**
(count) | Número de trabajos de auto_update_sql_activity que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_update_sql_activity.fail_or_cancel_failed.count**
(count) | Número de trabajos de auto_update_sql_activity que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_update_sql_activity.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de auto_update_sql_activity que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.auto_update_sql_activity.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de auto_update_sql_activity
_Se muestra como segundo_ |
+| **cockroachdb.jobs.auto_update_sql_activity.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de auto_update_sql_activity|
+| **cockroachdb.jobs.auto_update_sql_activity.resume_completed.count**
(count) | Número de trabajos de auto_update_sql_activity reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.auto_update_sql_activity.resume_failed.count**
(count) | Número de trabajos de auto_update_sql_activity que fallaron con un error no reintentable|
+| **cockroachdb.jobs.auto_update_sql_activity.resume_retry_error.count**
(count) | Número de trabajos de auto_update_sql_activity que fallaron con un error reintentable|
+| **cockroachdb.jobs.backup.currently_idle**
(gauge) | \[OpenMetrics v1 y v2\] Número de trabajos de copia de seguridad actualmente considerados como inactivos y que pueden cerrarse libremente
_Se muestra como trabajo_ |
+| **cockroachdb.jobs.backup.currently_paused**
(gauge) | Número de trabajos de copia de seguridad actualmente considerados como pausados|
+| **cockroachdb.jobs.backup.currently_running**
(gauge) | \[OpenMetrics v1 y v2\] Número de trabajos de copia de seguridad que se están ejecutando actualmente en estado Resume u OnFailOrCancel
_Se muestra como trabajo_ |
+| **cockroachdb.jobs.backup.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de copia de seguridad|
+| **cockroachdb.jobs.backup.fail_or_cancel_completed.count**
(count) | Número de trabajos de copia de seguridad que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.backup.fail_or_cancel_failed**
(count) | \[OpenMetrics v1\] Número de trabajos de copia de seguridad que fallaron con un error no reintentable en su proceso de fallo o cancelación
_Se muestra como trabajo_ |
+| **cockroachdb.jobs.backup.fail_or_cancel_failed.count**
(count) | \[OpenMetrics v2\] Número de trabajos de copia de seguridad que fallaron con un error no reintentable en su proceso de fallo o cancelación
_Se muestra como trabajo_ |
+| **cockroachdb.jobs.backup.fail_or_cancel_retry_error**
(count) | \[OpenMetrics v1\] Número de trabajos de copia de seguridad que fallaron con un error reintentable en su proceso de fallo o cancelación
_Se muestra como trabajo_ |
+| **cockroachdb.jobs.backup.fail_or_cancel_retry_error.count**
(count) | \[OpenMetrics v2\] Número de trabajos de copia de seguridad que fallaron con un error reintentable en su proceso de fallo o cancelación
_Se muestra como trabajo_ |
+| **cockroachdb.jobs.backup.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de copia de seguridad
_Se muestra como segundo_ |
+| **cockroachdb.jobs.backup.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de copia de seguridad|
+| **cockroachdb.jobs.backup.resume_completed.count**
(count) | Número de trabajos de copia de seguridad reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.backup.resume_failed**
(count) | \[OpenMetrics v1\] Número de trabajos de copia de seguridad que fallaron con un error no reintentable
_Se muestra como trabajo_ |
+| **cockroachdb.jobs.backup.resume_failed.count**
(count) | \[OpenMetrics v2\] Número de trabajos de copia de seguridad que fallaron con un error no reintentable
_Se muestra como trabajo_ |
+| **cockroachdb.jobs.backup.resume_retry_error**
(count) | \[OpenMetrics v1\] Número de trabajos de copia de seguridad que fallaron con un error reintentable
_Se muestra como trabajo_ |
+| **cockroachdb.jobs.backup.resume_retry_error.count**
(count) | \[OpenMetrics v2\] Número de trabajos de copia de seguridad que fallaron con un error reintentable
_Se muestra como trabajo_ |
+| **cockroachdb.jobs.changefeed.currently_idle**
(gauge) | Número de trabajos de changefeeds actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.changefeed.currently_paused**
(gauge) | Número de trabajos de changefeeds actualmente considerados como pausados|
+| **cockroachdb.jobs.changefeed.currently_running**
(gauge) | Número de trabajos de changefeeds que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.changefeed.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de changefeeds|
+| **cockroachdb.jobs.changefeed.fail_or_cancel_completed.count**
(count) | Número de trabajos de changefeeds que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.changefeed.fail_or_cancel_failed.count**
(count) | Número de trabajos de changefeeds que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.changefeed.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de changefeeds que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.changefeed.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de changefeeds
_Se muestra como segundo_ |
+| **cockroachdb.jobs.changefeed.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de changefeeds|
+| **cockroachdb.jobs.changefeed.resume.retry.error**
(count) | \[OpenMetrics v1\] Número de trabajos de changefeeds que fallaron con un error reintentable|
+| **cockroachdb.jobs.changefeed.resume.retry.error.count**
(count) | \[OpenMetrics v2\] Número de trabajos de changefeeds que fallaron con un error reintentable|
+| **cockroachdb.jobs.changefeed.resume_completed.count**
(count) | Número de trabajos de fuentes de changefeeds reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.changefeed.resume_failed.count**
(count) | Número de trabajos de changefeeds que fallaron con un error no reintentable|
+| **cockroachdb.jobs.changefeed.resume_retry_error.count**
(count) | Número de trabajos de changefeeds que fallaron con un error reintentable|
+| **cockroachdb.jobs.claimed_jobs.count**
(count) | Número de trabajos reclamados en iteraciones de adopción de trabajos|
+| **cockroachdb.jobs.create.stats.currently_running**
(gauge) | Número de trabajos de create_stats que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.create_stats.currently_idle**
(gauge) | Número de trabajos de create_stats actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.create_stats.currently_paused**
(gauge) | Número de trabajos de create_stats actualmente considerados como pausados|
+| **cockroachdb.jobs.create_stats.currently_running**
(gauge) | Número de trabajos de create_stats que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.create_stats.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de create_stats jobs|
+| **cockroachdb.jobs.create_stats.fail_or_cancel_completed.count**
(count) | Número de trabajos de create_stats que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.create_stats.fail_or_cancel_failed.count**
(count) | Número de trabajos de create_stats que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.create_stats.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de create_stats que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.create_stats.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de create_stats jobs
_Se muestra como segundo_ |
+| **cockroachdb.jobs.create_stats.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de create_stats jobs|
+| **cockroachdb.jobs.create_stats.resume_completed.count**
(count) | Número de trabajos de create_stats reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.create_stats.resume_failed.count**
(count) | Número de trabajos de create_stats jobs que fallaron con un error no reintentable|
+| **cockroachdb.jobs.create_stats.resume_retry_error.count**
(count) | Número de trabajos de create_stats jobs que fallaron con un error reintentable|
+| **cockroachdb.jobs.import.currently_idle**
(gauge) | Número de trabajos de importación actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.import.currently_paused**
(gauge) | Número de trabajos de importación actualmente considerados como pausados|
+| **cockroachdb.jobs.import.currently_running**
(gauge) | Número de trabajos de importación que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.import.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de importación|
+| **cockroachdb.jobs.import.fail_or_cancel_completed.count**
(count) | Número de trabajos de importación que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.import.fail_or_cancel_failed.count**
(count) | Número de trabajos de importación que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.import.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de importación que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.import.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de importación
_Se muestra como segundo_ |
+| **cockroachdb.jobs.import.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de importación|
+| **cockroachdb.jobs.import.resume_completed.count**
(count) | Número de trabajos de importación reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.import.resume_failed.count**
(count) | Número de trabajos de importación que fallaron con un error no reintentable|
+| **cockroachdb.jobs.import.resume_retry_error.count**
(count) | Número de trabajos de importación que fallaron con un error reintentable|
+| **cockroachdb.jobs.key_visualizer.currently_idle**
(gauge) | Número de trabajos de key_visualizer actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.key_visualizer.currently_paused**
(gauge) | Número de trabajos de key_visualizer actualmente considerados como pausados|
+| **cockroachdb.jobs.key_visualizer.currently_running**
(gauge) | Número de trabajos de key_visualizer que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.key_visualizer.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de key_visualizer|
+| **cockroachdb.jobs.key_visualizer.fail_or_cancel_completed.count**
(count) | Número de trabajos de key_visualizer que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.key_visualizer.fail_or_cancel_failed.count**
(count) | Número de trabajos de key_visualizer que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.key_visualizer.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de key_visualizer que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.key_visualizer.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de key_visualizer
_Se muestra como segundo_ |
+| **cockroachdb.jobs.key_visualizer.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de key_visualizer|
+| **cockroachdb.jobs.key_visualizer.resume_completed.count**
(count) | Número de trabajos de key_visualizer reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.key_visualizer.resume_failed.count**
(count) | Número de trabajos de key_visualizer que fallaron con un error no reintentable|
+| **cockroachdb.jobs.key_visualizer.resume_retry_error.count**
(count) | Número de trabajos de key_visualizer que fallaron con un error reintentable|
+| **cockroachdb.jobs.metrics.task_failed.count**
(count) | Número de tareas del actualizador de actividades sql de métricas que fallaron|
+| **cockroachdb.jobs.migration.currently_idle**
(gauge) | Número de trabajos de migración actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.migration.currently_paused**
(indicador) | Número de trabajos de migración actualmente considerados como pausados|
+| **cockroachdb.jobs.migration.currently_running**
(gauge) | Número de trabajos de migración que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.migration.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de migración|
+| **cockroachdb.jobs.migration.fail_or_cancel_completed.count**
(count) | Número de trabajos de migración que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.migration.fail_or_cancel_failed.count**
(count) | Número de trabajos de migración que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.migration.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de migración que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.migration.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de migración
_Se muestra como segundo_ |
+| **cockroachdb.jobs.migration.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de migración|
+| **cockroachdb.jobs.migration.resume_completed.count**
(count) | Número de trabajos de migración reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.migration.resume_failed.count**
(count) | Número de trabajos de migración que fallaron con un error no reintentable|
+| **cockroachdb.jobs.migration.resume_retry_error.count**
(count) | Número de trabajos de migración que fallaron con un error reintentable|
+| **cockroachdb.jobs.mvcc_statistics_update.currently_idle**
(gauge) | Número de trabajos de mvcc_statistics_update actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.mvcc_statistics_update.currently_paused**
(gauge) | Número de trabajos mvcc_statistics_update actualmente considerados como pausados|
+| **cockroachdb.jobs.mvcc_statistics_update.currently_running**
(gauge) | Número de trabajos de mvcc_statistics_update que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.mvcc_statistics_update.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de mvcc_statistics_update|
+| **cockroachdb.jobs.mvcc_statistics_update.fail_or_cancel_completed.count**
(count) | Número de trabajos de mvcc_statistics_update que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.mvcc_statistics_update.fail_or_cancel_failed.count**
(count) | Número de trabajos de mvcc_statistics_update que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.mvcc_statistics_update.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de mvcc_statistics_update que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.mvcc_statistics_update.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de mvcc_statistics_update
_Se muestra como segundo_ |
+| **cockroachdb.jobs.mvcc_statistics_update.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de mvcc_statistics_update|
+| **cockroachdb.jobs.mvcc_statistics_update.resume_completed.count**
(count) | Número de trabajos de mvcc_statistics_update reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.mvcc_statistics_update.resume_failed.count**
(count) | Número de trabajos de mvcc_statistics_update que fallaron con un error no reintentable|
+| **cockroachdb.jobs.mvcc_statistics_update.resume_retry_error.count**
(count) | Número de trabajos de mvcc_statistics_update que fallaron con un error reintentable|
+| **cockroachdb.jobs.new_schema_change.currently_idle**
(gauge) | Número de trabajos de new_schema_change actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.new_schema_change.currently_paused**
(gauge) | Número de trabajos de new_schema_change actualmente considerados como pausados|
+| **cockroachdb.jobs.new_schema_change.currently_running**
(gauge) | Número de trabajos de new_schema_change que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.new_schema_change.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de new_schema_change|
+| **cockroachdb.jobs.new_schema_change.fail_or_cancel_completed.count**
(count) | Número de trabajos de new_schema_change que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.new_schema_change.fail_or_cancel_failed.count**
(count) | Número de trabajos de new_schema_change que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.new_schema_change.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de new_schema_change que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.new_schema_change.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de new_schema_change
_Se muestra como segundo_ |
+| **cockroachdb.jobs.new_schema_change.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de new_schema_change|
+| **cockroachdb.jobs.new_schema_change.resume_completed.count**
(count) | Número de trabajos de new_schema_change reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.new_schema_change.resume_failed.count**
(count) | Número de trabajos de new_schema_change que fallaron con un error no reintentable|
+| **cockroachdb.jobs.new_schema_change.resume_retry_error.count**
(count) | Número de trabajos de new_schema_change que fallaron con un error reintentable|
+| **cockroachdb.jobs.poll_jobs_stats.currently_idle**
(gauge) | Número de trabajos de poll_jobs_stats actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.poll_jobs_stats.currently_paused**
(gauge) | Número de trabajos de poll_jobs_stats actualmente considerados como pausados|
+| **cockroachdb.jobs.poll_jobs_stats.currently_running**
(gauge) | Número de trabajos de poll_jobs_stats que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.poll_jobs_stats.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de poll_jobs_stats|
+| **cockroachdb.jobs.poll_jobs_stats.fail_or_cancel_completed.count**
(count) | Número de trabajos de poll_jobs_stats que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.poll_jobs_stats.fail_or_cancel_failed.count**
(count) | Número de trabajos de poll_jobs_stats que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.poll_jobs_stats.fail_or_cancel_retry_error.count**
(count) | Número de trabajos poll_jobs_stats que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.poll_jobs_stats.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de poll_jobs_stats
_Se muestra como segundo_ |
+| **cockroachdb.jobs.poll_jobs_stats.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de poll_jobs_stats|
+| **cockroachdb.jobs.poll_jobs_stats.resume_completed.count**
(count) | Número de trabajos de poll_jobs_stats reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.poll_jobs_stats.resume_failed.count**
(count) | Número de trabajos de poll_jobs_stats que fallaron con un error no reintentable|
+| **cockroachdb.jobs.poll_jobs_stats.resume_retry_error.count**
(count) | Número de trabajos de poll_jobs_stats que fallaron con un error reintentable|
+| **cockroachdb.jobs.replication_stream_ingestion.currently_idle**
(gauge) | Número de trabajos de replication_stream_ingestion actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.replication_stream_ingestion.currently_paused**
(gauge) | Número de trabajos de replication_stream_ingestion actualmente considerados como pausados|
+| **cockroachdb.jobs.replication_stream_ingestion.currently_running**
(gauge) | Número de trabajos de replication_stream_ingestion que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.replication_stream_ingestion.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de replication_stream_ingestion|
+| **cockroachdb.jobs.replication_stream_ingestion.fail_or_cancel_completed.count**
(count) | Número de trabajos de replication_stream_ingestion que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.replication_stream_ingestion.fail_or_cancel_failed.count**
(count) | Número de trabajos de replication_stream_ingestion que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.replication_stream_ingestion.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de replication_stream_ingestion que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.replication_stream_ingestion.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de replication_stream_ingestion
_Se muestra como segundo_ |
+| **cockroachdb.jobs.replication_stream_ingestion.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de replication_stream_ingestion|
+| **cockroachdb.jobs.replication_stream_ingestion.resume_completed.count**
(count) | Número de trabajos de replication_stream_ingestion reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.replication_stream_ingestion.resume_failed.count**
(count) | Número de trabajos de replication_stream_ingestion que fallaron con un error no reintentable|
+| **cockroachdb.jobs.replication_stream_ingestion.resume_retry_error.count**
(count) | Número de trabajos de replication_stream_ingestion que fallaron con un error reintentable|
+| **cockroachdb.jobs.replication_stream_producer.currently_idle**
(gauge) | Número de trabajos de replication_stream_producer actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.replication_stream_producer.currently_paused**
(gauge) | Número de trabajos de replication_stream_producer actualmente considerados como pausados|
+| **cockroachdb.jobs.replication_stream_producer.currently_running**
(gauge) | Número de trabajos de replication_stream_producer que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.replication_stream_producer.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de replication_stream_producer|
+| **cockroachdb.jobs.replication_stream_producer.fail_or_cancel_completed.count**
(count) | Número de trabajos de replication_stream_producer que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.replication_stream_producer.fail_or_cancel_failed.count**
(count) | Número de trabajos de replication_stream_producer que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.replication_stream_producer.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de replication_stream_producer que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.replication_stream_producer.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de replication_stream_producer
_Se muestra como segundo_ |
+| **cockroachdb.jobs.replication_stream_producer.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de replication_stream_producer|
+| **cockroachdb.jobs.replication_stream_producer.resume_completed.count**
(count) | Número de trabajos de replication_stream_producer reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.replication_stream_producer.resume_failed.count**
(count) | Número de trabajos de replication_stream_producer que fallaron con un error no reintentable|
+| **cockroachdb.jobs.replication_stream_producer.resume_retry_error.count**
(count) | Número de trabajos de replication_stream_producer que fallaron con un error reintentable|
+| **cockroachdb.jobs.restore.currently_idle**
(gauge) | Número de trabajos de restauración actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.restore.currently_paused**
(gauge) | Número de trabajos de restauración actualmente considerados como pausados|
+| **cockroachdb.jobs.restore.currently_running**
(gauge) | Número de trabajos de restauración que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.restore.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de restauración|
+| **cockroachdb.jobs.restore.fail_or_cancel_completed.count**
(count) | Número de trabajos de restauración que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.restore.fail_or_cancel_failed.count**
(count) | Número de trabajos de restauración que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.restore.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de restauración que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.restore.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de restauración
_Se muestra como segundo_ |
+| **cockroachdb.jobs.restore.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de restauración|
+| **cockroachdb.jobs.restore.resume_completed.count**
(count) | Número de trabajos de restauración reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.restore.resume_failed.count**
(count) | Número de trabajos de restauración que fallaron con un error no reintentable|
+| **cockroachdb.jobs.restore.resume_retry_error.count**
(count) | Número de trabajos de restauración que fallaron con un error reintentable|
+| **cockroachdb.jobs.resumed_claimed_jobs.count**
(count) | Número de trabajos reclamados reanudados en iteraciones de adopción de trabajos|
+| **cockroachdb.jobs.row.level.ttl.currently_paused**
(gauge) | Número de trabajos de row_level_ttl actualmente considerados como pausados|
+| **cockroachdb.jobs.row.level.ttl.currently_running**
(gauge) | Número de trabajos de row_level_ttl que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.row.level.ttl.resume_completed.count**
(count) | Número de trabajos de row_level_ttl reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.row.level.ttl.resume_failed.count**
(count) | Número de trabajos de row_level_ttl que fallaron con un error no reintentable|
+| **cockroachdb.jobs.row.level.ttl.rows_deleted.count**
(count) | Número de filas eliminadas por el trabajo de row_level_ttl.|
+| **cockroachdb.jobs.row.level.ttl.rows_selected.count**
(count) | Número de filas seleccionadas para su eliminación por el trabajo de row_level_ttl.|
+| **cockroachdb.jobs.row_level_ttl.currently_idle**
(gauge) | Número de trabajos de row_level_ttl actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.row_level_ttl.currently_paused**
(gauge) | Número de trabajos de row_level_ttl actualmente considerados como pausados|
+| **cockroachdb.jobs.row_level_ttl.currently_running**
(gauge) | Número de trabajos de row_level_ttl que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.row_level_ttl.delete_duration.bucket**
(count) | Duración de las solicitudes de eliminación durante row_level_ttl.
_Se muestra como nanosegundo_ |
+| **cockroachdb.jobs.row_level_ttl.delete_duration.count**
(count) | Duración de las solicitudes de eliminación durante row_level_ttl.
_Se muestra como nanosegundo_ |
+| **cockroachdb.jobs.row_level_ttl.delete_duration.sum**
(count) | Duración de las solicitudes de eliminación durante row_level_ttl.
_Se muestra como nanosegundo_ |
+| **cockroachdb.jobs.row_level_ttl.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de row_level_ttl|
+| **cockroachdb.jobs.row_level_ttl.fail_or_cancel_completed.count**
(count) | Número de trabajos de row_level_ttl que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.row_level_ttl.fail_or_cancel_failed.count**
(count) | Número de trabajos de row_level_ttl que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.row_level_ttl.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de row_level_ttl que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.row_level_ttl.num_active_spans**
(gauge) | Número de tramos activos de los que el trabajo TTL está borrando.|
+| **cockroachdb.jobs.row_level_ttl.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de row_level_ttl
_Se muestra como segundo_ |
+| **cockroachdb.jobs.row_level_ttl.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de row_level_ttl|
+| **cockroachdb.jobs.row_level_ttl.resume_completed.count**
(count) | Número de trabajos de row_level_ttl reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.row_level_ttl.resume_failed.count**
(count) | Número de trabajos de row_level_ttl que fallaron con un error no reintentable|
+| **cockroachdb.jobs.row_level_ttl.resume_retry_error.count**
(count) | Número de trabajos de row_level_ttl que fallaron con un error reintentable|
+| **cockroachdb.jobs.row_level_ttl.rows_deleted.count**
(count) | Número de filas eliminadas por el trabajo de row_level_ttl.|
+| **cockroachdb.jobs.row_level_ttl.rows_selected.count**
(count) | Número de filas seleccionadas para su eliminación por el trabajo de row_level_ttl.|
+| **cockroachdb.jobs.row_level_ttl.select_duration.bucket**
(count) | Duración de las solicitudes de selección durante el row_level_ttl.
_Se muestra como nanosegundo_ |
+| **cockroachdb.jobs.row_level_ttl.select_duration.count**
(count) | Duración de las solicitudes de selección durante el row_level_ttl.
_Se muestra como nanosegundo_ |
+| **cockroachdb.jobs.row_level_ttl.select_duration.sum**
(count) | Duración de las solicitudes de selección durante el row_level_ttl.
_Se muestra como nanosegundo_ |
+| **cockroachdb.jobs.row_level_ttl.span_total_duration.bucket**
(count) | Duración del procesamiento de un tramo durante el row_level_ttl.
_Se muestra como nanosegundo_ |
+| **cockroachdb.jobs.row_level_ttl.span_total_duration.count**
(count) | Duración del procesamiento de un tramo durante el row_level_ttl.
_Se muestra como nanosegundo_ |
+| **cockroachdb.jobs.row_level_ttl.span_total_duration.sum**
(count) | Duración del procesamiento de un tramo durante el row_level_ttl.
_Se muestra como nanosegundo_ |
+| **cockroachdb.jobs.row_level_ttl.total_expired_rows**
(gauge) | Número aproximado de filas que hicieron caducar el TTL en la tabla TTL.|
+| **cockroachdb.jobs.row_level_ttl.total_rows**
(gauge) | Número aproximado de filas en la tabla TTL.|
+| **cockroachdb.jobs.running_non_idle**
(gauge) | Número de trabajos en ejecución que no están inactivos|
+| **cockroachdb.jobs.schema_change.currently_idle**
(gauge) | Número de trabajos de schema_change actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.schema_change.currently_paused**
(gauge) | Número de trabajos de schema_change actualmente considerados como pausados|
+| **cockroachdb.jobs.schema_change.currently_running**
(gauge) | Número de trabajos de schema_change que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.schema_change.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de schema_change|
+| **cockroachdb.jobs.schema_change.fail_or_cancel_completed.count**
(count) | Número de trabajos de schema_change que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.schema_change.fail_or_cancel_failed.count**
(count) | Número de trabajos de schema_change que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.schema_change.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de schema_change que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.schema_change.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de schema_change
_Se muestra como segundo_ |
+| **cockroachdb.jobs.schema_change.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de schema_change|
+| **cockroachdb.jobs.schema_change.resume_completed.count**
(count) | Número de trabajos de schema_change reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.schema_change.resume_failed.count**
(count) | Número de trabajos de schema_change que fallaron con un error no reintentable|
+| **cockroachdb.jobs.schema_change.resume_retry_error.count**
(count) | Número de trabajos de schema_change que fallaron con un error reintentable|
+| **cockroachdb.jobs.schema_change_gc.currently_idle**
(gauge) | Número de trabajos de schema_change_gc actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.schema_change_gc.currently_paused**
(gauge) | Número de trabajos de schema_change_gc actualmente considerados como pausados|
+| **cockroachdb.jobs.schema_change_gc.currently_running**
(gauge) | Número de trabajos de schema_change_gc que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.schema_change_gc.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de schema_change_gc|
+| **cockroachdb.jobs.schema_change_gc.fail_or_cancel_completed.count**
(count) | Número de trabajos de schema_change_gc que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.schema_change_gc.fail_or_cancel_failed.count**
(count) | Número de trabajos de schema_change_gc que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.schema_change_gc.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de schema_change_gc que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.schema_change_gc.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de schema_change_gc
_Se muestra como segundo_ |
+| **cockroachdb.jobs.schema_change_gc.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de schema_change_gc|
+| **cockroachdb.jobs.schema_change_gc.resume_completed.count**
(count) | Número de trabajos de schema_change_gc reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.schema_change_gc.resume_failed.count**
(count) | Número de trabajos de schema_change_gc que fallaron con un error no reintentable|
+| **cockroachdb.jobs.schema_change_gc.resume_retry_error.count**
(count) | Número de trabajos de schema_change_gc que fallaron con un error reintentable|
+| **cockroachdb.jobs.typedesc_schema_change.currently_idle**
(gauge) | Número de trabajos de typedesc_schema_change actualmente considerados como inactivos y que pueden cerrarse libremente|
+| **cockroachdb.jobs.typedesc_schema_change.currently_paused**
(gauge) | Número de trabajos de typedesc_schema_change actualmente considerados como pausados|
+| **cockroachdb.jobs.typedesc_schema_change.currently_running**
(gauge) | Número de trabajos de typedesc_schema_change que se están ejecutando actualmente en estado Resume u OnFailOrCancel|
+| **cockroachdb.jobs.typedesc_schema_change.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de typedesc_schema_change|
+| **cockroachdb.jobs.typedesc_schema_change.fail_or_cancel_completed.count**
(count) | Número de trabajos de typedesc_schema_change que finalizaron con éxito su proceso de fallo o cancelación|
+| **cockroachdb.jobs.typedesc_schema_change.fail_or_cancel_failed.count**
(count) | Número de trabajos de typedesc_schema_change que fallaron con un error no reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.typedesc_schema_change.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de typedesc_schema_change que fallaron con un error reintentable en su proceso de fallo o cancelación|
+| **cockroachdb.jobs.typedesc_schema_change.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de typedesc_schema_change
_Se muestra como segundo_ |
+| **cockroachdb.jobs.typedesc_schema_change.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de typedesc_schema_change|
+| **cockroachdb.jobs.typedesc_schema_change.resume_completed.count**
(count) | Número de trabajos de typedesc_schema_change reanudados con éxito hasta completarse|
+| **cockroachdb.jobs.typedesc_schema_change.resume_failed.count**
(count) | Número de trabajos de typedesc_schema_change que fallaron con un error no reintentable|
+| **cockroachdb.jobs.typedesc_schema_change.resume_retry_error.count**
(count) | Número de trabajos de typedesc_schema_change que fallaron con un error reintentable|
+| **cockroachdb.keybytes**
(gauge) | \[OpenMetrics v1 y v2\] Número de bytes ocupados por claves
_Se muestra como byte_ |
+| **cockroachdb.keycount**
(gauge) | \[OpenMetrics v1 y v2\] Recuento de todas las claves
_Se muestra como clave_ |
+| **cockroachdb.kv.allocator.load_based_lease_transfers.cannot_find_better_candidate.count**
(count) | Número de veces que el asignador determinó que el arrendamiento se encontraba en la mejor réplica posible|
+| **cockroachdb.kv.allocator.load_based_lease_transfers.delta_not_significant.count**
(count) | Número de veces que el asignador determinó que el delta entre el almacén existente y el mejor candidato no era significativo|
+| **cockroachdb.kv.allocator.load_based_lease_transfers.existing_not_overfull.count**
(count) | Número de veces que el asignador determinó que el arrendamiento no estaba en un almacén sobrecargado|
+| **cockroachdb.kv.allocator.load_based_lease_transfers.follow_the_workload.count**
(count) | Número de veces que el asignador determinó que el arrendamiento debía transferirse a otra réplica para la localidad|
+| **cockroachdb.kv.allocator.load_based_lease_transfers.missing_stats_for_existing_stores.count**
(count) | Número de veces que al asignador le faltaron estadísticas qps para el arrendatario|
+| **cockroachdb.kv.allocator.load_based_lease_transfers.should_transfer.count**
(count) | Número de veces que el asignador determinó que el arrendamiento debía transferirse a otra réplica para una mejor distribución de la carga|
+| **cockroachdb.kv.allocator.load_based_replica_rebalancing.cannot_find_better_candidate.count**
(count) | Número de veces que el asignador determinó que el rango estaba en los mejores almacenes posibles|
+| **cockroachdb.kv.allocator.load_based_replica_rebalancing.delta_not_significant.count**
(count) | Número de veces que el asignador determinó que el delta entre un almacén existente y el mejor candidato de sustitución no era lo suficientemente elevado|
+| **cockroachdb.kv.allocator.load_based_replica_rebalancing.existing_not_overfull.count**
(count) | Número de veces que el asignador determinó que ninguna de las réplicas del rango estaba en almacenes sobrecargados|
+| **cockroachdb.kv.allocator.load_based_replica_rebalancing.missing_stats_for_existing_store.count**
(count) | Número de veces que al asignador le faltaron las estadísticas qps para el almacén existente|
+| **cockroachdb.kv.allocator.load_based_replica_rebalancing.should_transfer.count**
(count) | Número de veces que el asignador determinó que la réplica debía reequilibrarse a otro almacén para una mejor distribución de la carga|
+| **cockroachdb.kv.closed_timestamp.max_behind_nanos**
(gauge) | Mayor latencia entre el tiempo real y la marca de tiempo máxima cerrada de la réplica
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.concurrency.avg_lock_hold_duration_nanos**
(gauge) | Duración media de los bloqueos en las tablas de bloqueos. No incluye los bloqueos replicados (intenciones) que no se mantienen en memoria
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.concurrency.avg_lock_wait_duration_nanos**
(gauge) | Duración media de la espera de bloqueo de las solicitudes en espera en las colas de espera de bloqueo
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.concurrency.lock_wait_queue_waiters**
(gauge) | Número de solicitudes en espera activa en una cola de espera de bloqueo|
+| **cockroachdb.kv.concurrency.locks**
(gauge) | Número de bloqueos activos en las tablas de bloqueos. No incluye los bloqueos replicados (intenciones) que no se mantienen en memoria|
+| **cockroachdb.kv.concurrency.locks_with_wait_queues**
(gauge) | Número de bloqueos activos en tablas de bloqueos con colas de espera activas|
+| **cockroachdb.kv.concurrency.max_lock_hold_duration_nanos**
(indicador) | Duración máxima de cualquier bloqueo en una tabla de bloqueos. No incluye los bloqueos replicados (intenciones) que no se mantienen en memoria
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.concurrency.max_lock_wait_duration_nanos**
(gauge) | Duración máxima de la espera de bloqueo de las solicitudes que se encuentran en espera en las colas de espera de bloqueo
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.concurrency.max_lock_wait_queue_waiters_for_lock**
(gauge) | Número máximo de solicitudes en espera activa en cualquier cola de espera de bloqueo individual|
+| **cockroachdb.kv.loadsplitter.nosplitkey.count**
(count) | El divisor basado en la carga no pudo encontrar una clave de división.|
+| **cockroachdb.kv.loadsplitter.popularkey.count**
(count) | El divisor basado en la carga no pudo encontrar una clave de división y la clave de división más popular muestreada ocurre en >= 25% de las muestras.|
+| **cockroachdb.kv.prober.planning_attempts.count**
(count) | Número de intentos de planificación de sondeos realizados. Para sondear KV necesitamos planificar qué rangos sondear.|
+| **cockroachdb.kv.prober.planning_failures.count**
(count) | Número de intentos de planificación de sondeos fallidos. Para sondear KV necesitamos planificar qué rangos sondear. Si la planificación falla, kvprober no es capaz de enviar sondas a todos los rangos. Considera la posibilidad de alertar sobre esta métrica como resultado.|
+| **cockroachdb.kv.prober.read.attempts.count**
(count) | Número de intentos de lectura del KV de sondeo, independientemente del resultado|
+| **cockroachdb.kv.prober.read.failures.count**
(count) | Número de intentos fallidos de lectura del KV de sondeo, ya sea por error o por tiempo de espera|
+| **cockroachdb.kv.prober.read.latency.bucket**
(count) | Latencia de las sondas de lectura de KV correctas
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.prober.read.latency.count**
(count) | Latencia de las sondas de lectura de KV correctas
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.prober.read.latency.sum**
(count) | Latencia de las sondas de lectura de KV correctas
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.prober.write.attempts.count**
(count) | Número de intentos realizados para escribir el KV de sondeo, independientemente del resultado|
+| **cockroachdb.kv.prober.write.failures.count**
(count) | Número de intentos fallidos de escribir el KV de sondeo, ya sea por error o por tiempo de espera|
+| **cockroachdb.kv.prober.write.latency.bucket**
(count) | Latencia de las sondas de escritura de KV exitosas
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.prober.write.latency.count**
(count) | Latencia de las sondas de escritura de KV exitosas
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.prober.write.latency.sum**
(count) | Latencia de las sondas de escritura de KV exitosas
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.prober.write.quarantine.oldest_duration**
(gauge) | Tiempo que ha permanecido el rango más antiguo en el grupo de cuarentena de escritura
_Se muestra como segundo_ |
+| **cockroachdb.kv.protectedts.reconciliation.errors.count**
(count) | Número de errores encontrados durante las ejecuciones de conciliación en este nodo|
+| **cockroachdb.kv.protectedts.reconciliation.num_runs.count**
(count) | Número de conciliaciones realizadas con éxito en este nodo|
+| **cockroachdb.kv.protectedts.reconciliation.records_processed.count**
(count) | Número de registros procesados sin errores durante la conciliación en este nodo|
+| **cockroachdb.kv.protectedts.reconciliation.records_removed.count**
(count) | Número de registros eliminados durante las ejecuciones de conciliación en este nodo|
+| **cockroachdb.kv.rangefeed.budget_allocation_blocked.count**
(count) | Número de veces que RangeFeed esperó la disponibilidad de presupuesto|
+| **cockroachdb.kv.rangefeed.budget_allocation_failed.count**
(count) | Número de veces que RangeFeed falló porque se superó el presupuesto de memoria |
+| **cockroachdb.kv.rangefeed.catchup_scan_nanos.count**
(count) | Tiempo dedicado al análisis de la recuperación de RangeFeed
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.rangefeed.mem_shared**
(gauge) | Uso de memoria por RangeFeeds
_Se muestra como byte_ |
+| **cockroachdb.kv.rangefeed.mem_system**
(gauge) | Uso de memoria por RangeFeeds en rangos del sistema
_Se muestra como byte_ |
+| **cockroachdb.kv.rangefeed.processors_goroutine**
(gauge) | Número de procesadores RangeFeed activos que utilizan goroutines|
+| **cockroachdb.kv.rangefeed.processors_scheduler**
(gauge) | Número de procesadores RangeFeed activos que utilizan programadores|
+| **cockroachdb.kv.rangefeed.registrations**
(gauge) | Número de registros activos de RangeFeed|
+| **cockroachdb.kv.rangefeed.scheduler.normal.latency.bucket**
(count) | Latencia del programador habitual de RangeFeeds de KV
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.rangefeed.scheduler.normal.latency.count**
(count) | Latencia del programador habitual de RangeFeeds de KV
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.rangefeed.scheduler.normal.latency.sum**
(count) | Latencia del programador habitual de RangeFeeds de KV
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.rangefeed.scheduler.normal.queue_size**
(gauge) | Número de entradas en la cola del programador habitual de RangeFeeds de KV|
+| **cockroachdb.kv.rangefeed.scheduler.system.latency.bucket**
(count) | Latencia del programador de sistemas de RangeFeeds de KV
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.rangefeed.scheduler.system.latency.count**
(count) | Latencia del programador de sistemas de RangeFeeds de KV
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.rangefeed.scheduler.system.latency.sum**
(count) | Latencia del programador de sistemas de RangeFeeds de KV
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.rangefeed.scheduler.system.queue_size**
(gauge) | Número de entradas en la cola del programador de sistemas de RangeFeeds de KV|
+| **cockroachdb.kv.replica_circuit_breaker.num_tripped_events.count**
(count) | Número de veces que se activaron los disyuntores por réplica desde el inicio del proceso|
+| **cockroachdb.kv.replica_circuit_breaker.num_tripped_replicas**
(gauge) | Número de réplicas para las que el disyuntor por réplica está actualmente activado. Un valor distinto de cero indica que el rango o la réplica no están disponibles, y debe investigarse. Las réplicas con este estado deben fallar rápidamente toda slas solicitudes entrantes.|
+| **cockroachdb.kv.replica_read_batch_evaluate.dropped_latches_before_eval.count**
(count) | Número de veces que los lotes de solo lectura dejaron caer los latches antes de la evaluación|
+| **cockroachdb.kv.replica_read_batch_evaluate.latency.bucket**
(count) | Duración de la ejecución para evaluar un BatchRequest en la ruta de solo lectura después de la adquisición de los latches. Se registra una medición independientemente del resultado (es decir, también en caso de error). Si se producen reintentos internos, cada instancia se registra por separado.
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.replica_read_batch_evaluate.latency.count**
(count) | Duración de la ejecución para evaluar un BatchRequest en la ruta de solo lectura después de la adquisición de los latches. Se registra una medición independientemente del resultado (es decir, también en caso de error). Si se producen reintentos internos, cada instancia se registra por separado.
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.replica_read_batch_evaluate.latency.sum**
(count) | Duración de la ejecución para evaluar un BatchRequest en la ruta de solo lectura después de la adquisición de los latches. Se registra una medición independientemente del resultado (es decir, también en caso de error). Si se producen reintentos internos, cada instancia se registra por separado.
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.replica_read_batch_evaluate.without_interleaving_iter.count**
(count) | Número de lotes de solo lectura evaluados sin una iteración de intercalación de intentos|
+| **cockroachdb.kv.replica_write_batch_evaluate.latency.bucket**
(count) | Duración de la ejecución para evaluar un BatchRequest en la ruta de lectura-escritura después de la adquisición de los latches. Se registra una medición independientemente del resultado (es decir, también en caso de error). Si se producen reintentos internos, cada instancia se registra por separado. Ten en cuenta que la medición no incluye la duración de la replicación del comando evaluado.
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.replica_write_batch_evaluate.latency.count**
(count) | Duración de la ejecución para evaluar un BatchRequest en la ruta de lectura-escritura después de la adquisición de los latches. Se registra una medición independientemente del resultado (es decir, también en caso de error). Si se producen reintentos internos, cada instancia se registra por separado. Ten en cuenta que la medición no incluye la duración de la replicación del comando evaluado.
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.replica_write_batch_evaluate.latency.sum**
(count) | Duración de la ejecución para evaluar un BatchRequest en la ruta de lectura-escritura después de la adquisición de los latches. Se registra una medición independientemente del resultado (es decir, también en caso de error). Si se producen reintentos internos, cada instancia se registra por separado. Ten en cuenta que la medición no incluye la duración de la replicación del comando evaluado.
_Se muestra como nanosegundo_ |
+| **cockroachdb.kv.tenant_rate_limit.current_blocked**
(gauge) | Número de solicitudes bloqueadas actualmente por el limitador de frecuencia|
+| **cockroachdb.kv.tenant_rate_limit.num_tenants**
(gauge) | Número de inquilinos objeto de seguimiento|
+| **cockroachdb.kv.tenant_rate_limit.read_batches_admitted.count**
(count) | Número de lotes de lectura admitidos por el limitador de frecuencia|
+| **cockroachdb.kv.tenant_rate_limit.read_bytes_admitted.count**
(count) | Número de bytes de lectura admitidos por el limitador de frecuencia
_Se muestra como byte_ |
+| **cockroachdb.kv.tenant_rate_limit.read_requests_admitted.count**
(count) | Número de solicitudes de lectura admitidas por el limitador de frecuencia|
+| **cockroachdb.kv.tenant_rate_limit.write_batches_admitted.count**
(count) | Número de lotes de escritura admitidos por el limitador de frecuencia|
+| **cockroachdb.kv.tenant_rate_limit.write_bytes_admitted.count**
(count) | Número de bytes de escritura admitidos por el limitador de frecuencia
_Se muestra como byte_ |
+| **cockroachdb.kv.tenant_rate_limit.write_requests_admitted.count**
(count) | Número de solicitudes de escritura admitidas por el limitador de frecuencia|
+| **cockroachdb.kvadmission.flow_controller.elastic_blocked_stream_count**
(gauge) | Número de flujos de réplica sin tokens de flujo disponibles para solicitudes elásticas|
+| **cockroachdb.kvadmission.flow_controller.elastic_requests_admitted.count**
(count) | Número de solicitudes elásticas admitidas por el controlador de flujo|
+| **cockroachdb.kvadmission.flow_controller.elastic_requests_bypassed.count**
(count) | Número de solicitudes elásticas en espera que omitieron el controlador de flujo debido a la desconexión de flujos|
+| **cockroachdb.kvadmission.flow_controller.elastic_requests_errored.count**
(count) | Número de solicitudes elásticas que fallaron mientras esperaban tokens de flujo|
+| **cockroachdb.kvadmission.flow_controller.elastic_requests_waiting**
(gauge) | Número de solicitudes elásticas en espera de tokens de flujo|
+| **cockroachdb.kvadmission.flow_controller.elastic_stream_count**
(gauge) | Número total de flujos de réplica para solicitudes elásticas|
+| **cockroachdb.kvadmission.flow_controller.elastic_tokens_available**
(gauge) | Tokens de flujo disponibles para solicitudes elásticas, en todos los flujos de replicación
_Se muestra como byte_ |
+| **cockroachdb.kvadmission.flow_controller.elastic_tokens_deducted.count**
(count) | Tokens de flujo deducidos por solicitudes elásticas, en todos los flujos de replicación
_Se muestra como byte_ |
+| **cockroachdb.kvadmission.flow_controller.elastic_tokens_returned.count**
(count) | Tokens de flujo devueltos por solicitudes elásticas, en todos los flujos de replicación
_Se muestra como byte_ |
+| **cockroachdb.kvadmission.flow_controller.elastic_tokens_unaccounted.count**
(count) | Tokens de flujo devueltos por solicitudes elásticas que no se contabilizaron, en todos los flujos de replicación
_Se muestra como byte_ |
+| **cockroachdb.kvadmission.flow_controller.elastic_wait_duration.bucket**
(count) | Histograma de latencia del tiempo que pasan las solicitudes elásticas esperando tokens de flujo
_Se muestra como nanosegundo_ |
+| **cockroachdb.kvadmission.flow_controller.elastic_wait_duration.count**
(count) | Histograma de latencia del tiempo que pasan las solicitudes elásticas esperando tokens de flujo
_Se muestra como nanosegundo_ |
+| **cockroachdb.kvadmission.flow_controller.elastic_wait_duration.sum**
(count) | Histograma de latencia del tiempo que pasan las solicitudes elásticas esperando tokens de flujo
_Se muestra como nanosegundo_ |
+| **cockroachdb.kvadmission.flow_controller.regular_blocked_stream_count**
(gauge) | Número de flujos de réplicación sin tokens de flujo disponibles para solicitudes regulares|
+| **cockroachdb.kvadmission.flow_controller.regular_requests_admitted.count**
(count) | Número de solicitudes regulares admitidas por el controlador de flujo|
+| **cockroachdb.kvadmission.flow_controller.regular_requests_bypassed.count**
(count) | Número de solicitudes regulares en espera que omitieron el controlador de flujo debido a la desconexión de flujos|
+| **cockroachdb.kvadmission.flow_controller.regular_requests_errored.count**
(count) | Número de solicitudes regulares que fallaron mientras esperaban tokens de flujo|
+| **cockroachdb.kvadmission.flow_controller.regular_requests_waiting**
(gauge) | Número de solicitudes regulares a la espera de tokens de flujo|
+| **cockroachdb.kvadmission.flow_controller.regular_stream_count**
(gauge) | Número total de flujos de replicación para solicitudes regulares|
+| **cockroachdb.kvadmission.flow_controller.regular_tokens_available**
(gauge) | Tokens de flujo disponibles para solicitudes regulares, en todos los flujos de replicación
_Se muestra como byte_ |
+| **cockroachdb.kvadmission.flow_controller.regular_tokens_deducted.count**
(count) | Tokens de flujo deducidos por solicitudes regulares, a través de todos los flujos de replicación
_Se muestra como byte_ |
+| **cockroachdb.kvadmission.flow_controller.regular_tokens_returned.count**
(count) | Tokens de flujo devueltos por solicitudes regulares, a través de todos los flujos de replicación
_Se muestra como byte_ |
+| **cockroachdb.kvadmission.flow_controller.regular_tokens_unaccounted.count**
(count) | Tokens de flujo devueltos por solicitudes regulares que no se contabilizaron, en todos los flujos de replicación
_Se muestra como byte_ |
+| **cockroachdb.kvadmission.flow_controller.regular_wait_duration.bucket**
(count) | Histograma de latencia del tiempo que pasan las solicitudes regulares esperando tokens de flujo
_Se muestra como nanosegundo_ |
+| **cockroachdb.kvadmission.flow_controller.regular_wait_duration.count**
(count) | Histograma de latencia del tiempo que pasan las solicitudes regulares esperando tokens de flujo
_Se muestra como nanosegundo_ |
+| **cockroachdb.kvadmission.flow_controller.regular_wait_duration.sum**
(count) | Histograma de latencia del tiempo que pasan las solicitudes regulares esperando tokens de flujo
_Se muestra como nanosegundo_ |
+| **cockroachdb.kvadmission.flow_handle.elastic_requests_admitted.count**
(count) | Número de solicitudes elásticas admitidas por el descriptor de flujo|
+| **cockroachdb.kvadmission.flow_handle.elastic_requests_errored.count**
(count) | Número de solicitudes elásticas que fallaron mientras esperaban tokens de flujo, a nivel del descriptor|
+| **cockroachdb.kvadmission.flow_handle.elastic_requests_waiting**
(gauge) | Número de solicitudes elásticas a la espera de tokens de flujo, a nivel del descriptor|
+| **cockroachdb.kvadmission.flow_handle.elastic_wait_duration.bucket**
(count) | Histograma de latencia del tiempo que pasan las solicitudes elásticas esperando tokens de flujo, a nivel del descriptor
_Se muestra como nanosegundo_ |
+| **cockroachdb.kvadmission.flow_handle.elastic_wait_duration.count**
(count) | Histograma de latencia del tiempo que pasan las solicitudes elásticas esperando tokens de flujo, a nivel del descriptor
_Se muestra como nanosegundo_ |
+| **cockroachdb.kvadmission.flow_handle.elastic_wait_duration.sum**
(count) | Histograma de latencia del tiempo que pasan las solicitudes elásticas esperando tokens de flujo, a nivel del descriptor
_Se muestra como nanosegundo_ |
+| **cockroachdb.kvadmission.flow_handle.regular_requests_admitted.count**
(count) | Número de solicitudes elásticas admitidas por el descriptor de flujo|
+| **cockroachdb.kvadmission.flow_handle.regular_requests_errored.count**
(count) | Número de solicitudes regulares que fallaron mientras esperaban tokens de flujo, a nivel del descriptor|
+| **cockroachdb.kvadmission.flow_handle.regular_requests_waiting**
(gauge) | Número de solicitudes regulares a la espera de tokens de flujo, a nivel del descriptor|
+| **cockroachdb.kvadmission.flow_handle.regular_wait_duration.bucket**
(count) | Histograma de latencia del tiempo que pasan las solicitudes regulares esperando tokens de flujo, a nivel del descriptor
_Se muestra como nanosegundo_ |
+| **cockroachdb.kvadmission.flow_handle.regular_wait_duration.count**
(count) | Histograma de latencia del tiempo que pasan las solicitudes regulares esperando tokens de flujo, a nivel del descriptor
_Se muestra como nanosegundo_ |
+| **cockroachdb.kvadmission.flow_handle.regular_wait_duration.sum**
(count) | Histograma de latencia del tiempo que pasan las solicitudes regulares esperando tokens de flujo, a nivel del descriptor
_Se muestra como nanosegundo_ |
+| **cockroachdb.kvadmission.flow_handle.streams_connected.count**
(count) | Número de veces que nos hemos conectado a un flujo, a nivel del descriptor|
+| **cockroachdb.kvadmission.flow_handle.streams_disconnected.count**
(count) | Número de veces que nos hemos desconectado de un flujo, a nivel del descriptor|
+| **cockroachdb.kvadmission.flow_token_dispatch.coalesced_elastic.count**
(count) | Número de envíos de tokens de flujo elásticos coalesced (en los que informamos al remitente de la admisión de una mayor entrada de logs)|
+| **cockroachdb.kvadmission.flow_token_dispatch.coalesced_regular.count**
(count) | Número de envíos de tokens de flujo regulares coalesced (en los que informamos al remitente de la admisión de una mayor entrada de logs)|
+| **cockroachdb.kvadmission.flow_token_dispatch.local_elastic.count**
(count) | Número de envíos de tokens de flujo elásticos locales|
+| **cockroachdb.kvadmission.flow_token_dispatch.local_regular.count**
(count) | Número de envíos de tokens de flujo regulares locales|
+| **cockroachdb.kvadmission.flow_token_dispatch.pending_elastic**
(gauge) | Número de envíos de tokens de flujo elásticos pendientes|
+| **cockroachdb.kvadmission.flow_token_dispatch.pending_nodes**
(gauge) | Número de envíos de tokens de flujo pendientes de nodos|
+| **cockroachdb.kvadmission.flow_token_dispatch.pending_regular**
(gauge) | Número de envíos de tokens de flujo regulares pendientes|
+| **cockroachdb.kvadmission.flow_token_dispatch.remote_elastic.count**
(count) | Número de envíos de tokens de flujo elásticos remotos|
+| **cockroachdb.kvadmission.flow_token_dispatch.remote_regular.count**
(count) | Número de envíos de tokens de flujo regulares remotos|
+| **cockroachdb.lastupdatenanos**
(gauge) | \[OpenMetrics v1 y v2\] Tiempo en nanosegundos desde la marca de tiempo Unix en la que se actualizaron por última vez las métricas bytes/keys/intents
_Se muestra como nanosegundo_ |
+| **cockroachdb.leases.epoch**
(gauge) | \[OpenMetrics v1 y v2\] Número de arrendatarios de réplicas que utilizan arrendamientos basados en marcas de tiempo|
+| **cockroachdb.leases.error**
(count) | \[OpenMetrics v1\] Número de solicitudes de arrendamiento fallidas
_Se muestra como solicitud_ |
+| **cockroachdb.leases.error.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de arrendamiento fallidas
_Se muestra como solicitud_ |
+| **cockroachdb.leases.expiration**
(gauge) | \[OpenMetrics v1 y v2\] Número de arrendatarios de réplicas que utilizan arrendamientos basados en la caducidad|
+| **cockroachdb.leases.liveness**
(gauge) | Número de arrendatarios de réplicas para el/los rango(s) de vida|
+| **cockroachdb.leases.preferences.less_preferred**
(gauge) | Número de arrendatarios de réplicas que satisfacen una preferencia de arrendamiento que no es la más preferida|
+| **cockroachdb.leases.preferences.violating**
(gauge) | Número de arrendatarios de réplicas que violan las preferencias de arrendamiento|
+| **cockroachdb.leases.requests.latency.bucket**
(count) | Latencia de solicitud de arrendamiento (todos los tipos y resultados, coalesced)
_Se muestra como nanosegundo_ |
+| **cockroachdb.leases.requests.latency.count**
(count) | Latencia de solicitud de arrendamiento (todos los tipos y resultados, coalesced)
_Se muestra como nanosegundo_ |
+| **cockroachdb.leases.requests.latency.sum**
(count) | Latencia de solicitud de arrendamiento (todos los tipos y resultados, coalesced)
_Se muestra como nanosegundo_ |
+| **cockroachdb.leases.success**
(count) | \[OpenMetrics v1\] Número de solicitudes de arrendamiento exitosas
_Se muestra como solicitud_ |
+| **cockroachdb.leases.success.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de arrendamiento exitosas
_Se muestra como solicitud_ |
+| **cockroachdb.leases.transfers.error**
(count) | \[OpenMetrics v1\] Número de transferencias de arrendamientos fallidas|
+| **cockroachdb.leases.transfers.error.count**
(count) | \[OpenMetrics v2\] Número de transferencias de arrendamientos fallidas|
+| **cockroachdb.leases.transfers.success**
(count) | \[OpenMetrics v1\] Número de transferencias de arrendamientos exitosas|
+| **cockroachdb.leases.transfers.success.count**
(count) | \[OpenMetrics v2\] Número de transferencias de arrendamientos exitosas|
+| **cockroachdb.livebytes**
(gauge) | \[OpenMetrics v1 y v2\] Número de bytes de live data (claves más valores)
_Se muestra como byte_ |
+| **cockroachdb.livecount**
(gauge) | \[OpenMetrics v1 y v2\] Recuento de claves activas
_Se muestra como clave_ |
+| **cockroachdb.liveness.epochincrements**
(count) | \[OpenMetrics v1\] Número de veces que este nodo ha incrementado su tiempo de vida|
+| **cockroachdb.liveness.epochincrements.count**
(count) | \[OpenMetrics v2\] Número de veces que este nodo ha incrementado su tiempo de vida|
+| **cockroachdb.liveness.heartbeatfailures**
(count) | \[OpenMetrics v1\] Número de latidos fallidos de este nodo|
+| **cockroachdb.liveness.heartbeatfailures.count**
(count) | \[OpenMetrics v2\] Número de latidos fallidos de este nodo|
+| **cockroachdb.liveness.heartbeatency**
(indicador) | \[OpenMetrics v1\] Latencia del latido de vida del nodo en nanosegundos
_Se muestra como nanosegundo_ |
+| **cockroachdb.liveness.heartbeatlatency.bucket**
(count) | \[OpenMetrics v2\] Latencia del latido de vida del nodo en nanosegundos
_Se muestra como nanosegundo_ |
+| **cockroachdb.liveness.heartbeatlatency.count**
(count) | \[OpenMetrics v2\] Latencia del latido de vida del nodo en nanosegundos
_Se muestra como nanosegundo_ |
+| **cockroachdb.liveness.heartbeatlatency.sum**
(count) | \[OpenMetrics v2\] Latencia del latido de vida del nodo en nanosegundos
_Se muestra como nanosegundo_ |
+| **cockroachdb.liveness.heartbeatsinflight**
(gauge) | Número de latidos de vida en curso de este nodo|
+| **cockroachdb.liveness.heartbeatsuccesses**
(count) | \[OpenMetrics v1\] Número de latidos de vida exitosos de este nodo|
+| **cockroachdb.liveness.heartbeatsuccesses.count**
(count) | \[OpenMetrics v2\] Número de latidos de vida exitosos de este nodo|
+| **cockroachdb.liveness.livenodes**
(gauge) | \[OpenMetrics v1 y v2\] Número de nodos activos en el clúster (será 0 si este nodo no está activo)|
+| **cockroachdb.lockbytes**
(gauge) | Número de bytes ocupados por valores clave de bloqueo replicados (fuerza compartida y exclusiva, no fuerza de intención)
_Se muestra como byte_ |
+| **cockroachdb.lockcount**
(gauge) | Recuento de bloqueos replicados (compartidos, exclusivos y de fuerza de intención)|
+| **cockroachdb.log.buffered.messages.dropped.count**
(count) | Recuento de mensajes de log eliminados por los sumideros de logs almacenados en búfer. Cuando CRDB intenta almacenar en búfer un mensaje de log en un sumidero de logs almacenado en búfer cuyo búfer ya está lleno, elimina los mensajes más antiguos almacenados en búfer para dejar espacio para el nuevo mensaje.|
+| **cockroachdb.log.fluent.sink.conn.errors.count**
(count) | Número de errores de conexión experimentados por los sumideros de generación de logs del servidor Fluent|
+| **cockroachdb.log.messages.count**
(count) | Recuento de mensajes registrados en el nodo desde el inicio. Ten en cuenta que esto no mide la salida de mensajes de log individuales a los distintos sumideros de generación de logs configurados.|
+| **cockroachdb.node_id**
(gauge) | \[OpenMetrics v1 y v2\] ID de nodo con etiquetas para direcciones RPC y HTTP publicadas|
+| **cockroachdb.physical_replication.admit_latency.bucket**
(count) | Latencia de admisión de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que se admitió en el procesador de ingesta
_Se muestra como nanosegundo_ |
+| **cockroachdb.physical_replication.admit_latency.count**
(count) | Latencia de admisión de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que se admitió en el procesador de ingesta
_Se muestra como nanosegundo_ |
+| **cockroachdb.physical_replication.admit_latency.sum**
(count) | Latencia de admisión de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que se admitió en el procesador de ingesta
_Se muestra como nanosegundo_ |
+| **cockroachdb.physical_replication.commit_latency.bucket**
(count) | Latencia de confirmación de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que se descargó en disco. Si se trata de eventos por lotes, se registra la diferencia entre el evento más antiguo del lote y la descarga
_Se muestra como nanosegundo_ |
+| **cockroachdb.physical_replication.commit_latency.count**
(count) | Latencia de confirmación de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que se descargó en disco. Si se trata de eventos por lotes, se registra la diferencia entre el evento más antiguo del lote y la descarga
_Se muestra como nanosegundo_ |
+| **cockroachdb.physical_replication.commit_latency.sum**
(count) | Latencia de confirmación de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que se descargó en disco. Si se trata de eventos por lotes, se registra la diferencia entre el evento más antiguo del lote y la descarga
_Se muestra como nanosegundo_ |
+| **cockroachdb.physical_replication.cutover_progress**
(gauge) | Número de rangos que quedan por revertir para completar un corte en curso|
+| **cockroachdb.physical_replication.distsql_replan_count.count**
(count) | Número total de eventos de replanificación de SQL distribuido|
+| **cockroachdb.physical_replication.earliest_data_checkpoint_span**
(gauge) | Marca de tiempo más temprana del último punto de control enviado por un procesador de datos de ingesta|
+| **cockroachdb.physical_replication.events_ingested.count**
(count) | Eventos ingeridos por todos los trabajos de replicación|
+| **cockroachdb.physical_replication.flush_hist_nanos.bucket**
(count) | Tiempo dedicado a descargar mensajes en todos los flujos de replicación
_Se muestra como nanosegundo_ |
+| **cockroachdb.physical_replication.flush_hist_nanos.count**
(count) | Tiempo dedicado a descargar mensajes en todos los flujos de replicación
_Se muestra como nanosegundo_ |
+| **cockroachdb.physical_replication.flush_hist_nanos.sum**
(count) | Tiempo dedicado a descargar mensajes en todos los flujos de replicación
_Se muestra como nanosegundo_ |
+| **cockroachdb.physical_replication.flushes.count**
(count) | Total de descargas en todos los trabajos de replicación|
+| **cockroachdb.physical_replication.job_progress_updates.count**
(count) | Número total de actualizaciones del progreso de trabajos de ingesta|
+| **cockroachdb.physical_replication.latest_data_checkpoint_span**
(gauge) | Marca de tiempo más reciente del último punto de control enviado por un procesador de datos de ingesta|
+| **cockroachdb.physical_replication.logical_bytes.count**
(count) | Bytes lógicos (suma de claves + valores) ingeridos por todos los trabajos de replicación
_Se muestra como byte_ |
+| **cockroachdb.physical_replication.replicated_time_seconds**
(gauge) | Tiempo replicado del flujo de replicación físico en segundos desde la marca de tiempo Unix.
_Se muestra como segundo_ |
+| **cockroachdb.physical_replication.resolved_events_ingested.count**
(count) | Eventos resueltos ingeridos por todos los trabajos de replicación|
+| **cockroachdb.physical_replication.running**
(gauge) | Número de flujos de replicación en ejecución|
+| **cockroachdb.physical_replication.sst_bytes.count**
(count) | Bytes de TSM (comprimidos) enviados a KV por todos los trabajos de replicación
_Se muestra como byte_ |
+| **cockroachdb.queue.consistency.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas pendientes en la cola del verificador de consistencia|
+| **cockroachdb.queue.consistency.process.failure**
(count) | \[OpenMetrics v1\] Número de réplicas cuyo procesamiento falló en la cola del verificador de consistencia|
+| **cockroachdb.queue.consistency.process.failure.count**
(count) | \[OpenMetrics v2\] Número de réplicas cuyo procesamiento falló en la cola del verificador de consistencia|
+| **cockroachdb.queue.consistency.process.success**
(count) | \[OpenMetrics v1\] Número de réplicas procesadas con éxito por la cola del verificador de consistencia|
+| **cockroachdb.queue.consistency.process.success.count**
(count) | \[OpenMetrics v2\] Número de réplicas procesadas con éxito por la cola del verificador de consistencia|
+| **cockroachdb.queue.consistency.processingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a procesar réplicas en la cola del verificador de consistencia
_Se muestra como nanosegundo_ |
+| **cockroachdb.queue.consistency.processingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a procesar réplicas en la cola del verificador de consistencia
_Se muestra como nanosegundo_ |
+| **cockroachdb.queue.gc.info.abortspanconsidered**
(count) | \[OpenMetrics v1\] Número de entradas AbortSpan lo suficientemente antiguas como para ser consideradas para su eliminación|
+| **cockroachdb.queue.gc.info.abortspanconsidered.count**
(count) | \[OpenMetrics v2\] Número de entradas AbortSpan lo suficientemente antiguas como para ser consideradas para su eliminación|
+| **cockroachdb.queue.gc.info.abortspangcnum**
(count) | \[OpenMetrics v1\] Número de entradas AbortSpan aptas para ser eliminadas|
+| **cockroachdb.queue.gc.info.abortspangcnum.count**
(count) | \[OpenMetrics v2\] Número de entradas AbortSpan aptas para ser eliminadas|
+| **cockroachdb.queue.gc.info.abortspanscanned**
(count) | \[OpenMetrics v1\] Número de transacciones presentes en el AbortSpan analizado desde el motor
_Se muestra como transacción_ |
+| **cockroachdb.queue.gc.info.abortspanscanned.count**
(count) | \[OpenMetrics v2\] Número de transacciones presentes en el AbortSpan analizado desde el motor
_Se muestra como transacción_ |
+| **cockroachdb.queue.gc.info.clearrangefailed.count**
(count) | Número de operaciones ClearRange fallidas durante GC|
+| **cockroachdb.queue.gc.info.clearrangesuccess.count**
(count) | Número de operaciones ClearRange exitosas durante GC|
+| **cockroachdb.queue.gc.info.enqueuehighpriority.count**
(count) | Número de réplicas en cola para GC con prioridad elevada|
+| **cockroachdb.queue.gc.info.intentsconsidered**
(count) | \[OpenMetrics v1\] Número de intentos 'antiguos'|
+| **cockroachdb.queue.gc.info.intentsconsidered.count**
(count) | \[OpenMetrics v2\] Número de intentos 'antiguos'|
+| **cockroachdb.queue.gc.info.intenttxns**
(count) | \[OpenMetrics v1\] Número de transacciones distintas asociadas
_Se muestra como transacción_ |
+| **cockroachdb.queue.gc.info.intenttxns.count**
(count) | \[OpenMetrics v2\] Número de transacciones distintas asociadas
_Se muestra como transacción_ |
+| **cockroachdb.queue.gc.info.numkeysaffected**
(count) | \OpenMetrics v1\] Número de claves con datos GC'able
_Se muestra como clave_ |
+| **cockroachdb.queue.gc.info.numkeysaffected.count**
(count) | \OpenMetrics v2\] Número de claves con datos GC'able
_Se muestra como clave_ |
+| **cockroachdb.queue.gc.info.numrangekeysaffected.count**
(count) | Número de claves de rango GC'able|
+| **cockroachdb.queue.gc.info.pushtxn**
(count) | \[OpenMetrics v1\] Número de intentos de envío|
+| **cockroachdb.queue.gc.info.pushtxn.count**
(count) | \[OpenMetrics v2\] Número de intentos de envío|
+| **cockroachdb.queue.gc.info.resolvefailed.count**
(count) | Número de intentos de limpieza fallidos durante GC|
+| **cockroachdb.queue.gc.info.resolvesuccess**
(count) | \[OpenMetrics v1\] Número de intentos resueltos con éxito|
+| **cockroachdb.queue.gc.info.resolvesuccess.count**
(count) | \[OpenMetrics v2\] Número de intentos resueltos con éxito|
+| **cockroachdb.queue.gc.info.resolvetotal**
(count) | \[OpenMetrics v1\] Número de intentos de resolución intentados|
+| **cockroachdb.queue.gc.info.resolvetotal.count**
(count) | \[OpenMetrics v2\] Número de intentos de resolución intentados|
+| **cockroachdb.queue.gc.info.transactionresolvefailed.count**
(count) | Número de fallos en intentos de limpieza de transacciones locales durante GC|
+| **cockroachdb.queue.gc.info.transactionspangcaborted**
(count) | \[OpenMetrics v1\] Número de entradas GC'able correspondientes a transacciones canceladas|
+| **cockroachdb.queue.gc.info.transactionspangcaborted.count**
(count) | \[OpenMetrics v2\] Número de entradas GC'able correspondientes a transacciones canceladas|
+| **cockroachdb.queue.gc.info.transactionspangccommitted**
(count) | \[OpenMetrics v1\] Número de entradas GC'able correspondientes a transacciones confirmadas|
+| **cockroachdb.queue.gc.info.transactionspangccommitted.count**
(count) | \[OpenMetrics v2\] Número de entradas GC'able correspondientes a transacciones confirmadas|
+| **cockroachdb.queue.gc.info.transactionspangcpending**
(count) | \[OpenMetrics v1\] Número de entradas GC'able correspondientes a transacciones pendientes|
+| **cockroachdb.queue.gc.info.transactionspangcpending.count**
(count) | \[OpenMetrics v2\] Número de entradas GC'able correspondientes a transacciones pendientes|
+| **cockroachdb.queue.gc.info.transactionspangcstaging.count**
(count) | Número de entradas GC'able correspondientes a transacciones de staging|
+| **cockroachdb.queue.gc.info.transactionspanscanned**
(count) | \[OpenMetrics v1\] Número de entradas en tramos de transacción analizados desde el motor|
+| **cockroachdb.queue.gc.info.transactionspanscanned.count**
(count) | \[OpenMetrics v2\] Número de entradas en tramos de transacción analizados desde el motor|
+| **cockroachdb.queue.gc.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas pendientes en la cola GC|
+| **cockroachdb.queue.gc.process.failure**
(count) | \[OpenMetrics v1\] Número de réplicas cuyo procesamiento falló en la cola GC|
+| **cockroachdb.queue.gc.process.failure.count**
(count) | \[OpenMetrics v2\] Número de réplicas cuyo procesamiento falló en la cola GC|
+| **cockroachdb.queue.gc.process.success**
(count) | \[OpenMetrics v1\] Número de réplicas procesadas con éxito por la cola GC|
+| **cockroachdb.queue.gc.process.success.count**
(count) | \[OpenMetrics v2\] Número de réplicas procesadas con éxito por la cola GC|
+| **cockroachdb.queue.gc.processingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a procesar réplicas en la cola GC
_Se muestra como nanosegundo_ |
+| **cockroachdb.queue.gc.processingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a procesar réplicas en la cola GC
_Se muestra como nanosegundo_ |
+| **cockroachdb.queue.merge.pending**
(gauge) | Número de réplicas pendientes en la cola de fusión|
+| **cockroachdb.queue.merge.process.failure.count**
(count) | Número de réplicas cuyo procesamiento falló en la cola de fusión|
+| **cockroachdb.queue.merge.process.success.count**
(count) | Número de réplicas procesadas con éxito por la cola de fusión|
+| **cockroachdb.queue.merge.processingnanos.count**
(count) | Nanosegundos dedicados a procesar réplicas en la cola de fusión
_Se muestra como nanosegundo_ |
+| **cockroachdb.queue.merge.purgatory**
(gauge) | Número de réplicas en el purgatorio de la cola de fusión, a la espera de ser fusionables|
+| **cockroachdb.queue.raftlog.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas pendientes en la cola de logs Raft |
+| **cockroachdb.queue.raftlog.process.failure**
(count) | \[OpenMetrics v1\] Número de réplicas cuyo procesamiento falló en la cola de de logs Raft |
+| **cockroachdb.queue.raftlog.process.failure.count**
(count) | \[OpenMetrics v2\] Número de réplicas cuyo procesamiento falló en la cola de de logs Raft |
+| **cockroachdb.queue.raftlog.process.success**
(count) | \[OpenMetrics v1\] Número de réplicas procesadas con éxito por la cola de logs Raft |
+| **cockroachdb.queue.raftlog.process.success.count**
(count) | \[OpenMetrics v2\] Número de réplicas procesadas con éxito por la cola de logs Raft|
+| **cockroachdb.queue.raftlog.processingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a procesar réplicas en la cola de logs Raft
_Se muestra como nanosegundo_ |
+| **cockroachdb.queue.raftlog.processingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a procesar réplicas en la cola de logs Raft
_Se muestra como nanosegundo_ |
+| **cockroachdb.queue.raftsnapshot.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas pendientes en la cola de reparación Raft|
+| **cockroachdb.queue.raftsnapshot.process.failure**
(count) | \[OpenMetrics v1\] Número de réplicas cuyo procesamiento falló en la cola de reparación Raft|
+| **cockroachdb.queue.raftsnapshot.process.failure.count**
(count) | \[OpenMetrics v2\] Número de réplicas cuyo procesamiento falló en la cola de reparación Raft|
+| **cockroachdb.queue.raftsnapshot.process.success**
(count) | \[OpenMetrics v1\] Número de réplicas procesadas con éxito por la cola de reparación Raft|
+| **cockroachdb.queue.raftsnapshot.process.success.count**
(count) | \[OpenMetrics v2\] Número de réplicas procesadas con éxito por la cola de reparación Raft|
+| **cockroachdb.queue.raftsnapshot.processingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a procesar réplicas en la cola de reparación Raft
_Se muestra como nanosegundo_ |
+| **cockroachdb.queue.raftsnapshot.processingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a procesar réplicas en la cola de reparación Raft
_Se muestra como nanosegundo_ |
+| **cockroachdb.queue.replicagc.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas pendientes en la cola GC de replicación|
+| **cockroachdb.queue.replicagc.process.failure**
(count) | \[OpenMetrics v1\] Número de réplicas cuyo procesamiento falló en la cola GC de replicación|
+| **cockroachdb.queue.replicagc.process.failure.count**
(count) | \[OpenMetrics v2\] Número de réplicas cuyo procesamiento falló en la cola GC de replicación|
+| **cockroachdb.queue.replicagc.process.success**
(count) | \[OpenMetrics v1\] Número de réplicas procesadas con éxito por la cola GC de replicación|
+| **cockroachdb.queue.replicagc.process.success.count**
(count) | \[OpenMetrics v2\] Número de réplicas procesadas con éxito por la cola GC de replicación|
+| **cockroachdb.queue.replicagc.processingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a procesar réplicas en la cola GC de replicación
_Se muestra como nanosegundo_ |
+| **cockroachdb.queue.replicagc.processingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a procesar réplicas en la cola GC de replicación
_Se muestra como nanosegundo_ |
+| **cockroachdb.queue.replicagc.removereplica**
(count) | \[OpenMetrics v1\] Número de eliminaciones de réplicas intentadas por la cola GC de replicación|
+| **cockroachdb.queue.replicagc.removereplica.count**
(count) | \[OpenMetrics v2\] Número de eliminaciones de réplicas intentadas por la cola GC de replicación|
+| **cockroachdb.queue.replicate.addnonvoterreplica.count**
(count) | Número de adiciones de réplicas no votantes intentadas por la cola de replicación|
+| **cockroachdb.queue.replicate.addreplica**
(count) | \[OpenMetrics v1\] Número de adiciones de réplicas intentadas por la cola de replicación|
+| **cockroachdb.queue.replicate.addreplica.count**
(count) | \[OpenMetrics v2\] Número de adiciones de réplicas intentadas por la cola de replicación|
+| **cockroachdb.queue.replicate.addreplica.error.count**
(count) | Número de adiciones de réplicas fallidas procesadas por la cola de replicación|
+| **cockroachdb.queue.replicate.addreplica.success.count**
(count) | Número de adiciones exitosas de réplicas procesadas por la cola de replicación|
+| **cockroachdb.queue.replicate.addvoterreplica.count**
(count) | Número de adiciones de réplicas de votantes intentadas por la cola de replicación|
+| **cockroachdb.queue.replicate.nonvoterpromotions.count**
(count) | Número de no votantes promovidos a votantes por la cola de replicación|
+| **cockroachdb.queue.replicate.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas pendientes en la cola de replicación|
+| **cockroachdb.queue.replicate.process.failure**
(count) | \[OpenMetrics v1\] Número de réplicas cuyo procesamiento falló en la cola de replicación|
+| **cockroachdb.queue.replicate.process.failure.count**
(count) | \[OpenMetrics v2\] Número de réplicas cuyo procesamiento falló en la cola de replicación|
+| **cockroachdb.queue.replicate.process.success**
(count) | \[OpenMetrics v1\] Número de réplicas procesadas con éxito por la cola de replicación|
+| **cockroachdb.queue.replicate.process.success.count**
(count) | \[OpenMetrics v2\] Número de réplicas procesadas con éxito por la cola de replicación|
+| **cockroachdb.queue.replicate.processingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a procesar réplicas en la cola de replicación
_Se muestra como nanosegundo_ |
+| **cockroachdb.queue.replicate.processingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a procesar réplicas en la cola de replicación
_Se muestra como nanosegundo_ |
+| **cockroachdb.queue.replicate.purgatory**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas en el purgatorio de la cola de replicación, a la espera de opciones de asignación|
+| **cockroachdb.queue.replicate.rebalancenonvoterreplica.count**
(count) | Número de adiciones iniciadas por el rebalanceador de réplicas no votantes intentadas por la cola de replicación|
+| **cockroachdb.queue.replicate.rebalancereplica**
(count) | \[OpenMetrics v1\] Número de adiciones iniciadas por el rebalanceador de réplicas intentadas por la cola de replicación|
+| **cockroachdb.queue.replicate.rebalancereplica.count**
(count) | \[OpenMetrics v2\] Número de adiciones iniciadas por el rebalanceador de réplicas intentadas por la cola de replicación|
+| **cockroachdb.queue.replicate.rebalancevoterreplica.count**
(count) | Número de adiciones iniciadas por el rebalanceador de réplicas de votantes intentadas por la cola de replicación|
+| **cockroachdb.queue.replicate.removedeadnonvoterreplica.count**
(count) | Número de eliminaciones de réplicas muertas no votantes intentadas por la cola de replicación (normalmente en respuesta a la interrupción de un nodo)|
+| **cockroachdb.queue.replicate.removedeadreplica**
(count) | \[OpenMetrics v1\] Número de eliminaciones de réplicas muertas intentadas por la cola de replicación (normalmente en respuesta a la interrupción de un nodo)|
+| **cockroachdb.queue.replicate.removedeadreplica.count**
(count) | \[OpenMetrics v2\] Número de eliminaciones de réplicas muertas intentadas por la cola de replicación (normalmente en respuesta a la interrupción de un nodo)|
+| **cockroachdb.queue.replicate.removedeadreplica.error.count**
(count) | Número de eliminaciones fallidas de réplicas muertas procesadas por la cola de replicación|
+| **cockroachdb.queue.replicate.removedeadreplica.success.count**
(count) | Número de eliminaciones exitosas de réplicas muertas procesadas por la cola de replicación|
+| **cockroachdb.queue.replicate.removedeadvoterreplica.count**
(count) | Número de eliminaciones de réplicas de votantes muertas intentadas por la cola de replicación (normalmente en respuesta a la interrupción de un nodo)|
+| **cockroachdb.queue.replicate.removedecommissioningnonvoterreplica.count**
(count) | Número de eliminaciones de réplicas no votantes por desmantelamiento intentadas por la cola de replicación (normalmente en respuesta a la interrupción de un nodo)|
+| **cockroachdb.queue.replicate.removedecommissioningreplica.count**
(count) | Número de eliminaciones de réplicas por desmantelamiento intentadas por la cola de replicación (normalmente en respuesta a la interrupción de un nodo)|
+| **cockroachdb.queue.replicate.removedecommissioningreplica.error.count**
(count) | Número de eliminaciones fallidas de réplicas por desmantelamiento procesadas por la cola de replicación|
+| **cockroachdb.queue.replicate.removedecommissioningreplica.success.count**
(count) | Número de eliminaciones exitosas de réplicas por desmantelamiento procesadas por la cola de replicación|
+| **cockroachdb.queue.replicate.removedecommissioningvoterreplica.count**
(count) | Número de eliminaciones de réplicas votantes por desmantelamiento intentadas por la cola de replicación (normalmente en respuesta a la interrupción de un nodo)|
+| **cockroachdb.queue.replicate.removelearnerreplica.count**
(count) | Número de eliminaciones de réplicas de aprendiz intentadas por la cola de replicación (normalmente debido a condiciones de carrera internas)|
+| **cockroachdb.queue.replicate.removenonvoterreplica.count**
(count) | Número de eliminaciones de réplicas no votantes intentadas por la cola de replicación (normalmente en respuesta a una adición iniciada por un rebalanceador)|
+| **cockroachdb.queue.replicate.removereplica**
(count) | [OpenMetrics v1\] Número de eliminaciones de réplicas intentadas por la cola de replicación (normalmente en respuesta a una adición iniciada por un rebalanceador)|
+| **cockroachdb.queue.replicate.removereplica.count**
(count) | \[OpenMetrics v2\] Número de eliminaciones de réplicas intentadas por la cola de replicación (normalmente en respuesta a una adición iniciada por un rebalanceador)|
+| **cockroachdb.queue.replicate.removereplica.error.count**
(count) | Número de eliminaciones de réplicas fallidas procesadas por la cola de replicación|
+| **cockroachdb.queue.replicate.removereplica.success.count**
(count) | Número de eliminaciones exitosas de réplicas procesadas por la cola de replicación|
+| **cockroachdb.queue.replicate.removevoterreplica.count**
(count) | Número de eliminaciones de réplicas votantes intentadas por la cola de replicación (normalmente en respuesta a una adición iniciada por un rebalanceador)|
+| **cockroachdb.queue.replicate.replacedeadreplica.error.count**
(count) | Número de sustituciones de réplicas muertas fallidas procesadas por la cola de replicación|
+| **cockroachdb.queue.replicate.replacedeadreplica.success.count**
(count) | Número de sustituciones exitosas de réplicas muertas procesadas por la cola de replicación|
+| **cockroachdb.queue.replicate.replacedecommissioningreplica.error.count**
(count) | Número de sustituciones de réplicas por desmantelamiento fallidas procesadas por la cola de replicación|
+| **cockroachdb.queue.replicate.replacedecommissioningreplica.success.count**
(count) | Número de sustituciones exitosas de réplicas por desmantelamiento procesadas por la cola de replicación|
+| **cockroachdb.queue.replicate.transferlease**
(count) | \[OpenMetrics v1\] Número de transferencias de arrendamientos intentadas por la cola de replicación|
+| **cockroachdb.queue.replicate.transferlease.count**
(count) | \[OpenMetrics v2\] Número de transferencias de arrendamientos intentadas por la cola de replicación|
+| **cockroachdb.queue.replicate.voterdemotions.count**
(count) | Número de votantes degradados a no votantes por la cola de replicación|
+| **cockroachdb.queue.split.load_based.count**
(count) | Número de divisiones de rango debidas a que un rango es superior a la carga máxima de rango configurada|
+| **cockroachdb.queue.split.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas pendientes en la cola dividida|
+| **cockroachdb.queue.split.process.failure**
(count) | \[OpenMetrics v1\] Número de réplicas cuyo procesamiento falló en la cola dividida|
+| **cockroachdb.queue.split.process.failure.count**
(count) | \[OpenMetrics v2\] Número de réplicas cuyo procesamiento falló en la cola dividida|
+| **cockroachdb.queue.split.process.success**
(count) | \[OpenMetrics v1\] Número de réplicas procesadas con éxito por la cola dividida|
+| **cockroachdb.queue.split.process.success.count**
(count) | \[OpenMetrics v2\] Número de réplicas procesadas con éxito por la cola dividida|
+| **cockroachdb.queue.split.processingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a procesar réplicas en la cola dividida
_Se muestra como nanosegundo_ |
+| **cockroachdb.queue.split.processingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a procesar réplicas en la cola dividida
_Se muestra como nanosegundo_ |
+| **cockroachdb.queue.split.purgatory**
(gauge) | Número de réplicas en el purgatorio de la cola dividida, esperando a ser divisibles|
+| **cockroachdb.queue.split.size_based.count**
(count) | Número de divisiones de rangos debidas a que un rango es mayor que el tamaño máximo de rango configurado|
+| **cockroachdb.queue.split.span_config_based.count**
(count) | Número de divisiones de rangos debidas debidas a la configuración de tramos|
+| **cockroachdb.queue.tsmaintenance.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas pendientes en la cola de mantenimiento de series temporales|
+| **cockroachdb.queue.tsmaintenance.process.failure**
(count) | \[OpenMetrics v1\] Número de réplicas cuyo procesamiento falló en la cola de mantenimiento de series temporales|
+| **cockroachdb.queue.tsmaintenance.process.failure.count**
(count) | \[OpenMetrics v2\] Número de réplicas cuyo procesamiento falló en la cola de mantenimiento de series temporales|
+| **cockroachdb.queue.tsmaintenance.process.success**
(count) | \[OpenMetrics v1\] Número de réplicas procesadas con éxito por la cola de mantenimiento de series temporales|
+| **cockroachdb.queue.tsmaintenance.process.success.count**
(count) | \[OpenMetrics v2\] Número de réplicas procesadas con éxito por la cola de mantenimiento de series temporales|
+| **cockroachdb.queue.tsmaintenance.processingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a procesar réplicas en la cola de mantenimiento de series temporales
_Se muestra como nanosegundo_ |
+| **cockroachdb.queue.tsmaintenance.processingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a procesar réplicas en la cola de mantenimiento de series temporales
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.commands.proposed.count**
(count) | Número de comandos Raft propuestos. El número de proposiciones y repeticiones de proposiciones realizadas por los arrendatarios. Esta métrica aproxima el número de comandos enviados a través de Raft.|
+| **cockroachdb.raft.commands.reproposed.new_lai.count**
(count) | Número de comandos Raft nuevamente propuestos con un nuevo LAI. Número de comandos Raft que los arrendatarios volvieron a proponer con un nuevo LAI. Estas nuevas propuestas se producen en el caso de comandos confirmados en Raft más allá de la orden deseada y que, por lo tanto, no pueden aplicarse tal cual.|
+| **cockroachdb.raft.commands.reproposed.unchanged.count**
(count) | Número de comandos Raft nuevamente propuestos sin modificaciones. Número de comandos Raft que los arrendatarios volvieron a proponer sin modificaciones. Estas nuevas propuestas se producen en el caso de comandos no confirmados/no aplicados sin tiempo de inactividad y que, por lo tanto, corren un elevado riesgo de descartarse.|
+| **cockroachdb.raft.commandsapplied**
(count) | \[OpenMetrics v1\] Recuento de comandos Raft aplicados
_Se muestra como comando_ |
+| **cockroachdb.raft.commandsapplied.count**
(count) | \[OpenMetrics v2\] Recuento de comandos Raft aplicados
_Se muestra como comando_ |
+| **cockroachdb.raft.dropped.count**
(count) | Número de propuestas Raft descartadas (se cuenta cada raftpb.Entry, no raftpb.MsgProp)|
+| **cockroachdb.raft.dropped_leader.count**
(count) | Número de propuestas Raft lanzadas por una réplica que se considera líder. Cada actualización también incrementa `raft.dropped` (esto cuenta raftpb.Entry individuales, no raftpb.MsgProp)|
+| **cockroachdb.raft.enqueued.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de mensajes salientes pendientes en la cola de Raft Transport|
+| **cockroachdb.raft.entrycache.accesses.count**
(count) | Número de búsquedas en la caché de entradas Raft|
+| **cockroachdb.raft.entrycache.bytes**
(gauge) | Tamaño agregado de todas las entradas Raft en la caché de entradas Raft
_Se muestra como byte_ |
+| **cockroachdb.raft.entrycache.hits.count**
(count) | Número de búsquedas correctas en la caché de entradas Raft|
+| **cockroachdb.raft.entrycache.read_bytes.count**
(count) | Contador de bytes en entradas devueltas desde la caché de entradas Raft
_Se muestra como byte_ |
+| **cockroachdb.raft.entrycache.size**
(gauge) | Número de entradas Raft en la caché de entradas Raft|
+| **cockroachdb.raft.heartbeats.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de latidos y respuestas pendientes a la espera de coalescer|
+| **cockroachdb.raft.process.applycommitted.latency.bucket**
(count) | Histograma de latencia para la aplicación de todos los comandos Raft confirmados en un Raft listo. Esto mide la latencia de extremo a extremo de la aplicación de todos los comandos en un Raft listo. Ten en cuenta que esto se cierra sobre posiblemente múltiples mediciones de la métrica 'raft.process.commandcommit.latency', que recibe puntos de datos para cada sublote procesado en el proceso.
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.applycommitted.latency.count**
(count) | Histograma de latencia para la aplicación de todos los comandos Raft confirmados en un Raft listo. Esto mide la latencia de extremo a extremo de la aplicación de todos los comandos en un Raft listo. Ten en cuenta que esto se cierra sobre posiblemente múltiples mediciones de la métrica 'raft.process.commandcommit.latency', que recibe puntos de datos para cada sublote procesado en el proceso.
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.applycommitted.latency.sum**
(count) | Histograma de latencia para la aplicación de todos los comandos Raft confirmados en un Raft listo. Esto mide la latencia de extremo a extremo de la aplicación de todos los comandos en un Raft listo. Ten en cuenta que esto se cierra sobre posiblemente múltiples mediciones de la métrica 'raft.process.commandcommit.latency', que recibe puntos de datos para cada sublote procesado en el proceso.
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.commandcommit.latency**
(gauge) | \[OpenMetrics v1\] Histograma de latencia en nanosegundos de la confirmación de comandos Raft
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.commandcommit.latency.bucket**
(count) | \[OpenMetrics v2\] Histograma de latencia en nanosegundos de la confirmación de comandos Raft
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.commandcommit.latency.count**
(count) | \[OpenMetrics v2\] Histograma de latencia en nanosegundos de la confirmación de comandos Raft
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.commandcommit.latency.sum**
(count) | \[OpenMetrics v2\] Histograma de latencia en nanosegundos de la confirmación de comandos Raft
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.handleready.latency.bucket**
(count) | Histograma de latencia para gestionar un Raft listo. Esto mide la latencia de extremo a extremo del bucle de avance del estado de Raft, incluyendo: aplicación de snapshots, ingesta de TSM, anexión duradera al log de Raft (es decir, incluye fsync), aplicación de entrada (incluye efectos secundarios replicados, en particular el truncamiento de logs).
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.handleready.latency.count**
(count) | Histograma de latencia para gestionar un Raft listo. Esto mide la latencia de extremo a extremo del bucle de avance del estado de Raft, incluyendo: aplicación de snapshots, ingesta de TSM, anexión duradera al log de Raft (es decir, incluye fsync), aplicación de entrada (incluye efectos secundarios replicados, en particular el truncamiento de logs).
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.handleready.latency.sum**
(count) | Histograma de latencia para gestionar un Raft listo. Esto mide la latencia de extremo a extremo del bucle de avance del estado de Raft, incluyendo: aplicación de snapshots, ingesta de TSM, anexión duradera al log de Raft (es decir, incluye fsync), aplicación de entrada (incluye efectos secundarios replicados, en particular el truncamiento de logs).
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.logcommit.latency**
(gauge) | \[OpenMetrics v1\] Histograma de latencia en nanosegundos para confirmar entradas de logs Raft
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.logcommit.latency.bucket**
(count) | \[OpenMetrics v2\] Histograma de latencia en nanosegundos para confirmar entradas de logs Raft
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.logcommit.latency.count**
(count) | \[OpenMetrics v2\] Histograma de latencia en nanosegundos para confirmar entradas de logs Raft
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.logcommit.latency.sum**
(count) | \[OpenMetrics v2\] Histograma de latencia en nanosegundos para confirmar entradas de logs Raft
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.tickingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a store.processRaft() procesando replica.Tick()
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.tickingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a store.processRaft() procesando replica.Tick()
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.workingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados al trabajo con store.processRaft()
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.process.workingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados al trabajo con store.processRaft()
_Se muestra como nanosegundo_ |
+| **cockroachdb.raft.quota_pool.percent_used.bucket**
(count) | Histograma de uso del grupo de cuotas de propuestas (0-100) por arrendatario e intervalo de métrica|
+| **cockroachdb.raft.quota_pool.percent_used.count**
(count) | Histograma de uso del grupo de cuotas de propuestas (0-100) por arrendatario e intervalo de métrica|
+| **cockroachdb.raft.quota_pool.percent_used.sum**
(count) | Histograma de uso del grupo de cuotas de propuestas (0-100) por arrendatario e intervalo de métrica|
+| **cockroachdb.raft.rcvd.app**
(count) | \[OpenMetrics v1\] Número de mensajes MsgApp recibidos por este almacén|
+| **cockroachdb.raft.rcvd.app.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgApp recibidos por este almacén|
+| **cockroachdb.raft.rcvd.appresp**
(count) | \[OpenMetrics v1\] Número de mensajes MsgAppResp recibidos por este almacén|
+| **cockroachdb.raft.rcvd.appresp.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgAppResp recibidos por este almacén|
+| **cockroachdb.raft.rcvd.bytes.count**
(count) | Número de bytes en mensajes Raft recibidos por este almacén. Ten en cuenta que esto no incluye el snapshot de Raft recibido.
_Se muestra como byte_ |
+| **cockroachdb.raft.rcvd.cross_region.bytes.count**
(count) | Número de bytes recibidos por este almacén para mensajes Raft entre regiones (cuando los niveles de región están configurados). Ten en cuenta que esto no incluye el snapshot de Raft recibido.
_Se muestra como byte_ |
+| **cockroachdb.raft.rcvd.cross_zone.bytes.count**
(count) | Número de bytes recibidos por este almacén para mensajes Raft entre zonas, de la misma región (cuando los niveles de región y zona están configurados). Si los niveles de región no están configurados, este recuento puede incluir datos enviados entre diferentes regiones.
_Se muestra como byte_ |
+| **cockroachdb.raft.rcvd.dropped**
(count) | \[OpenMetrics v1\] Número de mensajes Raft entrantes descartados|
+| **cockroachdb.raft.rcvd.dropped.count**
(count) | \[OpenMetrics v2\] Número de mensajes Raft entrantes descartados|
+| **cockroachdb.raft.rcvd.dropped_bytes.count**
(count) | Bytes de mensajes Raft entrantes descartados
_Se muestra como byte_ |
+| **cockroachdb.raft.rcvd.heartbeat**
(count) | \[OpenMetrics v1\] Número de mensajes MsgHeartbeat (coalescentes, si está activado) recibidos por este almacén|
+| **cockroachdb.raft.rcvd.heartbeat.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgHeartbeat (coalescentes, si está activado) recibidos por este almacén|
+| **cockroachdb.raft.rcvd.heartbeatresp**
(count) | \[OpenMetrics v1\] Número de mensajes MsgHeartbeatResp (coalescentes, si está activado) recibidos por este almacén|
+| **cockroachdb.raft.rcvd.heartbeatresp.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgHeartbeatResp (coalescentes, si está activado) recibidos por este almacén|
+| **cockroachdb.raft.rcvd.prevote**
(count) | \[OpenMetrics v1\] Número de mensajes MsgPreVote recibidos por este almacén|
+| **cockroachdb.raft.rcvd.prevote.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgPreVote recibidos por este almacén|
+| **cockroachdb.raft.rcvd.prevoteresp**
(count) | \[OpenMetrics v1\] Número de mensajes MsgPreVoteResp recibidos por este almacén|
+| **cockroachdb.raft.rcvd.prevoteresp.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgPreVoteResp recibidos por este almacén|
+| **cockroachdb.raft.rcvd.prop**
(count) | \[OpenMetrics v1\] Número de mensajes MsgProp recibidos por este almacén|
+| **cockroachdb.raft.rcvd.prop.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgProp recibidos por este almacén|
+| **cockroachdb.raft.rcvd.queued_bytes**
(gauge) | Número de bytes en mensajes actualmente en espera de procesamiento Raft
_Se muestra como byte_ |
+| **cockroachdb.raft.rcvd.snap**
(count) | \[OpenMetrics v1\] Número de mensajes MsgSnap recibidos por este almacén|
+| **cockroachdb.raft.rcvd.snap.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgSnap recibidos por este almacén|
+| **cockroachdb.raft.rcvd.stepped_bytes.count**
(count) | Número de bytes en mensajes procesados por Raft. Los mensajes reflejados aquí fueron entregados a Raft (vía RawNode.step). Esto no implica que los mensajes ya no se conserven en la memoria o que se haya realizado una E/S.
_Se muestra como byte_ |
+| **cockroachdb.raft.rcvd.timeoutnow**
(count) | \[OpenMetrics v1\] Número de mensajes MsgTimeoutNow recibidos por este almacén|
+| **cockroachdb.raft.rcvd.timeoutnow.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgTimeoutNow recibidos por este almacén|
+| **cockroachdb.raft.rcvd.transferleader**
(count) | \[OpenMetrics v1\] Número de mensajes MsgTransferLeader recibidos por este almacén|
+| **cockroachdb.raft.rcvd.transferleader.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgTransferLeader recibidos por este almacén|
+| **cockroachdb.raft.rcvd.vote**
(count) | \[OpenMetrics v1\] Número de mensajes MsgVote recibidos por este almacén|
+| **cockroachdb.raft.rcvd.vote.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgVote recibidos por este almacén|
+| **cockroachdb.raft.rcvd.voteresp**
(count) | \[OpenMetrics v1\] Número de mensajes MsgVoteResp recibidos por este almacén|
+| **cockroachdb.raft.rcvd.voteresp.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgVoteResp recibidos por este almacén|
+| **cockroachdb.raft.replication.latency.bucket**
(count) | Tiempo transcurrido entre la evaluación de una BatchRequest y su reflejo en la máquina de estado del proponente (es decir, su aplicación completa). Esto incluye el tiempo transcurrido en el grupo de cuotas, en la replicación (incluidas las propuestas) y en la aplicación, pero en particular *no* la latencia de secuenciación (es decir, la contención y la adquisición de latch).|
+| **cockroachdb.raft.replication.latency.count**
(count) | Tiempo transcurrido entre la evaluación de una BatchRequest y su reflejo en la máquina de estado del proponente (es decir, su aplicación completa). Esto incluye el tiempo transcurrido en el grupo de cuotas, en la replicación (incluidas las propuestas) y en la aplicación, pero en particular *no* la latencia de secuenciación (es decir, la contención y la adquisición de latch).|
+| **cockroachdb.raft.replication.latency.sum**
(count) | Tiempo transcurrido entre la evaluación de una BatchRequest y su reflejo en la máquina de estado del proponente (es decir, su aplicación completa). Esto incluye el tiempo transcurrido en el grupo de cuotas, en la replicación (incluidas las propuestas) y en la aplicación, pero en particular *no* la latencia de secuenciación (es decir, la contención y la adquisición de latch).|
+| **cockroachdb.raft.scheduler.latency**
(count) | Duraciones de las colas de rangos que esperan ser procesados. Este histograma mide el tiempo que transcurre desde que un rango se registra en el programador para su procesamiento hasta que se procesa realmente. No incluye la duración del procesamiento.
_Se muestra como nanosegundos_ |
+| **cockroachdb.raft.scheduler.latency.bucket**
(count) | Duraciones de las colas de rangos que esperan ser procesados. Este histograma mide el tiempo que transcurre desde que un rango se registra en el programador para su procesamiento hasta que se procesa realmente. No incluye la duración del procesamiento.
_Se muestra como nanosegundos_ |
+| **cockroachdb.raft.scheduler.latency.count**
(count) | Duraciones de las colas de rangos que esperan ser procesados. Este histograma mide el tiempo que transcurre desde que un rango se registra en el programador para su procesamiento hasta que se procesa realmente. No incluye la duración del procesamiento.
_Se muestra como nanosegundos_ |
+| **cockroachdb.raft.scheduler.latency.sum**
(count) | Duraciones de las colas de rangos que esperan ser procesados. Este histograma mide el tiempo que transcurre desde que un rango se registra en el programador para su procesamiento hasta que se procesa realmente. No incluye la duración del procesamiento.
_Se muestra como nanosegundos_ |
+| **cockroachdb.raft.sent.bytes.count**
(count) | Número de bytes en mensajes Raft enviados por este almacén. Ten en cuenta que esto no incluye el snapshot Raft enviado.
_Se muestra como byte_ |
+| **cockroachdb.raft.sent.cross_region.bytes.count**
(count) | Número de bytes enviados por este almacén para mensajes Raft entre regiones (cuando los niveles de región están configurados). Ten en cuenta que esto no incluye el snapshot de Raft enviado.
_Se muestra como byte_ |
+| **cockroachdb.raft.sent.cross_zone.bytes.count**
(count) | Número de bytes enviados por este almacén para mensajes Raft entre zonas, de la misma región (cuando los niveles de región y zona están configurados). Si los niveles de región no están configurados, este recuento puede incluir datos enviados entre diferentes regiones. Para garantizar una monitorización precisa de los datos transmitidos, es importante definir una configuración de localidad coherente en todos los nodos. Ten en cuenta que esto no incluye el snapshot Raft enviado.
_Se muestra como byte_ |
+| **cockroachdb.raft.storage.read_bytes.count**
(count) | Contador de raftpb.Entry.Size() leídos desde pebble para las entradas de logs Raft. Son los bytes devueltos por (raft.Storage). Método de entradas que no fueron devueltas a través de la caché de entradas Raft. Esta métrica más la métrica raft.entrycache.read_bytes representan el total de bytes devueltos por el método de entradas.
_Se muestra como byte_ |
+| **cockroachdb.raft.ticks**
(count) | \[OpenMetrics v1\] Número de ticks Raft en cola|
+| **cockroachdb.raft.ticks.count**
(count) | \[OpenMetrics v2\] Número de ticks Raft en cola|
+| **cockroachdb.raft.timeoutcampaign.count**
(count) | Número de réplicas Raft en campaña tras la pérdida de latidos del líder|
+| **cockroachdb.raft.transport.flow_token_dispatches_dropped.count**
(count) | Número de envíos de tokens de flujo descartados por el Raft Transport|
+| **cockroachdb.raft.transport.rcvd.count**
(count) | Número de mensajes Raft recibidos por el Raft Transport|
+| **cockroachdb.raft.transport.reverse_rcvd.count**
(count) | Mensajes recibidos desde la dirección inversa de un flujo. Estos mensajes deberían ser poco frecuentes. Son principalmente informativos, y no son respuestas reales a los mensajes Raft. Las respuestas se reciben a través de otro flujo.|
+| **cockroachdb.raft.transport.reverse_sent.count**
(count) | Mensajes enviados en la dirección inversa de un flujo. Estos mensajes deberían ser poco frecuentes. Son principalmente informativos, y no son respuestas reales a los mensajes Raft. Las respuestas se envían a través de otro flujo.|
+| **cockroachdb.raft.transport.send_queue_bytes**
(gauge) | Tamaño total en bytes de los mensajes salientes pendientes en la cola. La cola se compone de varios canales delimitados asociados a diferentes pares. Un tamaño superior a la línea de base media podría indicar problemas de transmisión de mensajes al menos a un par. Utiliza esta métrica junto con send-queue-size para tener una visión más completa.
_Se muestra como byte_ |
+| **cockroachdb.raft.transport.send_queue_size**
(gauge) | Número de mensajes salientes pendientes en la cola de Raft Transport. La cola se compone de varios canales delimitados asociados a diferentes pares. El tamaño total de decenas de miles podría indicar problemas de transmisión de mensajes al menos a un par. Utiliza esta métrica junto con withsend-queue-bytes.|
+| **cockroachdb.raft.transport.sends_dropped.count**
(count) | Número de envíos de mensajes Raft descartados por el Raft Transport|
+| **cockroachdb.raft.transport.sent.count**
(count) | Número de mensajes Raft enviados por el Raft Transport|
+| **cockroachdb.raftlog.behind**
(gauge) | \[OpenMetrics v1 y v2\] Un número de seguidores de entradas de logs Raft en otros almacenes están detrás
_Se muestra como entrada_ |
+| **cockroachdb.raftlog.truncated**
(count) | \[OpenMetrics v1\] Número de entradas de logs Raft truncadas
_Se muestra como entrada_ |
+| **cockroachdb.raftlog.truncated.count**
(count) | \[OpenMetrics v2\] Número de entradas de logs Raft truncadas
_Se muestra como entrada_ |
+| **cockroachdb.range.adds**
(count) | \[OpenMetrics v1\] Número de adiciones de rangos|
+| **cockroachdb.range.adds.count**
(count) | \[OpenMetrics v2\] Número de adiciones de rangos|
+| **cockroachdb.range.merges.count**
(count) | Número de fusiones de rangos|
+| **cockroachdb.range.raftleaderremovals.count**
(count) | Número de veces que el líder Raft actual fue eliminado de un rango|
+| **cockroachdb.range.raftleadertransfers**
(count) | \[OpenMetrics v1\] Número de transferencias de líderes Raft|
+| **cockroachdb.range.raftleadertransfers.count**
(count) | \[OpenMetrics v2\] Número de transferencias de líderes Raft|
+| **cockroachdb.range.recoveries.count**
(count) | Recuento de operaciones de recuperación de pérdida de quórum sin conexión realizadas en rangos. Este recuento aumenta por cada rango recuperado en una operación de recuperación de pérdida de quórum sin conexión. La métrica se actualiza cuando el nodo en el que se encuentra la réplica superviviente se inicia tras la recuperación.|
+| **cockroachdb.range.removes**
(count) | \[OpenMetrics v1\] Número de eliminaciones de rangos|
+| **cockroachdb.range.removes.count**
(count) | \[OpenMetrics v2\] Número de eliminaciones de rangos|
+| **cockroachdb.range.snapshots.applied_initial.count**
(count) | Número de snapshots aplicados para la replicación inicial|
+| **cockroachdb.range.snapshots.applied_non_voter.count**
(count) | Número de snapshots aplicados por réplicas no votantes|
+| **cockroachdb.range.snapshots.applied_voter.count**
(count) | Número de snapshots aplicados por las réplicas votantes|
+| **cockroachdb.range.snapshots.cross_region.rcvd_bytes.count**
(count) | Número de bytes de snapshots recibidos entre regiones
_Se muestra como byte_ |
+| **cockroachdb.range.snapshots.cross_region.sent_bytes.count**
(count) | Número de bytes de snapshots enviados entre regiones
_Se muestra como byte_ |
+| **cockroachdb.range.snapshots.cross_zone.rcvd_bytes.count**
(count) | Número de bytes de snapshots recibidos entre zonas dentro de la misma región o si los niveles de región no están configurados. Este recuento aumenta por cada snapshot recibido entre zonas diferentes dentro de la misma región. Sin embargo, si los niveles de región no están configurados, este recuento también puede incluir datos de snapshots recibidos entre diferentes regiones.
_Se muestra como byte_ |
+| **cockroachdb.range.snapshots.cross_zone.sent_bytes.count**
(count) | Número de bytes de snapshots enviados entre zonas dentro de la misma región o si los niveles de región no están configurados. Este recuento aumenta por cada snapshot enviado entre zonas diferentes dentro de la misma región. Sin embargo, si los niveles de región no están configurados, este recuento también puede incluir datos de snapshots enviados entre diferentes regiones.
_Se muestra como byte_ |
+| **cockroachdb.range.snapshots.delegate.failures.count**
(count) | Número de snapshots delegados a un nodo diferente y que resultaron en un fallo en ese delegado. Existen numerosas razones por las que puede producirse un fallo en un delegado, como que se agote el tiempo de espera, que el log Raft delegado esté demasiado atrasado o que el delegado esté demasiado ocupado para enviar.|
+| **cockroachdb.range.snapshots.delegate.in_progress**
(gauge) | Número de snapshots delegados que están actualmente en curso|
+| **cockroachdb.range.snapshots.delegate.sent_bytes.count**
(count) | Bytes enviados mediante un delegado. El número de bytes enviados como resultado de una solicitud de snapshot delegado que se originó en un nodo diferente. Esta métrica es útil para evaluar el ahorro de red que supone no enviar tráfico entre regiones.
_Se muestra como byte_ |
+| **cockroachdb.range.snapshots.delegate.successes.count**
(count) | Número de snapshots delegados a un nodo diferente y que fueron exitosas en ese delegado. No se tienen en cuenta los snapshots autodelegados.|
+| **cockroachdb.range.snapshots.generated**
(count) | \[OpenMetrics v1\] Número de snapshots generados|
+| **cockroachdb.range.snapshots.generated.count**
(count) | \[OpenMetrics v2\] Número de snapshots generados|
+| **cockroachdb.range.snapshots.normal_applied**
(count) | \[OpenMetrics v1\] Número de snapshots aplicados|
+| **cockroachdb.range.snapshots.normal_applied.count**
(count) | \[OpenMetrics v2\] Número de snapshots aplicados|
+| **cockroachdb.range.snapshots.preemptive_applied**
(count) | \[OpenMetrics v1\] Número de snapshots preventivos aplicados|
+| **cockroachdb.range.snapshots.preemptive_applied.count**
(count) | \[OpenMetrics v2\] Número de snapshots preventivos aplicados|
+| **cockroachdb.range.snapshots.rcvd_bytes.count**
(count) | Número de bytes de snapshots recibidos
_Se muestra como byte_ |
+| **cockroachdb.range.snapshots.rebalancing.rcvd_bytes.count**
(count) | Número de bytes de snapshots de rebalanceo recibidos
_Se muestra como byte_ |
+| **cockroachdb.range.snapshots.rebalancing.sent_bytes.count**
(count) | Número de bytes de snapshots de rebalanceo enviados
_Se muestra como byte_ |
+| **cockroachdb.range.snapshots.recovery.rcvd_bytes.count**
(count) | Número de bytes de snapshots de recuperación recibidos
_Se muestra como byte_ |
+| **cockroachdb.range.snapshots.recovery.sent_bytes.count**
(count) | Número de bytes de snapshots de recuperación enviados
_Se muestra como byte_ |
+| **cockroachdb.range.snapshots.recv_failed.count**
(count) | Número de mensajes de inicialización de snapshots de rangos que fallaron en el destinatario, normalmente antes de que se transfiera ningún dato|
+| **cockroachdb.range.snapshots.recv_in_progress**
(gauge) | Número de snapshots no vacíos que se reciben|
+| **cockroachdb.range.snapshots.recv_queue**
(gauge) | Número de snapshots en cola para recibir|
+| **cockroachdb.range.snapshots.recv_queue_bytes**
(gauge) | Tamaño total de todos los snapshots en la cola de recepción de snapshots
_Se muestra como byte_ |
+| **cockroachdb.range.snapshots.recv_total_in_progress**
(gauge) | Número total de snapshots recibidos|
+| **cockroachdb.range.snapshots.recv_unusable.count**
(count) | Número de snapshots de rangos que se transmitieron en su totalidad pero se determinó que eran innecesarios o inutilizables|
+| **cockroachdb.range.snapshots.send_in_progress**
(gauge) | Número de snapshots no vacíos que se envían|
+| **cockroachdb.range.snapshots.send_queue**
(gauge) | Número de snapshots en cola para enviar|
+| **cockroachdb.range.snapshots.send_queue_bytes**
(indicador) | Tamaño total de todos los snapshots en la cola de envío de snapshots
_Se muestra como byte_ |
+| **cockroachdb.range.snapshots.send_total_in_progress**
(gauge) | Número total de snapshots enviados|
+| **cockroachdb.range.snapshots.sent_bytes.count**
(count) | Número de bytes de snapshots enviados
_Se muestra como byte_ |
+| **cockroachdb.range.snapshots.unknown.rcvd_bytes.count**
(count) | Número de bytes de snapshots desconocidos recibidos
_Se muestra como byte_ |
+| **cockroachdb.range.snapshots.unknown.sent_bytes.count**
(count) | Número de bytes de snapshots desconocidos enviados
_Se muestra como byte_ |
+| **cockroachdb.range.splits.count**
(count) | Número de divisiones de rangos|
+| **cockroachdb.range.splits.total**
(count) | \[OpenMetrics v1\] Número de divisiones de rangos|
+| **cockroachdb.range.splits.total.count**
(count) | \[OpenMetrics v2\] Número de divisiones de rangos|
+| **cockroachdb.rangekeybytes**
(gauge) | Número de bytes ocupados por las claves de rango (por ejemplo, lápidas de rango MVCC)
_Se muestra como byte_ |
+| **cockroachdb.rangekeycount**
(gauge) | Recuento de todas las claves de rango (por ejemplo, lápidas de rango MVCC)|
+| **cockroachdb.ranges**
(gauge) | \[OpenMetrics v1 y v2\] Número de rangos|
+| **cockroachdb.ranges.overreplicated**
(gauge) | \[OpenMetrics v1 y v2\] Número de rangos con más réplicas vivas que el objetivo de replicación|
+| **cockroachdb.ranges.unavailable**
(gauge) | \[OpenMetrics v1 y v2\] Número de rangos con menos réplicas vivas de las necesarias para el quórum|
+| **cockroachdb.ranges.underreplicated**
(calibre) | \[OpenMetrics v1 y v2\] Número de rangos con menos réplicas vivas que el objetivo de replicación|
+| **cockroachdb.rangevalbytes**
(gauge) | Número de bytes ocupados por valores claves de rangos (por ejemplo, lápidas del rango MVCC)
_Se muestra como byte_ |
+| **cockroachdb.rangevalcount**
(gauge) | Recuento de todos los valores clave de rangos (por ejemplo, lápidas del rango MVCC)|
+| **cockroachdb.rebalancing.cpunanospersecond**
(gauge) | Promedio de nanosegundos de CPU dedicados a procesar operaciones de replicación en los últimos 30 minutos.
_Se muestra como nanosegundo_ |
+| **cockroachdb.rebalancing.lease.transfers.count**
(count) | Número de transferencias de arrendatarios por desequilibrios de carga a nivel del almacén|
+| **cockroachdb.rebalancing.queriespersecond**
(gauge) | Número de solicitudes a nivel de KV recibidas por segundo por el almacén, promediadas a lo largo de un periodo de tiempo amplio, tal y como se utiliza en las decisiones de rebalanceo|
+| **cockroachdb.rebalancing.range.rebalances.count**
(count) | Número de operaciones de rebalanceo de rangos motivadas por desequilibrios de carga a nivel del almacén|
+| **cockroachdb.rebalancing.readbytespersecond**
(indicador) | Número de bytes leídos recientemente por segundo, considerando los últimos 30 minutos.
_Se muestra como byte_ |
+| **cockroachdb.rebalancing.readspersecond**
(gauge) | Número de claves leídas recientemente por segundo, considerando los últimos 30 minutos.|
+| **cockroachdb.rebalancing.replicas.cpunanospersecond.bucket**
(count) | Histograma de la media de nanosegundos de CPU dedicados a procesar operaciones de replicación en los últimos 30 minutos.
_Se muestra como nanosegundo_ |
+| **cockroachdb.rebalancing.replicas.cpunanospersecond.count**
(count) | Histograma de la media de nanosegundos de CPU dedicados a procesar operaciones de réplica en los últimos 30 minutos.
_Se muestra como nanosegundo_ |
+| **cockroachdb.rebalancing.replicas.cpunanospersecond.sum**
(count) | Histograma de la media de nanosegundos de CPU dedicados a procesar operaciones de réplica en los últimos 30 minutos.
_Se muestra como nanosegundo_ |
+| **cockroachdb.rebalancing.replicas.queriespersecond.bucket**
(count) | Histograma del promedio de solicitudes a nivel de KV recibidas por segundo por réplicas del almacén en los últimos 30 minutos.|
+| **cockroachdb.rebalancing.replicas.queriespersecond.count**
(count) | Histograma del promedio de solicitudes a nivel de KV recibidas por segundo por réplicas del almacén en los últimos 30 minutos.|
+| **cockroachdb.rebalancing.replicas.queriespersecond.sum**
(count) | Histograma del promedio de solicitudes a nivel de KV recibidas por segundo por réplicas del almacén en los últimos 30 minutos.|
+| **cockroachdb.rebalancing.requestspersecond**
(gauge) | Número de solicitudes recibidas recientemente por segundo, considerando los últimos 30 minutos|
+| **cockroachdb.rebalancing.state.imbalanced_overfull_options_exhausted.count**
(count) | Número de ocasiones en las que este almacén estuvo sobrecargado pero no consiguió eliminar la carga tras agotar las opciones de rebalanceo disponibles|
+| **cockroachdb.rebalancing.writebytespersecond**
(gauge) | Número de bytes escritos recientemente por segundo, considerando los últimos 30 minutos.
_Se muestra como byte_ |
+| **cockroachdb.rebalancing.writespersecond**
(gauge) | \[OpenMetrics v1 y v2\] Número de claves escritas (es decir, aplicadas por Raft) por segundo en el almacén, promediado durante un largo período de tiempo como se utiliza en las decisiones de rebalanceo
_Se muestra como clave_ |
+| **cockroachdb.replicas**
(gauge) | Número de réplicas|
+| **cockroachdb.replicas.commandqueue.combinedqueuesize**
(gauge) | \[OpenMetrics v1 y v2\] Número de comandos en todas las CommandQueues combinadas
_Se muestra como comando_ |
+| **cockroachdb.replicas.commandqueue.combinedreadcount**
(gauge) | \[OpenMetrics v1 y v2\] Número de comandos de solo lectura en todas las CommandQueues combinadas
_Se muestra como comando_ |
+| **cockroachdb.replicas.commandqueue.combinedwritecount**
(gauge) | \[OpenMetrics v1 y v2\] Número de comandos de lectura-escritura en todas las CommandQueues combinadas
_Se muestra como comando_ |
+| **cockroachdb.replicas.commandqueue.maxoverlaps**
(gauge) | \[OpenMetrics v1 y v2\] Mayor número de comandos superpuestos vistos al añadir a cualquier CommandQueue
_Se muestra como comando_ |
+| **cockroachdb.replicas.commandqueue.maxreadcount**
(gauge) | \[OpenMetrics v1 y v2\] Mayor número de comandos de solo lectura en cualquier CommandQueue
_Se muestra como comando_ |
+| **cockroachdb.replicas.commandqueue.maxsize**
(gauge) | \[OpenMetrics v1 y v2\] Mayor número de comandos en cualquier CommandQueue
_Se muestra como comando_ |
+| **cockroachdb.replicas.commandqueue.maxtreesize**
(gauge) | \[OpenMetrics v1 y v2\] Mayor número de intervalos en cualquier árbol de intervalos de CommandQueue|
+| **cockroachdb.replicas.commandqueue.maxwritecount**
(gauge) | \[OpenMetrics v1 y v2\] Mayor número de comandos de lectura-escritura en cualquier CommandQueue
_Se muestra como comando_ |
+| **cockroachdb.replicas.leaders**
(gauge) | \[OpenMetrics v1 y v2\] Número de líderes Raft|
+| **cockroachdb.replicas.leaders.not_leaseholders**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas que son líderes Raft cuyo arrendamiento de rangos está en manos de otro almacén|
+| **cockroachdb.replicas.leaders_invalid_lease**
(gauge) | Número de réplicas que son líderes Raft cuyo arrendamiento no es válido|
+| **cockroachdb.replicas.leaders_not_leaseholders**
(gauge) | Número de réplicas que son líderes Raft cuyo arrendamiento de rangos está en manos de otro almacén|
+| **cockroachdb.replicas.leaseholders**
(gauge) | \[OpenMetrics v1 y v2\] Número de arrendatarios|
+| **cockroachdb.replicas.quiescent**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas en reposo|
+| **cockroachdb.replicas.reserved**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas reservadas para snapshots|
+| **cockroachdb.replicas.total**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas|
+| **cockroachdb.replicas.uninitialized**
(gauge) | Número de réplicas no inicializadas. No incluye las réplicas no inicializadas que pueden permanecer latentes en un estado persistente.|
+| **cockroachdb.requests.backpressure.split**
(gauge) | \[OpenMetrics v1 y v2\] Número de escrituras con contrapresión a la espera en una división de rango|
+| **cockroachdb.requests.slow.commandqueue**
(gauge) | \[OpenMetrics v1 y v2\] Número de solicitudes que llevan mucho tiempo atascadas en la cola de comandos
_Se muestra como solicitud_ |
+| **cockroachdb.requests.slow.distsender**
(gauge) | \[OpenMetrics v1 y v2\] Número de solicitudes que llevan mucho tiempo atascadas en la cola de comandos
_Se muestra como solicitud_ |
+| **cockroachdb.requests.slow.latch**
(indicador) | Número de solicitudes que han estado atascadas durante mucho tiempo adquiriendo latches. Los latches moderan el acceso al espacio de claves KV con el fin de evaluar y replicar comandos. Un intento lento de adquisición de latches suele deberse a que otra solicitud retiene y no libera sus latches a tiempo.|
+| **cockroachdb.requests.slow.lease**
(gauge) | \[OpenMetrics v1 y v2\] Número de solicitudes que llevan mucho tiempo atascadas adquiriendo un arrendamiento
_Se muestra como solicitud_ |
+| **cockroachdb.requests.slow.raft**
(indicador) | \[OpenMetrics v1 y v2\] Número de solicitudes que llevan mucho tiempo atascadas en Raft
_Se muestra como solicitud_ |
+| **cockroachdb.rocksdb.block.cache.hits**
(gauge) | \[OpenMetrics v1 y v2\] Recuento de accesos a la caché de bloques|
+| **cockroachdb.rocksdb.block.cache.misses**
(gauge) | \[OpenMetrics v1 y v2\] Recuento de fallos en la caché de bloques|
+| **cockroachdb.rocksdb.block.cache.pinned.usage**
(gauge) | \[OpenMetrics v1 y v2\] Bytes fijados por la caché de bloques
_Se muestra como byte_ |
+| **cockroachdb.rocksdb.block.cache.usage**
(gauge) | \[OpenMetrics v1 y v2\] Bytes utilizados por la caché de bloques
_Se muestra como byte_ |
+| **cockroachdb.rocksdb.bloom.filter.prefix.checked**
(gauge) | Número de veces que se comprobó el filtro de Bloom|
+| **cockroachdb.rocksdb.bloom.filter.prefix.useful**
(gauge) | Número de veces que el filtro de Bloom ayudó a evitar la creación de iteradores|
+| **cockroachdb.rocksdb.bloom_filter.prefix.checked**
(indicador) | \[OpenMetrics v1 y v2\] Número de veces que se comprobó el filtro de Bloom|
+| **cockroachdb.rocksdb.bloom_filter.prefix.useful**
(gauge) | \[OpenMetrics v1 y v2\] Número de veces que el filtro de Bloom ayudó a evitar la creación de iteradores|
+| **cockroachdb.rocksdb.compacted_bytes_read**
(gauge) | Bytes leídos durante la compactación
_Se muestra como byte_ |
+| **cockroachdb.rocksdb.compacted_bytes_written**
(gauge) | Bytes escritos durante la compactación
_Se muestra como byte_ |
+| **cockroachdb.rocksdb.compactions**
(gauge) | Número de compactaciones de tablas|
+| **cockroachdb.rocksdb.compactions.total**
(gauge) | \[OpenMetrics v1 y v2\] Número de compactaciones de tablas|
+| **cockroachdb.rocksdb.encryption.algorithm**
(gauge) | Algoritmo utilizado para el cifrado en reposo, consulta ccl/storageccl/engineccl/enginepbccl/key_registry.proto|
+| **cockroachdb.rocksdb.estimated_pending_compaction**
(gauge) | Bytes de compactación pendientes estimados
_Se muestra como byte_ |
+| **cockroachdb.rocksdb.flushed_bytes**
(gauge) | Bytes escritos durante la descarga
_Se muestra como byte_ |
+| **cockroachdb.rocksdb.flushes**
(gauge) | Número de descargas de tablas|
+| **cockroachdb.rocksdb.flushes.total**
(gauge) | \[OpenMetrics v1 y v2\] Número de descargas de tablas|
+| **cockroachdb.rocksdb.ingested_bytes**
(indicador) | Bytes ingeridos
_Se muestra como byte_ |
+| **cockroachdb.rocksdb.memtable.total.size**
(gauge) | \[OpenMetrics v1 y v2\] Tamaño actual de la memtable en bytes
_Se muestra como byte_ |
+| **cockroachdb.rocksdb.num_sstables**
(gauge) | \[OpenMetrics v1 y v2\] Número de SSTables rocksdb
_Se muestra como tabla_ |
+| **cockroachdb.rocksdb.read.amplification**
(gauge) | \[OpenMetrics v1 y v2\] Número de lecturas de disco por consulta
_Se muestra como lectura_ |
+| **cockroachdb.rocksdb.table.readers.mem.estimate**
(gauge) | \[OpenMetrics v1 y v2\] Memoria utilizada por los bloques de índice y filtro|
+| **cockroachdb.round_trip.latency**
(gauge) | \[OpenMetrics v1\] Distribución de latencias de ida y vuelta con otros nodos en nanosegundos
_Se muestra como nanosegundo_ |
+| **cockroachdb.round_trip.latency.bucket**
(count) | \[OpenMetrics v2\] Distribución de latencias de ida y vuelta con otros nodos en nanosegundos
_Se muestra como nanosegundo_ |
+| **cockroachdb.round_trip.latency.count**
(count) | \[OpenMetrics v2\] Distribución de latencias de ida y vuelta con otros nodos en nanosegundos
_Se muestra como nanosegundo_ |
+| **cockroachdb.round_trip.latency.sum**
(count) | \[OpenMetrics v2\] Distribución de latencias de ida y vuelta con otros nodos en nanosegundos
_Se muestra como nanosegundo_ |
+| **cockroachdb.round_trip_latency.bucket**
(count) | Distribución de latencias de ida y vuelta con otros nodos. Solo refleja los latidos exitosos y mide la sobrecarga de gRPC, así como posibles bloqueos de cabecera. Los valores elevados de esta métrica pueden indicar problemas o saturación de la red, pero no son prueba de ello. La sobrecarga de la CPU también puede elevar esta métrica
_Se muestra como nanosegundo_ |
+| **cockroachdb.round_trip_latency.count**
(count) | Distribución de latencias de ida y vuelta con otros nodos. Solo refleja los latidos exitosos y mide la sobrecarga de gRPC, así como posibles bloqueos de cabecera. Los valores elevados de esta métrica pueden indicar problemas o saturación de la red, pero no son prueba de ello. La sobrecarga de la CPU también puede elevar esta métrica
_Se muestra como nanosegundo_ |
+| **cockroachdb.round_trip_latency.sum**
(count) | Distribución de latencias de ida y vuelta con otros nodos. Solo refleja los latidos exitosos y mide la sobrecarga de gRPC, así como posibles bloqueos de cabecera. Los valores elevados de esta métrica pueden indicar problemas o saturación de la red, pero no son prueba de ello. La sobrecarga de la CPU también puede elevar esta métrica
_Se muestra como nanosegundo_ |
+| **cockroachdb.rpc.batches.recv.count**
(count) | Número de lotes procesados|
+| **cockroachdb.rpc.connection.avg_round_trip_latency**
(gauge) | Suma de la media móvil exponencialmente ponderada de las latencias de ida y vuelta, medidas a través de una RPC gRPC. Al dividir este indicador por rpc.connection.healthy se obtiene una aproximación de la latencia media, pero el histograma de latencias de ida y vuelta de nivel superior es más útil. En su lugar, los usuarios deberían consultar las familias de etiquetas de esta métrica si están disponibles.
_Se muestra como nanosegundo_ |
+| **cockroachdb.rpc.connection.failures.count**
(count) | Contador de conexiones fallidas. Esto incluye tanto el evento en el que una conexión saludable termina, como los intentos fallidos de reconexión. Se excluyen las conexiones que se terminan como parte del cierre de nodos locales. Se excluyen los pares dados de baja.|
+| **cockroachdb.rpc.connection.healthy**
(gauge) | Medición de las conexiones actuales en un estado saludable (es decir, conectadas bidireccionalmente y latiendo)|
+| **cockroachdb.rpc.connection.healthy_nanos**
(gauge) | Indicador de nanosegundos de tiempo de conexión saludable. En el endpoint de Prometheus con la configuración de clúster 'server.child_metrics.enabled', las partes constitutivas de esta métrica están disponibles por par y se puede leer el tiempo de conexión de un par concreto
_Se muestra como nanosegundo_. |
+| **cockroachdb.rpc.connection.heartbeats.count**
(count) | Contador de latidos exitosos|
+| **cockroachdb.rpc.connection.inactive**
(gauge) | Indicador de las conexiones actuales en estado inactivo y pendientes de eliminación. No son saludables, pero tampoco se rastrean como no saludables, ya que hay motivos para creer que la conexión ya no es relevante, por ejemplo, si desde entonces el nodo se ve con una nueva dirección.|
+| **cockroachdb.rpc.connection.unhealthy**
(gauge) | Indicador de conexiones actuales en estado no saludable (no conectadas bidireccionalmente o latiendo)|
+| **cockroachdb.rpc.connection (conexión).unhealthy_nanos**
(calibre) | Indicador de nanosegundos del tiempo de conexión no saludable. En el endpoint de Prometheus con la configuración de clúster 'server.child_metrics.enabled', las partes constitutivas de esta métrica están disponibles por par y se puede leer el tiempo que un par determinado ha permanecido inaccesible
_Se muestra como nanosegundo_ |
+| **cockroachdb.rpc.method.addsstable.recv.count**
(count) | Número de solicitudes AddSSTable procesadas|
+| **cockroachdb.rpc.method.adminchangereplicas.recv.count**
(count) | Número de solicitudes AdminChangeReplicas procesadas|
+| **cockroachdb.rpc.method.adminmerge.recv.count**
(count) | Número de solicitudes AdminMerge procesadas|
+| **cockroachdb.rpc.method.adminrelocaterange.recv.count**
(count) | Número de solicitudes AdminRelocateRange procesadas|
+| **cockroachdb.rpc.method.adminscatter.recv.count**
(count) | Número de solicitudes AdminScatter procesadas|
+| **cockroachdb.rpc.method.adminsplit.recv.count**
(count) | Número de solicitudes AdminSplit procesadas|
+| **cockroachdb.rpc.method.admintransferlease.recv.count**
(count) | Número de solicitudes AdminTransferLease procesadas|
+| **cockroachdb.rpc.method.adminunsplit.recv.count**
(count) | Número de solicitudes AdminUnsplit procesadas|
+| **cockroachdb.rpc.method.adminverifyprotectedtimestamp.recv.count**
(count) | Número de solicitudes AdminVerifyProtectedTimestamp procesadas|
+| **cockroachdb.rpc.method.barrier.recv.count**
(count) | Número de solicitudes Barrier procesadas|
+| **cockroachdb.rpc.method.checkconsistency.recv.count**
(count) | Número de solicitudes CheckConsistency procesadas|
+| **cockroachdb.rpc.method.clearrange.recv.count**
(count) | Número de solicitudes ClearRange procesadas|
+| **cockroachdb.rpc.method.computechecksum.recv.count**
(count) | Número de solicitudes ComputeChecksum procesadas|
+| **cockroachdb.rpc.method.conditionalput.recv.count**
(count) | Número de solicitudes ConditionalPut procesadas|
+| **cockroachdb.rpc.method.delete.recv.count**
(count) | Número de solicitudes Delete procesadas|
+| **cockroachdb.rpc.method.deleterange.recv.count**
(count) | Número de solicitudes DeleteRange procesadas|
+| **cockroachdb.rpc.method.endtxn.recv.count**
(count) | Número de solicitudes EndTxn procesadas|
+| **cockroachdb.rpc.method.export.recv.count**
(count) | Número de solicitudes Export procesadas|
+| **cockroachdb.rpc.method.gc.recv.count**
(count) | Número de solicitudes GC procesadas|
+| **cockroachdb.rpc.method.get.recv.count**
(count) | Número de solicitudes Get procesadas|
+| **cockroachdb.rpc.method.heartbeattxn.recv.count**
(count) | Número de solicitudes HeartbeatTxn procesadas|
+| **cockroachdb.rpc.method.increment.recv.count**
(count) | Número de solicitudes Increment procesadas|
+| **cockroachdb.rpc.method.initput.recv.count**
(count) | Número de solicitudes InitPut procesadas|
+| **cockroachdb.rpc.method.isspanempty.recv.count**
(count) | Número de solicitudes IsSpanEmpty procesadas|
+| **cockroachdb.rpc.method.leaseinfo.recv.count**
(count) | Número de solicitudes LeaseInfo procesadas|
+| **cockroachdb.rpc.method.merge.recv.count**
(count) | Número de solicitudes Merge procesadas|
+| **cockroachdb.rpc.method.migrate.recv.count**
(count) | Número de solicitudes Migrate procesadas|
+| **cockroachdb.rpc.method.probe.recv.count**
(count) | Número de solicitudes Probe procesadas|
+| **cockroachdb.rpc.method.pushtxn.recv.count**
(count) | Número de solicitudes PushTxn procesadas|
+| **cockroachdb.rpc.method.put.recv.count**
(count) | Número de solicitudes Put procesadas|
+| **cockroachdb.rpc.method.queryintent.recv.count**
(count) | Número de solicitudes QueryIntent procesadas|
+| **cockroachdb.rpc.method.querylocks.recv.count**
(count) | Número de solicitudes QueryLocks procesadas|
+| **cockroachdb.rpc.method.queryresolvedtimestamp.recv.count**
(count) | Número de solicitudes QueryResolvedTimestamp procesadas|
+| **cockroachdb.rpc.method.querytxn.recv.count**
(count) | Número de solicitudes QueryTxn procesadas|
+| **cockroachdb.rpc.method.rangestats.recv.count**
(count) | Número de solicitudes RangeStats procesadas|
+| **cockroachdb.rpc.method.recomputestats.recv.count**
(count) | Número de solicitudes RecomputeStats procesadas|
+| **cockroachdb.rpc.method.recovertxn.recv.count**
(count) | Número de solicitudes RecoverTxn procesadas|
+| **cockroachdb.rpc.method.refresh.recv.count**
(count) | Número de solicitudes Refresh tramitadas|
+| **cockroachdb.rpc.method.refreshrange.recv.count**
(count) | Número de solicitudes RefreshRange procesadas|
+| **cockroachdb.rpc.method.requestlease.recv.count**
(count) | Número de solicitudes RequestLease procesadas|
+| **cockroachdb.rpc.method.resolveintent.recv.count**
(count) | Número de solicitudes ResolveIntent procesadas|
+| **cockroachdb.rpc.method.resolveintentrange.recv.count**
(count) | Número de solicitudes ResolveIntentRange procesadas|
+| **cockroachdb.rpc.method.reversescan.recv.count**
(count) | Número de solicitudes ReverseScan procesadas|
+| **cockroachdb.rpc.method.revertrange.recv.count**
(count) | Número de solicitudes RevertRange procesadas|
+| **cockroachdb.rpc.method.scan.recv.count**
(count) | Número de solicitudes Scan procesadas|
+| **cockroachdb.rpc.method.subsume.recv.count**
(count) | Número de solicitudes Subsume procesadas|
+| **cockroachdb.rpc.method.transferlease.recv.count**
(count) | Número de solicitudes TransferLease procesadas|
+| **cockroachdb.rpc.method.truncatelog.recv.count**
(count) | Número de solicitudes TruncateLog procesadas|
+| **cockroachdb.rpc.method.writebatch.recv.count**
(count) | Número de solicitudes WriteBatch procesadas|
+| **cockroachdb.rpc.streams.mux_rangefeed.active**
(gauge) | Número de flujos MuxRangeFeed actualmente en ejecución|
+| **cockroachdb.rpc.streams.mux_rangefeed.recv.count**
(count) | Número total de flujos MuxRangeFeed|
+| **cockroachdb.rpc.streams.rangefeed.active**
(gauge) | Número de flujos RangeFeed que se están ejecutando actualmente|
+| **cockroachdb.rpc.streams.rangefeed.recv.count**
(count) | Número total de flujos RangeFeed|
+| **cockroachdb.schedules.BACKUP.failed.count**
(count) | Número de trabajos de BACKUP fallidos|
+| **cockroachdb.schedules.BACKUP.last_completed_time**
(indicador) | Marca de tiempo Unix de la copia de seguridad más reciente realizada por un programa especificado para mantener esta métrica|
+| **cockroachdb.schedules.BACKUP.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por programas de BACKUP
_Se muestra como segundo_ |
+| **cockroachdb.schedules.BACKUP.protected_record_count**
(gauge) | Número de registros PTS mantenidos por programas de BACKUP|
+| **cockroachdb.schedules.BACKUP.started.count**
(count) | Número de trabajos de BACKUP iniciados|
+| **cockroachdb.schedules.BACKUP.succeeded.count**
(count) | Número de trabajos de BACKUP exitosos|
+| **cockroachdb.schedules.CHANGEFEED.failed.count**
(count) | Número de trabajos de CHANGEFEED fallidos|
+| **cockroachdb.schedules.CHANGEFEED.started.count**
(count) | Número de trabajos de CHANGEFEED iniciados|
+| **cockroachdb.schedules.CHANGEFEED.succeeded.count**
(count) | Número de trabajos de CHANGEFEED exitosos|
+| **cockroachdb.schedules.backup.failed**
(count) | \[OpenMetrics v1\] Número de copias de seguridad programadas fallidas|
+| **cockroachdb.schedules.backup.failed.count**
(count) | \[OpenMetrics v2\] Número de copias de seguridad programadas fallidas|
+| **cockroachdb.schedules.backup.last_completed_time**
(gauge) | \[OpenMetrics v1 y v2\] Marca de tiempo Unix de la copia de seguridad más reciente realizada por un programa especificado para mantener esta métrica
_Se muestra como segundo_ |
+| **cockroachdb.schedules.backup.started**
(count) | \[OpenMetrics v1\] Número de trabajos de copia de seguridad programados iniciados|
+| **cockroachdb.schedules.backup.started.count**
(count) | \[OpenMetrics v2\] Número de trabajos de copia de seguridad programados iniciados|
+| **cockroachdb.schedules.backup.succeeded**
(count) | \[OpenMetrics v1\] Número de trabajos de copia de seguridad programados exitosos|
+| **cockroachdb.schedules.backup.succeeded.count**
(count) | \[OpenMetrics v2\] Número de trabajos de copia de seguridad programados exitosos|
+| **cockroachdb.schedules.error**
(gauge) | Número de programas que no se ejecutaron con éxito|
+| **cockroachdb.schedules.malformed**
(gauge) | Número de programas malformados|
+| **cockroachdb.schedules.round.jobs_started**
(gauge) | Número de trabajos iniciados|
+| **cockroachdb.schedules.round.reschedule_skip**
(gauge) | Número de programas reprogramados debido a la política SKIP|
+| **cockroachdb.schedules.round.reschedule_wait**
(gauge) | Número de programas reprogramados debido a la política WAIT|
+| **cockroachdb.schedules.scheduled.row.level.ttl.executor_failed.count**
(count) | Número de trabajos row-level-ttl-executor programados fallidos|
+| **cockroachdb.schedules.scheduled_row_level_ttl_executor.failed.count**
(count) | Número de trabajos row-level-ttl-executor programados fallidos|
+| **cockroachdb.schedules.scheduled_row_level_ttl_executor.started.count**
(count) | Número de trabajos row-level-ttl-executor programados iniciados|
+| **cockroachdb.schedules.scheduled_row_level_ttl_executor.succeeded.count**
(count) | Número de trabajos row-level-ttl-executor programados exitosos|
+| **cockroachdb.schedules.scheduled_schema_telemetry_executor.failed.count**
(count) | Número de trabajos schema-telemetry-executor programados fallidos|
+| **cockroachdb.schedules.scheduled_schema_telemetry_executor.started.count**
(count) | Número de trabajos schema-telemetry-executor programados iniciados|
+| **cockroachdb.schedules.scheduled_schema_telemetry_executor.succeeded.count**
(count) | Número de trabajos schema-telemetry-executor programados exitosos|
+| **cockroachdb.schedules.scheduled_sql_stats_compaction_executor.failed.count**
(count) | Número de trabajos sql-stats-compaction-executor fallidos|
+| **cockroachdb.schedules.scheduled_sql_stats_compaction_executor.started.count**
(count) | Número de trabajos sql-stats-compaction-executor programados iniciados|
+| **cockroachdb.schedules.scheduled_sql_stats_compaction_executor.succeeded.count**
(count) | Número de trabajos sql-stats-compaction-executor programados exitosos|
+| **cockroachdb.seconds.until.enterprise.license.expiry**
(gauge) | Segundos hasta que caduque la licencia de empresa (0 si no hay licencia o se ejecuta sin funciones de empresa)|
+| **cockroachdb.seconds_until_enterprise_license_expiry**
(gauge) | Segundos hasta que caduque la licencia de empresa (0 si no hay licencia o se ejecuta sin funciones de empresa)
_Se muestra como segundo_ |
+| **cockroachdb.security.certificate.expiration.ca**
(gauge) | Caducidad del certificado de la CA. 0 significa que no hay certificado o error.|
+| **cockroachdb.security.certificate.expiration.ca_client_tenant**
(gauge) | Caducidad del certificado de la CA del cliente arrendatario. 0 significa que no hay certificado o error.|
+| **cockroachdb.security.certificate.expiration.client**
(gauge) | Caducidad mínima de los certificados del cliente, etiquetados por el usuario SQL. 0 significa que no hay certificado o error.|
+| **cockroachdb.security.certificate.expiration.client_ca**
(gauge) | Caducidad del certificado de la CA del cliente. 0 significa que no hay certificado o error.|
+| **cockroachdb.security.certificate.expiration.client_tenant**
(gauge) | Caducidad del certificado del cliente arrendatario. 0 significa que no hay certificado o error.|
+| **cockroachdb.security.certificate.expiration.node**
(gauge) | Caducidad del certificado del nodo. 0 significa que no hay certificado o error.|
+| **cockroachdb.security.certificate.expiration.node_client**
(gauge) | Caducidad del certificado de cliente del nodo. 0 significa que no hay certificado o error.|
+| **cockroachdb.security.certificate.expiration.ui**
(gauge) | Caducidad del certificado de la interfaz de usuario. 0 significa que no hay certificado o error.|
+| **cockroachdb.security.certificate.expiration.ui_ca**
(gauge) | Caducidad del certificado de la CA de la interfaz de usuario. 0 significa que no hay certificado o error.|
+| **cockroachdb.security.certificate_expiration.ca**
(gauge) | Caducidad del certificado de la CA. 0 significa que no hay certificado o error.|
+| **cockroachdb.security.certificate_expiration.client_ca**
(gauge) | Caducidad del certificado de la CA del cliente. 0 significa que no hay certificado o error.|
+| **cockroachdb.security.certificate_expiration.node**
(gauge) | Caducidad del certificado del nodo. 0 significa que no hay certificado o error.|
+| **cockroachdb.security.certificate_expiration.node_client**
(gauge) | Caducidad del certificado del cliente del nodo. 0 significa que no hay certificado o error.|
+| **cockroachdb.security.certificate_expiration.ui**
(gauge) | Caducidad del certificado de la interfaz de usuario. 0 significa que no hay certificado o error.|
+| **cockroachdb.security.certificate_expiration.ui_ca**
(gauge) | Caducidad del certificado de la CA de la interfaz de usuario. 0 significa que no hay certificado o error.|
+| **cockroachdb.spanconfig.kvsubscriber.oldest_protected_record_nanos**
(gauge) | Diferencia entre la hora actual y la marca de tiempo protegida más antigua (las caídas repentinas indican que se está liberando un registro y un número cada vez mayor indica que el registro más antiguo está cerca e impide GC si > el TTL de GC configurado)
_Se muestra como nanosegundo_ |
+| **cockroachdb.spanconfig.kvsubscriber.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos, vistos por KV|
+| **cockroachdb.spanconfig.kvsubscriber.update_behind_nanos**
(gauge) | Diferencia entre la hora actual y el momento en que el KVSubscriber recibió su última actualización (un número creciente indica que ya no estamos recibiendo actualizaciones)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.bytesin**
(count) | \[OpenMetrics v1\] Número de bytes SQL recibidos
_Se muestra como byte_ |
+| **cockroachdb.sql.bytesin.count**
(count) | \[OpenMetrics v2\] Número de bytes SQL recibidos
_Se muestra como byte_ |
+| **cockroachdb.sql.bytesout**
(count) | \[OpenMetrics v1\] Número de bytes SQL enviados
_Se muestra como byte_ |
+| **cockroachdb.sql.bytesout.count**
(count) | \[OpenMetrics v2\] Número de bytes SQL enviados
_Se muestra como byte_ |
+| **cockroachdb.sql.conn.failures.count**
(count) | Número de fallos de conexión SQL |
+| **cockroachdb.sql.conn.latency**
(gauge) | \[OpenMetrics v1\] Latencia para establecer y autenticar una conexión SQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.conn.latency.bucket**
(count) | \[OpenMetrics v2\] Latencia para establecer y autenticar una conexión SQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.conn.latency.count**
(count) | \[OpenMetrics v2\] Latencia para establecer y autenticar una conexión SQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.conn.latency.sum**
(count) | \[OpenMetrics v2\] Latencia para establecer y autenticar una conexión SQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.conns**
(gauge) | \[OpenMetrics v1y v2\] Número de conexiones SQL activas
_Se muestra como conexión_ |
+| **cockroachdb.sql.conns_waiting_to_hash**
(gauge) | Número de intentos de conexión SQL que se están restringiendo para limitar la concurrencia de hash de contraseñas|
+| **cockroachdb.sql.contention.resolver.failed_resolutions.count**
(count) | Número de intentos fallidos de resolución de ID de transacción|
+| **cockroachdb.sql.contention.resolver.queue_size**
(gauge) | Duración de los eventos de contención no resueltos en cola|
+| **cockroachdb.sql.contention.resolver.retries.count**
(count) | Número de veces que se reintentó la resolución del ID de transacción|
+| **cockroachdb.sql.contention.txn_id_cache.miss.count**
(count) | Número de fallos de caché|
+| **cockroachdb.sql.contention.txn_id_cache.read.count**
(count) | Número de lecturas de caché|
+| **cockroachdb.sql.copy.count**
(count) | Número de sentencias COPY SQL ejecutadas con éxito|
+| **cockroachdb.sql.copy.internal.count**
(count) | Número de sentencias COPY SQL ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.copy.nonatomic.count**
(count) | Número de sentencias COPY SQL no atómicas ejecutadas con éxito|
+| **cockroachdb.sql.copy.nonatomic.internal.count**
(count) | Número de sentencias SQL COPY no atómicas ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.copy.nonatomic.started.count**
(count) | Número de sentencias COPY SQL no atómicas iniciadas|
+| **cockroachdb.sql.copy.nonatomic.started.internal.count**
(count) | Número de sentencias COPY SQL no atómicas iniciadas (consultas internas)|
+| **cockroachdb.sql.copy.started.count**
(count) | Número de sentencias COPY SQL iniciadas|
+| **cockroachdb.sql.copy.started.internal.count**
(count) | Número de sentencias COPY SQL iniciadas (consultas internas)|
+| **cockroachdb.sql.ddl.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias DDL SQL|
+| **cockroachdb.sql.ddl.internal.count**
(count) | Número de sentencias DDL SQL ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.ddl.started.count**
(count) | Número de sentencias DDL SQL iniciadas|
+| **cockroachdb.sql.ddl.started.internal.count**
(count) | Número de sentencias DDL SQL iniciadas (consultas internas)|
+| **cockroachdb.sql.delete.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias DELETE SQL|
+| **cockroachdb.sql.delete.internal.count**
(count) | Número de sentencias DELETE SQL ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.delete.started.count**
(count) | Número de sentencias DELETE SQL iniciadas|
+| **cockroachdb.sql.delete.started.internal.count**
(count) | Número de sentencias DELETE SQL iniciadas (consultas internas)|
+| **cockroachdb.sql.disk.distsql.current**
(gauge) | Uso actual del disco de sentencias SQL para DistSQL
_Se muestra como byte_ |
+| **cockroachdb.sql.disk.distsql.max.bucket**
(count) | Uso de disco por sentencia SQL para DistSQL
_Se muestra como byte_ |
+| **cockroachdb.sql.disk.distsql.max.count**
(count) | Uso de disco por sentencia SQL para DistSQL
_Se muestra como byte_ |
+| **cockroachdb.sql.disk.distsql.max.sum**
(count) | Uso de disco por sentencia SQL para DistSQL
_Se muestra como byte_ |
+| **cockroachdb.sql.disk.distsql.spilled.bytes.read.count**
(count) | Número de bytes leídos del almacenamiento temporal en disco como resultado del desbordamiento
_Se muestra como byte_ |
+| **cockroachdb.sql.disk.distsql.spilled.bytes.written.count**
(count) | Número de bytes escritos en el almacenamiento temporal en disco como resultado del desbordamiento
_Se muestra como byte_ |
+| **cockroachdb.sql.distsql.contended.queries**
(count) | \[OpenMetrics v1\] Número de consultas SQL que experimentaron contención|
+| **cockroachdb.sql.distsql.contended.queries.count**
(count) | \[OpenMetrics v2\] Número de consultas SQL que experimentaron contención|
+| **cockroachdb.sql.distsql.contended_queries.count**
(count) | Número de consultas SQL que experimentaron contención|
+| **cockroachdb.sql.distsql.dist_query_rerun_locally.count**
(count) | Número total de casos en los que un error de una consulta distribuida dio lugar a una nueva ejecución local|
+| **cockroachdb.sql.distsql.dist_query_rerun_locally.failure_count.count**
(count) | Número total de casos en los que la nueva ejecución local de una consulta distribuida dio lugar a un error|
+| **cockroachdb.sql.distsql.exec.latency**
(gauge) | \[OpenMetrics v1\] Latencia en nanosegundos de ejecución de sentencias DistSQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.distsql.exec.latency.bucket**
(count) | Latencia de ejecución de sentencias DistSQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.distsql.exec.latency.count**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de sentencias DistSQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.distsql.exec.latency.internal.bucket**
(count) | Latencia de ejecución de sentencias DistSQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.distsql.exec.latency.internal.count**
(count) | Latencia de ejecución de sentencias DistSQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.distsql.exec.latency.internal.sum**
(count) | Latencia de ejecución de sentencias DistSQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.distsql.exec.latency.sum**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de sentencias DistSQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.distsql.flows.active**
(gauge) | \[OpenMetrics v1 y v2\] Número de flujos SQL distribuidos actualmente activos|
+| **cockroachdb.sql.distsql.flows.count**
(count) | \[OpenMetrics v2\] Número de flujos SQL distribuidos ejecutados|
+| **cockroachdb.sql.distsql.flows.total**
(count) | \[OpenMetrics v1\] Número de flujos SQL distribuidos ejecutados|
+| **cockroachdb.sql.distsql.flows.total.count**
(count) | Número de flujos SQL distribuidos ejecutados|
+| **cockroachdb.sql.distsql.queries.active**
(gauge) | \[OpenMetrics v1 y v2\] Número de consultas SQL distribuidas actualmente activas|
+| **cockroachdb.sql.distsql.queries.count**
(count) | \[OpenMetrics v2\] Número de consultas SQL distribuidas ejecutadas|
+| **cockroachdb.sql.distsql.queries.spilled.count**
(count) | Número de consultas que se desbordaron al disco|
+| **cockroachdb.sql.distsql.queries.total**
(count) | \[OpenMetrics v1\] Número de consultas SQL distribuidas ejecutadas|
+| **cockroachdb.sql.distsql.select.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias SELECT DistSQL|
+| **cockroachdb.sql.distsql.select.internal.count**
(count) | Número de sentencias SELECT DistSQL (consultas internas)|
+| **cockroachdb.sql.distsql.service.latency**
(gauge) | \[OpenMetrics v1\] Latencia en nanosegundos de ejecución de solicitudes DistSQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.distsql.service.latency.bucket**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de solicitudes DistSQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.distsql.service.latency.count**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de solicitudes DistSQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.distsql.service.latency.internal**
(count) | Latencia de ejecución de solicitudes DistSQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.distsql.service.latency.internal.bucket**
(count) | Latencia de ejecución de solicitudes DistSQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.distsql.service.latency.internal.count**
(count) | Latencia de ejecución de solicitudes DistSQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.distsql.service.latency.internal.sum**
(count) | Latencia de ejecución de solicitudes DistSQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.distsql.service.latency.sum**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de solicitudes DistSQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.distsql.vec.openfds**
(gauge) | Número actual de descriptores de archivos abiertos utilizados por el almacenamiento externo vectorizado|
+| **cockroachdb.sql.exec.latency**
(gauge) | \[OpenMetrics v1\] Latencia en nanosegundos de ejecución de sentencias SQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.exec.latency.bucket**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de sentencias SQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.exec.latency.count**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de sentencias SQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.exec.latency.internal**
(count) | Latencia de ejecución de sentencias SQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.exec.latency.internal.bucket**
(count) | Latencia de ejecución de sentencias SQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.exec.latency.internal.count**
(count) | Latencia de ejecución de sentencias SQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.exec.latency.internal.sum**
(count) | Latencia de ejecución de sentencias SQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.exec.latency.sum**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de sentencias SQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.failure**
(count) | \[OpenMetrics v1\] Número de sentencias que dan lugar a un error de planificación o de tiempo de ejecución|
+| **cockroachdb.sql.failure.count**
(count) | \[OpenMetrics v2\] Número de sentencias que dan lugar a un error de planificación o de tiempo de ejecución|
+| **cockroachdb.sql.failure.internal.count**
(count) | Número de sentencias que dan lugar a un error de planificación o de tiempo de ejecución (consultas internas)|
+| **cockroachdb.sql.feature_flag_denial.count**
(count) | Contador del número de sentencias denegadas por un indicador de características|
+| **cockroachdb.sql.full.scan**
(count) | \[OpenMetrics v1\] Número de análisis completos de tablas o índices|
+| **cockroachdb.sql.full.scan.count**
(count) | \[OpenMetrics v2\] Número de análisis completos de tablas o índices|
+| **cockroachdb.sql.full.scan.internal.count**
(count) | Número de análisis completos de tablas o índices (consultas internas)|
+| **cockroachdb.sql.guardrails.full_scan_rejected.count**
(count) | Número de análisis completos de tablas o índices rechazados debido a guardarrails `disallow_full_table_scans`|
+| **cockroachdb.sql.guardrails.full_scan_rejected.internal.count**
(count) | Número de análisis completos de tablas o índices rechazados debido a guardarrails `disallow_full_table_scans` (consultas internas)|
+| **cockroachdb.sql.guardrails.max_row_size_err.count**
(count) | Número de filas observadas que violan sql.guardrails.max_row_size_err|
+| **cockroachdb.sql.guardrails.max_row_size_err.internal.count**
(count) | Número de filas observadas que violan sql.guardrails.max_row_size_err (consultas internas)|
+| **cockroachdb.sql.guardrails.max_row_size_log.count**
(count) | Número de filas observadas que violan sql.guardrails.max_row_size_log|
+| **cockroachdb.sql.guardrails.max_row_size_log.internal.count**
(count) | Número de filas observadas que violan sql.guardrails.max_row_size_log (consultas internas)|
+| **cockroachdb.sql.guardrails.transaction_rows_read_err.count**
(count) | Número de transacciones con error debido a guardarrails transaction_rows_read_err|
+| **cockroachdb.sql.guardrails.transaction_rows_read_err.internal.count**
(count) | Número de transacciones con error debido a guardarrails transaction_rows_read_err (consultas internas)|
+| **cockroachdb.sql.guardrails.transaction_rows_read_log.count**
(count) | Número de transacciones registradas debido a guardarrails transaction_rows_read_log|
+| **cockroachdb.sql.guardrails.transaction_rows_read_log.internal.count**
(count) | Número de transacciones registradas debido a guardarrails transaction_rows_read_log (consultas internas)|
+| **cockroachdb.sql.guardrails.transaction_rows_written_err.count**
(count) | Número de transacciones con error debido a guardarrails transaction_rows_written_err|
+| **cockroachdb.sql.guardrails.transaction_rows_written_err.internal.count**
(count) | Número de transacciones con error debido a guardarrails transaction_rows_written_err (consultas internas)|
+| **cockroachdb.sql.guardrails.transaction_rows_written_log.count**
(count) | Número de transacciones registradas debido a guardarrails transaction_rows_written_log|
+| **cockroachdb.sql.guardrails.transaction_rows_written_log.internal.count**
(count) | Número de transacciones registradas debido a guardarrails transaction_rows_written_log (consultas internas)|
+| **cockroachdb.sql.hydrated_schema_cache.hits.count**
(count) | Contador del número de aciertos de caché|
+| **cockroachdb.sql.hydrated_schema_cache.misses.count**
(count) | Contador del número de fallos de caché|
+| **cockroachdb.sql.hydrated_table_cache.hits.count**
(count) | Contador del número de aciertos de caché|
+| **cockroachdb.sql.hydrated_table_cache.misses.count**
(count) | Contador del número de fallos de caché|
+| **cockroachdb.sql.hydrated_type_cache.hits.count**
(count) | Contador del número de aciertos de caché|
+| **cockroachdb.sql.hydrated_type_cache.misses.count**
(count) | Contador del número de fallos de caché|
+| **cockroachdb.sql.hydrated_udf_cache.hits.count**
(count) | Contador del número de aciertos de caché|
+| **cockroachdb.sql.hydrated_udf_cache.misses.count**
(count) | Contador del número de fallos de caché|
+| **cockroachdb.sql.insert.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias INSERT SQL|
+| **cockroachdb.sql.insert.internal.count**
(count) | Número de sentencias INSERT SQL ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.insert.started.count**
(count) | Número de sentencias INSERT SQL iniciadas|
+| **cockroachdb.sql.insert.started.internal.count**
(count) | Número de sentencias INSERT SQL iniciadas (consultas internas)|
+| **cockroachdb.sql.insights.anomaly_detection.evictions.count**
(count) | Desalojos de resúmenes de latencia de huellas digitales debido a la presión de la memoria|
+| **cockroachdb.sql.insights.anomaly_detection.fingerprints**
(gauge) | Número actual de huellas digitales de sentencias que se están monitorizando para detectar anomalías|
+| **cockroachdb.sql.insights.anomaly_detection.memory**
(gauge) | Memoria actual utilizada para soportar la detección de anomalías
_Se muestra como byte_ |
+| **cockroachdb.sql.leases.active**
(gauge) | Número de arrendamientos de esquemas SQL destacados|
+| **cockroachdb.sql.mem.admin.current**
(gauge) | \[OpenMetrics v1 y v2\] Uso actual de la memoria por sentencias SQL para administradores|
+| **cockroachdb.sql.mem.admin.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada sentencia SQL para administradores|
+| **cockroachdb.sql.mem.admin.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para administradores|
+| **cockroachdb.sql.mem.admin.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para administradores|
+| **cockroachdb.sql.mem.admin.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para administradores|
+| **cockroachdb.sql.mem.admin.session.current**
(gauge) | \[OpenMetrics v1 y v2\] Uso actual de la memoria por sesiones SQL para administradores|
+| **cockroachdb.sql.mem.admin.session.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para administradores|
+| **cockroachdb.sql.mem.admin.session.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para administradores|
+| **cockroachdb.sql.mem.admin.session.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para administradores|
+| **cockroachdb.sql.mem.admin.txn.current**
(gauge) | \[OpenMetrics v1 y v2\] Uso actual de la memoria por transacciones SQL para administradores|
+| **cockroachdb.sql.mem.admin.txn.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada transacción SQL para administradores|
+| **cockroachdb.sql.mem.admin.txn.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para administradores|
+| **cockroachdb.sql.mem.admin.txn.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para administradores|
+| **cockroachdb.sql.mem.admin.txn.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para administradores|
+| **cockroachdb.sql.mem.bulk.current**
(gauge) | Uso actual de la memoria por sentencias SQL para operaciones en bloque
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.bulk.max**
(count) | Uso de la memoria por cada sentencia SQL para operaciones en bloque
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.bulk.max.bucket**
(count) | Uso de la memoria por cada sentencia SQL para operaciones en bloque
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.bulk.max.count**
(count) | Uso de la memoria por cada sentencia SQL para operaciones en bloque
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.bulk.max.sum**
(count) | Uso de la memoria por cada sentencia SQL para operaciones en bloque
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.client.current**
(gauge) | \[OpenMetrics v1 y v2] Uso actual de la memoria por sentencias SQL para clientes|
+| **cockroachdb.sql.mem.client.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada sentencia SQL para clientes|
+| **cockroachdb.sql.mem.client.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para clientes|
+| **cockroachdb.sql.mem.client.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para clientes|
+| **cockroachdb.sql.mem.client.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para clientes|
+| **cockroachdb.sql.mem.client.session.current**
(gauge) | \[OpenMetrics v1 y v2\] Uso actual de la memoria por sesiones SQL para clientes|
+| **cockroachdb.sql.mem.client.session.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada sesión SQL para clientes|
+| **cockroachdb.sql.mem.client.session.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para clientes|
+| **cockroachdb.sql.mem.client.session.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para clientes|
+| **cockroachdb.sql.mem.client.session.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para clientes|
+| **cockroachdb.sql.mem.client.txn.current**
(gauge) | \[OpenMetrics v1 y v2] Uso actual de la memoria por transacciones SQL para clientes|
+| **cockroachdb.sql.mem.client.txn.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada transacción SQL para clientes|
+| **cockroachdb.sql.mem.client.txn.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para clientes|
+| **cockroachdb.sql.mem.client.txn.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para clientes|
+| **cockroachdb.sql.mem.client.txn.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para clientes|
+| **cockroachdb.sql.mem.conns.current**
(gauge) | \[OpenMetrics v1 y v2] Uso actual de la memoria por sentencias SQL para conexiones|
+| **cockroachdb.sql.mem.conns.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada sentencia SQL para conexiones|
+| **cockroachdb.sql.mem.conns.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para conexiones|
+| **cockroachdb.sql.mem.conns.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para conexiones|
+| **cockroachdb.sql.mem.conns.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para conexiones|
+| **cockroachdb.sql.mem.conns.session.current**
(gauge) | \[OpenMetrics v1 y v2\] Uso actual de la memoria por sesiones SQL para conexiones|
+| **cockroachdb.sql.mem.conns.session.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada sesión SQL para conexiones|
+| **cockroachdb.sql.mem.conns.session.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para conexiones|
+| **cockroachdb.sql.mem.conns.session.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para conexiones|
+| **cockroachdb.sql.mem.conns.session.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para conexiones|
+| **cockroachdb.sql.mem.conns.txn.current**
(gauge) | \[OpenMetrics v1 y v2] Uso actual de la memoria por transacciones SQL para conexiones|
+| **cockroachdb.sql.mem.conns.txn.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada transacción SQL para conexiones|
+| **cockroachdb.sql.mem.conns.txn.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para conexiones|
+| **cockroachdb.sql.mem.conns.txn.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para conexiones|
+| **cockroachdb.sql.mem.conns.txn.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para conexiones|
+| **cockroachdb.sql.mem.distsql.current**
(gauge) | \[OpenMetrics v1 y v2] Uso actual de la memoria por sentencias SQL para DistSQL|
+| **cockroachdb.sql.mem.distsql.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada sentencia SQL para DistSQL|
+| **cockroachdb.sql.mem.distsql.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para DistSQL|
+| **cockroachdb.sql.mem.distsql.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para DistSQL|
+| **cockroachdb.sql.mem.distsql.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para DistSQL|
+| **cockroachdb.sql.mem.internal.current**
(gauge) | \[OpenMetrics v1 y v2] Uso actual de la memoria por sentencias SQL para internos|
+| **cockroachdb.sql.mem.internal.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada sentencia SQL para internos|
+| **cockroachdb.sql.mem.internal.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para internos|
+| **cockroachdb.sql.mem.internal.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para internos|
+| **cockroachdb.sql.mem.internal.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para internos|
+| **cockroachdb.sql.mem.internal.session.current**
(gauge) | \[OpenMetrics v1 y v2\] Uso actual de la memoria por sesiones SQL para internos|
+| **cockroachdb.sql.mem.internal.session.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada sesión SQL para internos|
+| **cockroachdb.sql.mem.internal.session.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para internos|
+| **cockroachdb.sql.mem.internal.session.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para internos|
+| **cockroachdb.sql.mem.internal.session.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para internos|
+| **cockroachdb.sql.mem.internal.session.prepared.current**
(gauge) | Uso actual de la memoria por sesiones SQL por parte de sentencias preparadas para internos
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.internal.session.prepared.max.bucket**
(count) | Uso de la memoria por sentencias preparadas por parte de sesiones SQL para internos
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.internal.session.prepared.max.count**
(count) | Uso de la memoria por sentencias preparadas por parte de sesiones SQL para internos
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.internal.session.prepared.max.sum**
(count) | Uso de la memoria por sentencias preparadas por parte de sesiones SQL para internos
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.internal.txn.current**
(gauge) | \[OpenMetrics v1 y v2] Uso actual de la memoria por transacciones SQL para internos|
+| **cockroachdb.sql.mem.internal.txn.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada transacción SQL para internos|
+| **cockroachdb.sql.mem.internal.txn.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para internos|
+| **cockroachdb.sql.mem.internal.txn.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para internos|
+| **cockroachdb.sql.mem.internal.txn.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para internos|
+| **cockroachdb.sql.mem.root.current**
(gauge) | Uso actual de la memoria por sentencias SQL para root|
+| **cockroachdb.sql.mem.root.max.bucket**
(count) | Uso de la memoria por cada sentencia SQL para root
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.root.max.count**
(count) | Uso de la memoria por cada sentencia SQL para root
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.root.max.sum**
(count) | Uso de la memoria por cada sentencia SQL para root
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.current**
(gauge) | Uso actual de la memoria por sentencias SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.max**
(count) | Uso de la memoria por cada sentencia SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.max.bucket**
(count) | Uso de la memoria por cada sentencia SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.max.count**
(count) | Uso de la memoria por cada sentencia SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.max.sum**
(count) | Uso de la memoria por cada sentencia SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.session.current**
(gauge) | Uso actual de la memoria por sesiones SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.session.max**
(count) | Uso de la memoria por cada sentencia SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.session.max.bucket**
(count) | Uso de la memoria por cada sentencia SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.session.max.count**
(count) | Uso de la memoria por cada sentencia SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.session.max.sum**
(count) | Uso de la memoria por cada sentencia SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.session.prepared.current**
(gauge) | Uso actual de la memoria por sesiones SQL por parte de sentencias preparadas para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.session.prepared.max**
(count) | Uso de la memoria por sentencias preparadas por parte de sesiones SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.session.prepared.max.bucket**
(count) | Uso de la memoria por sentencias preparadas por parte de sesiones SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.session.prepared.max.count**
(count) | Uso de la memoria por sentencias preparadas por parte de sesiones SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.session.prepared.max.sum**
(count) | Uso de la memoria por sentencias preparadas por parte de sesiones SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.txn.current**
(gauge) | Uso actual de la memoria por transacciones SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.txn.max**
(count) | Uso de la memoria por cada transacción SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.txn.max.bucket**
(count) | Uso de la memoria por cada transacción SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.txn.max.count**
(count) | Uso de la memoria por cada transacción SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.mem.sql.txn.max.sum**
(count) | Uso de la memoria por cada transacción SQL para SQL
_Se muestra como byte_ |
+| **cockroachdb.sql.misc.count**
(count) | \[OpenMetrics v1 y v2\] Número de otras sentencias SQL|
+| **cockroachdb.sql.misc.internal.count**
(count) | Número de otras sentencias SQL ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.misc.started.count**
(count) | Número de otras sentencias SQL iniciadas|
+| **cockroachdb.sql.misc.started.internal.count**
(count) | Número de otras sentencias SQL iniciadas (consultas internas)|
+| **cockroachdb.sql.new_conns.count**
(count) | Contador del número de conexiones SQL creadas|
+| **cockroachdb.sql.optimizer.fallback.count**
(count) | Número de sentencias que el optimizador basado en costes no pudo planificar|
+| **cockroachdb.sql.optimizer.fallback.internal.count**
(count) | Número de sentencias que el optimizador basado en costes no pudo planificar (consultas internas)|
+| **cockroachdb.sql.optimizer.plan_cache.hits.count**
(count) | Número de sentencias no preparadas para las que se utilizó un plan en caché|
+| **cockroachdb.sql.optimizer.plan_cache.hits.internal.count**
(count) | Número de sentencias no preparadas para las que se utilizó un plan en caché (consultas internas)|
+| **cockroachdb.sql.optimizer.plan_cache.misses.count**
(count) | Número de sentencias no preparadas para las que no se utilizó un plan en caché|
+| **cockroachdb.sql.optimizer.plan_cache.misses.internal.count**
(count) | Número de sentencias no preparadas para las que no se utilizó un plan en caché (consultas internas)|
+| **cockroachdb.sql.pgwire_cancel.count**
(count) | Número de solicitudes de anulación de consultas pgwire|
+| **cockroachdb.sql.pgwire_cancel.ignored.count**
(count) | Número de solicitudes de cancelación de consultas pgwire ignoradas debido a la limitación de velocidad|
+| **cockroachdb.sql.pgwire_cancel.successful.count**
(count) | Número de solicitudes de cancelación de consultas pgwire exitosas|
+| **cockroachdb.sql.pre_serve.bytesin.count**
(count) | Número de bytes SQL recibidos antes de enrutar la conexión al servidor SQL de destino
_Se muestra como byte_ |
+| **cockroachdb.sql.pre_serve.bytesout.count**
(count) | Número de bytes SQL enviados antes de enrutar la conexión al servidor SQL de destino
_Se muestra como byte_ |
+| **cockroachdb.sql.pre_serve.conn.failures.count**
(count) | Número de fallos de conexión SQL antes de enrutar la conexión al servidor SQL de destino|
+| **cockroachdb.sql.pre_serve.mem.cur**
(gauge) | Uso actual de la memoria por conexiones SQL antes de enrutar la conexión al servidor SQL de destino
_Se muestra como byte_ |
+| **cockroachdb.sql.pre_serve.mem.max**
(count) | Uso actual de la memoria por conexiones SQL antes de enrutar la conexión al servidor SQL de destino
_Se muestra como byte_ |
+| **cockroachdb.sql.pre_serve.mem.max.bucket**
(count) | Uso actual de la memoria por conexiones SQL antes de enrutar la conexión al servidor SQL de destino
_Se muestra como byte_ |
+| **cockroachdb.sql.pre_serve.mem.max.count**
(count) | Uso actual de la memoria por conexiones SQL antes de enrutar la conexión al servidor SQL de destino
_Se muestra como byte_ |
+| **cockroachdb.sql.pre_serve.mem.max.sum**
(count) | Uso actual de la memoria por conexiones SQL antes de enrutar la conexión al servidor SQL de destino
_Se muestra como byte_ |
+| **cockroachdb.sql.pre_serve.new_conns.count**
(count) | Número de conexiones SQL creadas antes de enrutar la conexión al servidor SQL de destino|
+| **cockroachdb.sql.query.count**
(count) | \[OpenMetrics v1 y v2\] Número de consultas SQL|
+| **cockroachdb.sql.query.internal.count**
(count) | Número de consultas SQL ejecutadas (consultas internas)|
+| **cockroachdb.sql.query.started.count**
(count) | Número de consultas SQL iniciadas|
+| **cockroachdb.sql.query.started.internal.count**
(count) | Número de consultas SQL iniciadas (consultas internas)|
+| **cockroachdb.sql.restart_savepoint.count**
(count) | Número de sentencias `SAVEPOINT cockroach_restart` ejecutadas correctamente|
+| **cockroachdb.sql.restart_savepoint.internal.count**
(count) | Número de sentencias `SAVEPOINT cockroach_restart` ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.restart_savepoint.release.count**
(count) | Número de sentencias `RELEASE SAVEPOINT cockroach_restart` ejecutadas correctamente|
+| **cockroachdb.sql.restart_savepoint.release.internal.count**
(count) | Número de sentencias `RELEASE SAVEPOINT cockroach_restart` ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.restart_savepoint.release.started.count**
(count) | Número de sentencias `RELEASE SAVEPOINT cockroach_restart` iniciadas|
+| **cockroachdb.sql.restart_savepoint.release.started.internal.count**
(count) | Número de sentencias `RELEASE SAVEPOINT cockroach_restart` iniciadas (consultas internas)|
+| **cockroachdb.sql.restart_savepoint.rollback.count**
(count) | Número de sentencias `ROLLBACK TO SAVEPOINT cockroach_restart` ejecutadas con éxito|
+| **cockroachdb.sql.restart_savepoint.rollback.internal.count**
(count) | Número de sentencias `ROLLBACK TO SAVEPOINT cockroach_restart` ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.restart_savepoint.rollback.started.count**
(count) | Número de sentencias `ROLLBACK TO SAVEPOINT cockroach_restart` iniciadas|
+| **cockroachdb.sql.restart_savepoint.rollback.started.internal.count**
(count) | Número de sentencias `ROLLBACK TO SAVEPOINT cockroach_restart` iniciadas (consultas internas)|
+| **cockroachdb.sql.restart_savepoint.started.count**
(count) | Número de sentencias `SAVEPOINT cockroach_restart` iniciadas|
+| **cockroachdb.sql.restart_savepoint.started.internal.count**
(count) | Número de sentencias `SAVEPOINT cockroach_restart` iniciadas (consultas internas)|
+| **cockroachdb.sql.savepoint.count**
(count) | Número de sentencias SAVEPOINT SQL ejecutadas con éxito|
+| **cockroachdb.sql.savepoint.internal.count**
(count) | Número de sentencias SAVEPOINT SQL ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.savepoint.release.count**
(count) | Número de sentencias `RELEASE SAVEPOINT` ejecutadas con éxito|
+| **cockroachdb.sql.savepoint.release.internal.count**
(count) | Número de sentencias `RELEASE SAVEPOINT` ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.savepoint.release.started.count**
(count) | Número de sentencias `RELEASE SAVEPOINT` iniciadas|
+| **cockroachdb.sql.savepoint.release.started.internal.count**
(count) | Número de sentencias `RELEASE SAVEPOINT` iniciadas (consultas internas)|
+| **cockroachdb.sql.savepoint.rollback.count**
(count) | Número de sentencias `ROLLBACK TO SAVEPOINT` ejecutadas con éxito|
+| **cockroachdb.sql.savepoint.rollback.internal.count**
(count) | Número de sentencias `ROLLBACK TO SAVEPOINT` ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.savepoint.rollback.started.count**
(count) | Número de sentencias `ROLLBACK TO SAVEPOINT` iniciadas|
+| **cockroachdb.sql.savepoint.rollback.started.internal.count**
(count) | Número de sentencias `ROLLBACK TO SAVEPOINT` iniciadas (consultas internas)|
+| **cockroachdb.sql.savepoint.started.count**
(count) | Número de sentencias SAVEPOINT SQL iniciadas|
+| **cockroachdb.sql.savepoint.started.internal.count**
(count) | Número de sentencias SAVEPOINT SQL iniciadas (consultas internas)|
+| **cockroachdb.sql.schema.invalid_objects**
(gauge) | Indicador de objetos no válidos detectados en la tabla system.descriptor (medido mediante consulta a crdb_internal.invalid_objects)|
+| **cockroachdb.sql.schema_changer.permanent_errors.count**
(count) | Contador del número de errores permanentes experimentados por el modificador de esquemas|
+| **cockroachdb.sql.schema_changer.retry_errors.count**
(count) | Contador del número de errores reintentables experimentados por el modificador de esquemas|
+| **cockroachdb.sql.schema_changer.running**
(gauge) | Indicador de los cambios de esquemas que se están ejecutando actualmente|
+| **cockroachdb.sql.schema_changer.successes.count**
(count) | Contador del número de reanudaciones exitosas del modificador de esquemas|
+| **cockroachdb.sql.select.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias SELECT SQL|
+| **cockroachdb.sql.select.internal.count**
(count) | Número de sentencias SELECT SQL ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.select.started.count**
(count) | Número de sentencias SELECT SQL iniciadas|
+| **cockroachdb.sql.select.started.internal.count**
(count) | Número de sentencias SELECT SQL iniciadas (consultas internas)|
+| **cockroachdb.sql.service.latency**
(gauge) | \[OpenMetrics v1\] Latencia en nanosegundos de ejecución de solicitudes SQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.service.latency.bucket**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de solicitudes SQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.service.latency.count**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de solicitudes SQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.service.latency.internal**
(count) | Latencia de ejecución de solicitudes SQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.service.latency.internal.bucket**
(count) | Latencia de ejecución de solicitudes SQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.service.latency.internal.count**
(count) | Latencia de ejecución de solicitudes SQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.service.latency.internal.sum**
(count) | Latencia de ejecución de solicitudes SQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.service.latency.sum**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de solicitudes SQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.statements.active**
(gauge) | \[OpenMetrics v1 y v2\] Número de sentencias SQL de usuario actualmente activas|
+| **cockroachdb.sql.statements.active.internal**
(gauge) | Número de sentencias SQL de usuario actualmente activas (consultas internas)|
+| **cockroachdb.sql.stats.cleanup.rows_removed.count**
(count) | Número de filas de estadísticas obsoletas que se eliminan|
+| **cockroachdb.sql.stats.discarded.current.count**
(count) | Número de estadísticas de huellas digitales descartadas|
+| **cockroachdb.sql.stats.flush.count**
(count) | Número de veces que las estadísticas SQL se descargan en el almacenamiento persistente|
+| **cockroachdb.sql.stats.flush.duration**
(count) | Tiempo en nanosegundos dedicado a completar la descarga de estadísticas SQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.stats.flush.duration.bucket**
(count) | Tiempo en nanosegundos dedicado a completar la descarga de estadísticas SQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.stats.flush.duration.count**
(count) | Tiempo en nanosegundos dedicado a completar la descarga de estadísticas SQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.stats.flush.duration.sum**
(count) | Tiempo en nanosegundos dedicado a completar la descarga de estadísticas SQL
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.stats.flush.error.count**
(count) | Número de errores encontrados al descargar estadísticas SQL|
+| **cockroachdb.sql.stats.mem.current**
(gauge) | Uso actual de la memoria para el almacenamiento de huellas digitales
_Se muestra como byte_ |
+| **cockroachdb.sql.stats.mem.max**
(count) | Uso de la memoria para el almacenamiento de huellas digitales
_Se muestra como byte_ |
+| **cockroachdb.sql.stats.mem.max.bucket**
(count) | Uso de la memoria para el almacenamiento de huellas digitales
_Se muestra como byte_ |
+| **cockroachdb.sql.stats.mem.max.count**
(count) | Uso de la memoria para el almacenamiento de huellas digitales
_Se muestra como byte_ |
+| **cockroachdb.sql.stats.mem.max.sum**
(count) | Uso de la memoria para el almacenamiento de huellas digitales
_Se muestra como byte_ |
+| **cockroachdb.sql.stats.reported.mem.current**
(gauge) | Uso actual de la memoria para el almacenamiento de huellas digitales informadas
_Se muestra como byte_ |
+| **cockroachdb.sql.stats.reported.mem.max**
(count) | Uso de la memoria para el almacenamiento de huellas digitales informadas
_Se muestra como byte_ |
+| **cockroachdb.sql.stats.reported.mem.max.bucket**
(count) | Uso de la memoria para el almacenamiento de huellas digitales informadas
_Se muestra como byte_ |
+| **cockroachdb.sql.stats.reported.mem.max.count**
(count) | Uso de la memoria para el almacenamiento de huellas digitales informadas
_Se muestra como byte_ |
+| **cockroachdb.sql.stats.reported.mem.max.sum**
(count) | Uso de la memoria para el almacenamiento de huellas digitales informadas
_Se muestra como byte_ |
+| **cockroachdb.sql.stats.txn_stats_collection.duration**
(count) | Tiempo en nanosegundos dedicado a recopilar estadísticas de transacciones
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.stats.txn_stats_collection.duration.bucket**
(count) | Tiempo en nanosegundos dedicado a recopilar estadísticas de transacciones
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.stats.txn_stats_collection.duration.count**
(count) | Tiempo en nanosegundos dedicado a recopilar estadísticas de transacciones
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.stats.txn_stats_collection.duration.sum**
(count) | Tiempo en nanosegundos dedicado a recopilar estadísticas de transacciones
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.temp_object_cleaner.active_cleaners**
(gauge) | Número de tareas de limpieza que se están ejecutando actualmente en este nodo|
+| **cockroachdb.sql.temp_object_cleaner.schemas_deletion_error.count**
(count) | Número de eliminaciones de esquemas fallidos por el limpiador de objetos temporales en este nodo|
+| **cockroachdb.sql.temp_object_cleaner.schemas_deletion_success.count**
(count) | Número de eliminaciones exitosas de esquemas por parte del limpiador de objetos temporales en este nodo|
+| **cockroachdb.sql.temp_object_cleaner.schemas_to_delete.count**
(count) | Número de esquemas a eliminar por el limpiador de objetos temporales en este nodo|
+| **cockroachdb.sql.txn.abort.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias ABORT de transacciones SQL|
+| **cockroachdb.sql.txn.abort.internal.count**
(count) | Número de errores de interrupción de transacciones SQL (consultas internas)|
+| **cockroachdb.sql.txn.begin.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias BEGIN de transacciones SQL|
+| **cockroachdb.sql.txn.begin.internal.count**
(count) | Número de sentencias BEGIN de transacciones SQL ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.txn.begin.started.count**
(count) | Número de sentencias BEGIN de transacciones SQL iniciadas|
+| **cockroachdb.sql.txn.begin.started.internal.count**
(count) | Número de sentencias BEGIN de transacciones SQL iniciadas (consultas internas)|
+| **cockroachdb.sql.txn.commit.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias COMMIT de transacciones SQL|
+| **cockroachdb.sql.txn.commit.internal.count**
(count) | Número de sentencias COMMIT de transacciones SQL ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.txn.commit.started.count**
(count) | Número de sentencias COMMIT de transacciones SQL iniciadas|
+| **cockroachdb.sql.txn.commit.started.internal.count**
(count) | Número de sentencias COMMIT de transacciones SQL iniciadas (consultas internas)|
+| **cockroachdb.sql.txn.contended.count**
(count) | Número de transacciones SQL que experimentaron contención|
+| **cockroachdb.sql.txn.contended.internal.count**
(count) | Número de transacciones SQL que experimentaron contención (consultas internas)|
+| **cockroachdb.sql.txn.latency**
(gauge) | \[OpenMetrics v1\] Latencia de las transacciones SQL
_Se muestra como transacción_ |
+| **cockroachdb.sql.txn.latency.bucket**
(count) | \[OpenMetrics v2\] Latencia de las transacciones SQL
_Se muestra como transacción_ |
+| **cockroachdb.sql.txn.latency.count**
(count) | \[OpenMetrics v2\] Latencia de las transacciones SQL
_Se muestra como transacción_ |
+| **cockroachdb.sql.txn.latency.internal.bucket**
(count) | Latencia de las transacciones SQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.txn.latency.internal.count**
(count) | Latencia de las transacciones SQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.txn.latency.internal.sum**
(count) | Latencia de las transacciones SQL (consultas internas)
_Se muestra como nanosegundo_ |
+| **cockroachdb.sql.txn.latency.sum**
(count) | \[OpenMetrics v2\] Latencia de las transacciones SQL
_Se muestra como transacción_ |
+| **cockroachdb.sql.txn.rollback.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias ROLLBACK de transacciones SQL|
+| **cockroachdb.sql.txn.rollback.internal.count**
(count) | Número de sentencias ROLLBACK de transacciones SQL ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.txn.rollback.started.count**
(count) | Número de sentencias ROLLBACK de transacciones SQL iniciadas|
+| **cockroachdb.sql.txn.rollback.started.internal.count**
(count) | Número de sentencias ROLLBACK de transacciones SQL iniciadas (consultas internas)|
+| **cockroachdb.sql.txns.open**
(gauge) | \[OpenMetrics v1 y v2\] Número de transacciones SQL de usuario actualmente abiertas
_Se muestra como transacción_ |
+| **cockroachdb.sql.txns.open.internal**
(gauge) | Número de transacciones SQL de usuario actualmente abiertas (consultas internas)|
+| **cockroachdb.sql.update.count**
(count) | \[OpenMetrics v1 y v2\] Númyero de sentencias UPDATE SQL|
+| **cockroachdb.sql.update.internal.count**
(count) | Número de sentencias UPDATE SQL ejecutadas con éxito (consultas internas)|
+| **cockroachdb.sql.update.started.count**
(count) | Número de sentencias UPDATE SQL iniciadas|
+| **cockroachdb.sql.update.started.internal.count**
(count) | Número de sentencias UPDATE SQL iniciadas (consultas internas)|
+| **cockroachdb.sqlliveness.is_alive.cache_hits.count**
(count) | Número de llamadas a IsAlive que vuelven de la caché|
+| **cockroachdb.sqlliveness.is_alive.cache_misses.count**
(count) | Número de llamadas a IsAlive que no vuelven de la caché|
+| **cockroachdb.sqlliveness.sessions_deleted.count**
(count) | Número de sesiones caducadas eliminadas|
+| **cockroachdb.sqlliveness.sessions_deletion_runs.count**
(count) | Número de llamadas para eliminar sesiones realizadas|
+| **cockroachdb.sqlliveness.write_failures.count**
(count) | Número de llamadas de actualización o inserción fallidas|
+| **cockroachdb.sqlliveness.write_successes.count**
(count) | Número de llamadas de actualización o inserción realizadas con éxito|
+| **cockroachdb.storage.batch_commit**
(gauge) | Recuento de confirmaciones por lotes. Para ver más detalles, consulta storage.AggregatedBatchCommitStats.|
+| **cockroachdb.storage.batch_commit.commit_wait.duration**
(gauge) | Tiempo acumulado a la espera de la sincronización de WAL, para la confirmación por lotes. Para ver más detalles, consulta storage.AggregatedBatchCommitStats.
_Se muestra como nanosegundo_ |
+| **cockroachdb.storage.batch_commit.duration**
(gauge) | Tiempo acumulado dedicado a la confirmación por lotes. Para ver más detalles, consulta storage.AggregatedBatchCommitStats.
_Se muestra como nanosegundo_ |
+| **cockroachdb.storage.batch_commit.l0_stall.duration**
(gauge) | Tiempo acumulado dedicado a un bloqueo de escritura debido a una alta amplificación de lectura en L0, para la confirmación por lotes. Para ver más detalles, consulta storage.AggregatedBatchCommitStats.
_Se muestra como nanosegundo_ |
+| **cockroachdb.storage.batch_commit.mem_stall.duration**
(gauge) | Tiempo acumulado dedicado a un bloqueo de escritura debido a muchas memtables, para la confirmación por lotes. Para ver más detalles, consulta storage.AggregatedBatchCommitStats.
_Se muestra como nanosegundo_ |
+| **cockroachdb.storage.batch_commit.sem_wait.duration**
(gauge) | Tiempo acumulado dedicado a la espera del semáforo, para la confirmación por lotes. Para ver más detalles, consulta storage.AggregatedBatchCommitStats.
_Se muestra como nanosegundo_ |
+| **cockroachdb.storage.batch_commit.wal_queue_wait.duration**
(gauge) | Tiempo acumulado dedicado a la espera de bloques de memoria en la cola de WAL, para la confirmación por lotes. Para ver más detalles, consulta storage.AggregatedBatchCommitStats.
_Se muestra como nanosegundo_ |
+| **cockroachdb.storage.batch_commit.wal_rotation.duration**
(gauge) | Tiempo acumulado dedicado a la espera de la rotación de WAL, para la confirmación por lotes. Para ver más detalles, consulta storage.AggregatedBatchCommitStats.
_Se muestra como nanosegundo_ |
+| **cockroachdb.storage.checkpoints**
(gauge) | Número de directorios de puntos de control encontrados en el almacenamiento. Se trata del número de directorios encontrados en el directorio auxiliar/de puntos de control. Cada uno representa un punto de control inmutable en el tiempo del motor de almacenamiento. Son económicos (consisten principalmente en enlaces duros), pero con el tiempo se convierten en una copia completa del estado anterior, lo que aumenta su coste relativo.|
+| **cockroachdb.storage.compactions.duration**
(gauge) | Suma acumulativa de todas las duraciones de compactación. La tasa de este valor proporciona la concurrencia de compactación efectiva de un almacén, que puede ser útil para determinar si la concurrencia de compactación máxima se utiliza completamente.
_Se muestra como nanosegundo_ |
+| **cockroachdb.storage.compactions.keys.pinned**
(calibre) | Recuento acumulado de KV del motor de almacenamiento escritos en sstables durante las descargas y compactaciones debidas a snapshots LSM abiertos. Diferentes subsistemas de CockroachDB toman snapshots LSM para mantener una vista coherente de la base de datos durante un periodo de tiempo prolongado.|
+| **cockroachdb.storage.compactions.keys.pinned.bytes**
(gauge) | Tamaño acumulado de KV del motor de almacenamiento escritos en sstables durante las descargas y compactaciones debidas a snapshots LSM abiertos. Diferentes subsistemas de CockroachDB toman snapshots LSM para mantener una vista coherente de la base de datos durante un periodo de tiempo prolongado.
_Se muestra como byte_ |
+| **cockroachdb.storage.disk_slow**
(gauge) | Número de casos de operaciones de disco que tardan más de 10s|
+| **cockroachdb.storage.disk_stalled**
(gauge) | Número de casos de operaciones de disco que tardan más de 20s|
+| **cockroachdb.storage.flush.ingest**
(gauge) | Descargas que realizan una ingesta (ingestas descargables)|
+| **cockroachdb.storage.flush.ingest.table**
(gauge) | Tablas ingeridas a través de descargas (ingestas descargables)|
+| **cockroachdb.storage.flush.ingest.table.bytes**
(gauge) | Bytes ingeridos a través de descargas (ingestas descargables)
_Se muestra como byte_ |
+| **cockroachdb.storage.flush.utilization**
(gauge) | Porcentaje de tiempo durante el que el motor de almacenamiento envía memtables al disco.
_Se muestra como porcentaje_ |
+| **cockroachdb.storage.ingest**
(gauge) | Número de ingestas realizadas con éxito|
+| **cockroachdb.storage.iterator.block_load.bytes**
(gauge) | Bytes cargados por los iteradores del motor de almacenamiento (posiblemente en caché). Para ver más detalles, consulta storage.AggregatedIteratorStats.
_Se muestra como byte_ |
+| **cockroachdb.storage.iterator.block_load.cached_bytes**
(gauge) | Bytes cargados por los iteradores del motor de almacenamiento desde la caché de bloques. Para ver más detalles, consulta storage.AggregatedIteratorStats.
_Se muestra como byte_ |
+| **cockroachdb.storage.iterator.block_load.read_duration**
(gauge) | Tiempo acumulado que los iteradores del motor de almacenamiento dedicaron a cargar bloques desde el almacenamiento duradero. Para ver más detalles, consulta storage.AggregatedIteratorStats.
_Se muestra como nanosegundo_ |
+| **cockroachdb.storage.iterator.external.seeks**
(gauge) | Recuento acumulado de búsquedas realizadas en los iteradores del motor de almacenamiento. Para ver más detalles, consulta storage.AggregatedIteratorStats.|
+| **cockroachdb.storage.iterator.external.steps**
(gauge) | Recuento acumulado de pasos realizados en los iteradores del motor de almacenamiento. Para ver más detalles, consulta storage.AggregatedIteratorStats.|
+| **cockroachdb.storage.iterator.internal.seeks**
(gauge) | Conteo acumulado de búsquedas realizadas internamente en los iteradores del motor de almacenamiento. Un valor alto relativo a 'storage.iterator.external.seeks' es una buena señal de que hay una acumulación interna de basura dentro del motor de almacenamiento. Para ver más detalles, consulta storage.AggregatedIteratorStats.|
+| **cockroachdb.storage.iterator.internal.steps**
(gauge) | Conteo acumulado de pasos realizados internamente en los iteradores del motor de almacenamiento. Un valor alto relativo a 'storage.iterator.external.steps' es una buena señal de que hay una acumulación interna de basura dentro del motor de almacenamiento. Para ver más detalles, consulta storage.AggregatedIteratorStats.|
+| **cockroachdb.storage.keys.range_key_set**
(gauge) | Recuento aproximado de claves internas RangeKeySet en todo el motor de almacenamiento|
+| **cockroachdb.storage.keys.tombstone**
(calibre) | Recuento aproximado de claves internas DEL, SINGLEDEL y RANGEDEL en todo el motor de almacenamiento|
+| **cockroachdb.storage.l0_bytes_flushed**
(gauge) | Número de bytes descargados (desde memtables) en el nivel 0
_Se muestra como byte_ |
+| **cockroachdb.storage.l0_bytes_ingested**
(gauge) | Número de bytes ingeridos directamente en el nivel 0
_Se muestra como byte_ |
+| **cockroachdb.storage.l0_level_score**
(gauge) | Puntuación de compactación del nivel 0|
+| **cockroachdb.storage.l0_level_size**
(gauge) | Tamaño de las SSTables en el nivel 0
_Se muestra como byte_ |
+| **cockroachdb.storage.l0_num_files**
(gauge) | Número de SSTables en el nivel 0|
+| **cockroachdb.storage.l0_sublevels**
(gauge) | Número de subniveles del nivel 0|
+| **cockroachdb.storage.l1_bytes_ingested**
(gauge) | Número de bytes ingeridos directamente en el nivel 1
_Se muestra como byte_ |
+| **cockroachdb.storage.l1_level_score**
(gauge) | Puntuación de compactación del nivel 1|
+| **cockroachdb.storage.l1_level_size**
(gauge) | Tamaño de las SSTables en el nivel 1
_Se muestra como byte_ |
+| **cockroachdb.storage.l2_bytes_ingested**
(gauge) | Número de bytes ingeridos directamente en el nivel 2
_Se muestra como byte_ |
+| **cockroachdb.storage.l2_level_score**
(gauge) | Puntuación de compactación del nivel 2|
+| **cockroachdb.storage.l2_level_size**
(gauge) | Tamaño de las SSTables en el nivel 2
_Se muestra como byte_ |
+| **cockroachdb.storage.l3_bytes_ingested**
(gauge) | Número de bytes ingeridos directamente en el nivel 3
_Se muestra como byte_ |
+| **cockroachdb.storage.l3_level_score**
(gauge) | Puntuación de compactación del nivel 3|
+| **cockroachdb.storage.l3_level_size**
(gauge) | Tamaño de las SSTables en el nivel 3
_Se muestra como byte_ |
+| **cockroachdb.storage.l4_bytes_ingested**
(gauge) | Número de bytes ingeridos directamente en el nivel 4
_Se muestra como byte_ |
+| **cockroachdb.storage.l4_level_score**
(gauge) | Puntuación de compactación del nivel 4|
+| **cockroachdb.storage.l4_level_size**
(gauge) | Tamaño de las SSTables en el nivel 4
_Se muestra como byte_ |
+| **cockroachdb.storage.l5_bytes_ingested**
(gauge) | Número de bytes ingeridos directamente en el nivel 5
_Se muestra como byte_ |
+| **cockroachdb.storage.l5_level_score**
(gauge) | Puntuación de compactación del nivel 5|
+| **cockroachdb.storage.l5_level_size**
(gauge) | Tamaño de las SSTables del nivel 5
_Se muestra como byte_ |
+| **cockroachdb.storage.l6_bytes_ingested**
(gauge) | Número de bytes ingeridos directamente en el nivel 6
_Se muestra como byte_ |
+| **cockroachdb.storage.l6_level_score**
(indicador) | Puntuación de compactación del nivel 6|
+| **cockroachdb.storage.l6_level_size**
(gauge) | Tamaño de las SSTables en el nivel 6
_Se muestra como byte_ |
+| **cockroachdb.storage.marked_for_compaction_files**
(gauge) | Recuento de SSTables marcadas para compactación|
+| **cockroachdb.storage.queue.store_failures.count**
(count) | Número de réplicas que no se pudieron procesar en colas de replicación debido a errores reintentables del almacén|
+| **cockroachdb.storage.secondary_cache**
(gauge) | Recuento de bloques de caché en la caché secundaria (no bloques sstable)|
+| **cockroachdb.storage.secondary_cache.evictions**
(gauge) | Número de veces que un bloque de caché fue desalojado de la caché secundaria|
+| **cockroachdb.storage.secondary_cache.reads_full_hit**
(gauge) | Número de lecturas en las que todos los datos devueltos fueron leídos de la caché secundaria|
+| **cockroachdb.storage.secondary_cache.reads_multi_block**
(gauge) | Número de lecturas de la caché secundaria que requieren la lectura de datos de más de 2 bloques de caché|
+| **cockroachdb.storage.secondary_cache.reads_multi_shard**
(gauge) | Número de lecturas de la caché secundaria que requieren la lectura de datos de más de 2 fragmentos|
+| **cockroachdb.storage.secondary_cache.reads_no_hit**
(gauge) | Número de lecturas en las que no fueron devueltos datos leídos de la caché secundaria|
+| **cockroachdb.storage.secondary_cache.reads_partial_hit**
(gauge) | Número de lecturas en las que algunos datos devueltos fueron leídos de la caché secundaria|
+| **cockroachdb.storage.secondary_cache.reads_total**
(gauge) | Número de lecturas de la caché secundaria|
+| **cockroachdb.storage.secondary_cache.size**
(gauge) | Número de bytes de sstable almacenados en la caché secundaria
_Se muestra como byte_ |
+| **cockroachdb.storage.secondary_cache.write_back_failures**
(gauge) | Número de veces que falló la escritura de un bloque de caché en la caché secundaria|
+| **cockroachdb.storage.shared_storage.read**
(gauge) | Bytes leídos del almacenamiento compartido
_Se muestra como byte_ |
+| **cockroachdb.storage.shared_storage.write**
(gauge) | Bytes escritos en el almacenamiento externo
_Se muestra como byte_ |
+| **cockroachdb.storage.single_delete.ineffectual**
(gauge) | Número de SingleDeletes sin efecto|
+| **cockroachdb.storage.single_delete.invariant_violation**
(gauge) | Número de infracciones de la invariante SingleDelete|
+| **cockroachdb.storage.wal.bytes_in**
(gauge) | Número de bytes lógicos que el motor de almacenamiento escribió en el WAL|
+| **cockroachdb.storage.wal.bytes_written**
(gauge) | Número de bytes que el motor de almacenamiento escribió en el WAL|
+| **cockroachdb.storage.wal.fsync.latency.bucket**
(count) | Latencia fsync del registro de escritura anticipada
_Se muestra como nanosegundo_ |
+| **cockroachdb.storage.wal.fsync.latency.count**
(count) | Latencia fsync del registro de escritura anticipada
_Se muestra como nanosegundo_ |
+| **cockroachdb.storage.wal.fsync.latency.sum**
(count) | Latencia fsync del registro de escritura anticipada
_Se muestra como nanosegundo_ |
+| **cockroachdb.storage.write.stalls**
(gauge) | Número de casos de bloqueos de escritura intencionados para contrapresionar las escrituras entrantes|
+| **cockroachdb.storage.write_stall_nanos**
(gauge) | Duración total del bloqueo de escritura en nanos
_Se muestra como nanosegundo_ |
+| **cockroachdb.storage.write_stalls**
(gauge) | Número de casos de bloqueos de escritura intencionados para contrapresionar las escrituras entrantes|
+| **cockroachdb.sys.cgo.allocbytes**
(gauge) | \[OpenMetrics v1 y v2\] Bytes actuales de memoria asignados por cgo
_Se muestra como byte_ |
+| **cockroachdb.sys.cgo.totalbytes**
(gauge) | \[OpenMetrics v1 y v2\] Total de bytes de memoria asignados por cgo, pero no liberados
_Se muestra como byte_ |
+| **cockroachdb.sys.cgocalls**
(gauge) | \[OpenMetrics v1 y v2\] Número total de llamadas de cgo|
+| **cockroachdb.sys.cpu.combined.percent.normalized**
(gauge) | \[OpenMetrics v1 y v2\] Porcentaje actual de cpu de usuario+sistema, normalizado 0-1 por número de núcleos
_Se muestra como fracción_ |
+| **cockroachdb.sys.cpu.host.combined.percent_normalized**
(gauge) | Porcentaje actual de cpu de usuario+sistema en toda la máquina, normalizado 0-1 por número de núcleos
_Se muestra como porcentaje_ |
+| **cockroachdb.sys.cpu.now.ns**
(gauge) | La hora en que se tomaron las mediciones de la CPU, en nanosegundos desde la marca de tiempo
_Se muestra como nanosegundo_ |
+| **cockroachdb.sys.cpu.sys.ns**
(gauge) | \[OpenMetrics v1 y v2\] Tiempo total de cpu del sistema en nanosegundos
_Se muestra como nanosegundo_ |
+| **cockroachdb.sys.cpu.sys.percent**
(gauge) | \[OpenMetrics v1 y v2\] Porcentaje actual de cpu del sistema
_Se muestra como núcleo_ |
+| **cockroachdb.sys.cpu.user.ns**
(gauge) | \[OpenMetrics v1 y v2\] Tiempo total de cpu del usuario en nanosegundos
_Se muestra como nanosegundo_ |
+| **cockroachdb.sys.cpu.user.percent**
(gauge) | \[OpenMetrics v1 y v2\] Porcentaje de cpu del usuario actual
_Se muestra como núcleo_ |
+| **cockroachdb.sys.fd.open**
(gauge) | \[OpenMetrics v1 y v2\] Procesar descriptores de archivo abiertos|
+| **cockroachdb.sys.fd.softlimit**
(gauge) | \[OpenMetrics v1 y v2\] Procesar límite suave FD abierto|
+| **cockroachdb.sys.gc**
(gauge) | \[OpenMetrics v2\] Número total de ejecuciones GC|
+| **cockroachdb.sys.gc.count**
(gauge) | \[OpenMetrics v1\] Número total de ejecuciones GC|
+| **cockroachdb.sys.gc.pause.ns**
(gauge) | \[OpenMetrics v1 y v2\] Pausa GC total en nanosegundos
_Se muestra como nanosegundo_ |
+| **cockroachdb.sys.gc.pause.percent**
(gauge) | \[OpenMetrics v1 y v2\] Porcentaje actual de pausa GC
_Se muestra como fracción_ |
+| **cockroachdb.sys.go.allocbytes**
(gauge) | \[OpenMetrics v1 y v2\] Bytes actuales de memoria asignados por go
_Se muestra como byte_ |
+| **cockroachdb.sys.go.totalbytes**
(gauge) | \[OpenMetrics v1 y v2\] Total de bytes de memoria asignados por go, pero no liberados
_Se muestra como byte_ |
+| **cockroachdb.sys.goroutines**
(gauge) | \[OpenMetrics v1 y v2\] Número actual de goroutines|
+| **cockroachdb.sys.host.disk.io.time**
(gauge) | Tiempo dedicado a leer o escribir en todos los discos desde que se inició este proceso
_Se muestra como nanosegundo_ |
+| **cockroachdb.sys.host.disk.iopsinprogress**
(gauge) | Operaciones de E/S actualmente en curso en este host|
+| **cockroachdb.sys.host.disk.read**
(gauge) | Operaciones de lectura en todos los discos desde que se inició este proceso|
+| **cockroachdb.sys.host.disk.read.bytes**
(gauge) | \[OpenMetrics v1 y v2\] Bytes leídos de todos los discos desde que se inició este proceso
_Se muestra como byte_ |
+| **cockroachdb.sys.host.disk.read.count**
(gauge) | Operaciones de lectura en todos los discos desde que se inició este proceso|
+| **cockroachdb.sys.host.disk.read.time**
(gauge) | Tiempo dedicado a leer todos los discos desde que se inició este proceso
_Se muestra como nanosegundo_ |
+| **cockroachdb.sys.host.disk.weightedio.time**
(gauge) | Tiempo ponderado dedicado a leer o escribir en todos los discos desde que se inició este proceso
_Se muestra como nanosegundo_ |
+| **cockroachdb.sys.host.disk.write**
(gauge) | Operaciones de escritura en todos los discos desde que se inició este proceso|
+| **cockroachdb.sys.host.disk.write.bytes**
(gauge) | \[OpenMetrics v1 y v2\] Bytes escritos en todos los discos desde que se inició este proceso
_Se muestra como byte_ |
+| **cockroachdb.sys.host.disk.write.count**
(gauge) | Operaciones de escritura en todos los discos desde que se inició este proceso|
+| **cockroachdb.sys.host.disk.write.time**
(gauge) | Tiempo dedicado a escribir en todos los discos desde que se inició este proceso
_Se muestra como nanosegundo_ |
+| **cockroachdb.sys.host.net.recv.bytes**
(gauge) | \[OpenMetrics v1 y v2\] Bytes recibidos en todas las interfaces de red desde que se inició este proceso
_Se muestra como byte_ |
+| **cockroachdb.sys.host.net.recv.packets**
(gauge) | Paquetes recibidos en todas las interfaces de red desde que se inició este proceso|
+| **cockroachdb.sys.host.net.send.bytes**
(gauge) | \[OpenMetrics v1 y v2\] Bytes enviados en todas las interfaces de red desde que se inició este proceso
_Se muestra como byte_ |
+| **cockroachdb.sys.host.net.send.packets**
(gauge) | Paquetes enviados en todas las interfaces de red desde que se inició este proceso|
+| **cockroachdb.sys.rss**
(gauge) | \[OpenMetrics v1 y v2\] Proceso RSS actual|
+| **cockroachdb.sys.runnable.goroutines.per.cpu**
(gauge) | Número medio de goroutines en espera de ejecución, normalizado por el número de núcleos|
+| **cockroachdb.sys.runnable.goroutines.per_cpu**
(gauge) | Número medio de goroutines en espera de ejecución, normalizado por el número de núcleos|
+| **cockroachdb.sys.totalmem**
(gauge) | Memoria total (tanto libre como utilizada)
_Se muestra como byte_ |
+| **cockroachdb.sys.uptime**
(gauge) | \[OpenMetrics v1 y v2\] Tiempo de actividad del proceso en segundos
_Se muestra como segundo_ |
+| **cockroachdb.sysbytes**
(gauge) | \[OpenMetrics v1 y v2\] Número de bytes en pares KV del sistema
_Se muestra como byte_ |
+| **cockroachdb.syscount**
(gauge) | \[OpenMetrics v1 y v2\] Recuento de pares KV del sistema|
+| **cockroachdb.tenant.consumption.cross_region_network_ru.count**
(count) | Número total de RU cobradas por el tráfico de red entre regiones|
+| **cockroachdb.tenant.consumption.external_io_egress_bytes**
(gauge) | Número total de bytes escritos en servicios externos como proveedores de almacenamiento en la nube|
+| **cockroachdb.tenant.consumption.external_io_ingress_bytes**
(gauge) | Número total de bytes leídos de servicios externos como proveedores de almacenamiento en la nube|
+| **cockroachdb.tenant.consumption.kv_request_units**
(gauge) | Consumo de RU atribuible a KV|
+| **cockroachdb.tenant.consumption.kv_request_units.count**
(count) | Consumo de RU atribuible a KV|
+| **cockroachdb.tenant.consumption.pgwire_egress_bytes**
(gauge) | Número total de bytes transferidos desde un pod SQL al cliente|
+| **cockroachdb.tenant.consumption.read_batches**
(gauge) | Número total de lotes de lectura KV|
+| **cockroachdb.tenant.consumption.read_bytes**
(gauge) | Número total de bytes leídos de KV|
+| **cockroachdb.tenant.consumption.read_requests**
(gauge) | Número total de solicitudes de lectura a KV|
+| **cockroachdb.tenant.consumption.request_units**
(gauge) | Consumo total de RU|
+| **cockroachdb.tenant.consumption.request_units.count**
(count) | Consumo total de RU|
+| **cockroachdb.tenant.consumption.sql_pods_cpu_seconds**
(gauge) | Cantidad total de CPU utilizada por pods SQL
_Se muestra como segundo_ |
+| **cockroachdb.tenant.consumption.write_batches**
(gauge) | Número total de lotes de escritura en KV|
+| **cockroachdb.tenant.consumption.write_bytes**
(gauge) | Número total de bytes escritos en KV|
+| **cockroachdb.tenant.consumption.write_requests**
(gauge) | Número total de solicitudes de escritura en KV|
+| **cockroachdb.timeseries.write.bytes**
(count) | \[OpenMetrics v1\] Tamaño total en bytes de las muestras de métricas escritas en disco
_Se muestra como byte_ |
+| **cockroachdb.timeseries.write.bytes.count**
(count) | \[OpenMetrics v2\] Tamaño total en bytes de las muestras de métricas escritas en disco
_Se muestra como byte_ |
+| **cockroachdb.timeseries.write.errors**
(count) | \[OpenMetrics v1\] Total de errores encontrados al intentar escribir métricas en disco
_Se muestra como error_ |
+| **cockroachdb.timeseries.write.errors.count**
(count) | \[OpenMetrics v2\] Total de errores encontrados al intentar escribir métricas en disco
_Se muestra como error_ |
+| **cockroachdb.timeseries.write.samples**
(count) | \[OpenMetrics v1\] Número total de muestras de métricas escritas en disco|
+| **cockroachdb.timeseries.write.samples.count**
(count) | \[OpenMetrics v2\] Número total de muestras de métricas escritas en disco|
+| **cockroachdb.totalbytes**
(gauge) | \[OpenMetrics v1 y v2\] Número total de bytes ocupados por claves y valores incluyendo datos no activos
_Se muestra como byte_ |
+| **cockroachdb.tscache.skl.pages**
(gauge) | Número de páginas en la caché de marcas de tiempo|
+| **cockroachdb.tscache.skl.read.pages**
(gauge) | \[OpenMetrics v1 y v2\] Número de páginas en la caché de marcas de tiempo de lectura|
+| **cockroachdb.tscache.skl.read.rotations**
(count) | \[OpenMetrics v1\] Número de rotaciones de página en la caché de marcas de tiempo de lectura|
+| **cockroachdb.tscache.skl.read.rotations.count**
(count) | \[OpenMetrics v2\] Número de rotaciones de página en la caché de marcas de tiempo de lectura|
+| **cockroachdb.tscache.skl.rotations.count**
(count) | Número de rotaciones de página en la caché de marcas de tiempo|
+| **cockroachdb.tscache.skl.write.pages**
(gauge) | \[OpenMetrics v1 y v2\] Número de páginas en la caché de marcas de tiempo de escritura|
+| **cockroachdb.tscache.skl.write.rotations**
(count) | \[OpenMetrics v1\] Número de rotaciones de página en la caché de marcas de tiempo de escritura|
+| **cockroachdb.tscache.skl.write.rotations.count**
(count) | \[OpenMetrics v2\] Número de rotaciones de página en la caché de marcas de tiempo de escritura|
+| **cockroachdb.txn.abandons**
(count) | \[OpenMetrics v1\] Número de transacciones KV abandonadas|
+| **cockroachdb.txn.abandons.count**
(count) | \[OpenMetrics v2\] Número de transacciones KV abandonadas|
+| **cockroachdb.txn.aborts**
(count) | \[OpenMetrics v1\] Número de transacciones KV canceladas|
+| **cockroachdb.txn.aborts.count**
(count) | \[OpenMetrics v2\] Número de transacciones KV canceladas|
+| **cockroachdb.txn.autoretries**
(count) | \[OpenMetrics v1\] Número de reintentos automáticos para evitar reinicios serializables|
+| **cockroachdb.txn.autoretries.count**
(count) | \[OpenMetrics v2\] Número de reintentos automáticos para evitar reinicios serializables|
+| **cockroachdb.txn.commit_waits.before_commit_trigger.count**
(count) | Número de transacciones KV que tuvieron que esperar en el servidor antes de confirmarse porque tenían un activador de confirmación|
+| **cockroachdb.txn.commit_waits.count**
(count) | Número de transacciones KV que tuvieron que esperar la confirmación para garantizar la linealidad. Esto suele ocurrir con transacciones que escriben en rangos globales.|
+| **cockroachdb.txn.commits**
(count) | \[OpenMetrics v1\] Número de transacciones KV confirmadas (incluyendo 1PC)|
+| **cockroachdb.txn.commits.count**
(count) | \[OpenMetrics v2\] Número de transacciones KV confirmadas (incluyendo 1PC)|
+| **cockroachdb.txn.commits1PC**
(count) | \[OpenMetrics v1\] Número de transacciones KV de una fase confirmadas|
+| **cockroachdb.txn.commits1PC.count**
(count) | \[OpenMetrics v2\] Número de transacciones KV de una fase confirmadas|
+| **cockroachdb.txn.condensed_intent_spans.count**
(count) | Transacciones KV que excedieron su presupuesto de memoria de seguimiento de intentos (kv.transaction.max_intents_bytes). Para obtener un indicador de las transacciones que se están ejecutando actualmente, consulta también txn.condensed_intent_spans_gauge.|
+| **cockroachdb.txn.condensed_intent_spans_gauge**
(gauge) | Transacciones KV que se están ejecutando actualmente y que excedieron su presupuesto de memoria de seguimiento de intentos (kv.transaction.max_intents_bytes). Para un contador/una tasa perpetuos, consulta también txn.condensed_intent_spans.|
+| **cockroachdb.txn.condensed_intent_spans_rejected.count**
(count) | Transacciones KV que se cancelaron porque excedieron su presupuesto de memoria de seguimiento de intentos (kv.transaction.max_intents_bytes). El rechazo lo provoca kv.transaction.reject_over_max_intents_budget.|
+| **cockroachdb.txn.durations**
(gauge) | \[OpenMetrics v1\] Duración de las transacciones KV en nanosegundos|
+| **cockroachdb.txn.durations.bucket**
(count) | \[OpenMetrics v2\] Duración de las transacciones KV en nanosegundos|
+| **cockroachdb.txn.durations.count**
(count) | \[OpenMetrics v2\] Duración de las transacciones KV en nanosegundos|
+| **cockroachdb.txn.durations.sum**
(count) | \[OpenMetrics v2\] Duración de las transacciones KV en nanosegundos|
+| **cockroachdb.txn.parallelcommits.auto_retries.count**
(count) | Número de intentos de confirmación después de intentos de confirmación fallidos exitosos paralelos|
+| **cockroachdb.txn.parallelcommits.count**
(count) | Número de intentos de confirmación paralelos de transacciones KV|
+| **cockroachdb.txn.refresh.auto_retries.count**
(count) | Número de reintentos de solicitud luego de una actualización exitosa del cliente|
+| **cockroachdb.txn.refresh.fail.count**
(count) | Número de actualizaciones de transacciones del lado del cliente fallidas|
+| **cockroachdb.txn.refresh.fail_with_condensed_spans.count**
(count) | Número de actualizaciones de transacciones del lado del cliente fallidas, cuyo seguimiento de lectura perdió fidelidad debido a la condensación. Un fallo de este tipo podría ser un falso conflicto. Los fallos contabilizados aquí también se contabilizan en txn.refresh.fail, y las transacciones respectivas también se contabilizan en txn.refresh.memory_limit_exceeded.|
+| **cockroachdb.txn.refresh.memory_limit_exceeded.count**
(count) | Número de transacciones que superan el límite de bytes de tramos de actualización, lo que provoca que se condensen sus intervalos de lectura|
+| **cockroachdb.txn.refresh.success.count**
(count) | Número de actualizaciones de transacciones del lado del cliente exitosas. Una actualización puede ser preventiva o reactiva. Una actualización reactiva se realiza después de que una petición arroje un error porque se necesita una actualización para que tenga éxito. En estos casos, la solicitud será reemitida como un auto-reintento (ver txn.refresh.auto_retries) después de que la actualización tenga éxito.|
+| **cockroachdb.txn.refresh.success_server_side.count**
(count) | Número de actualizaciones de transacciones del servidor exitosas|
+| **cockroachdb.txn.restarts**
(gauge) | \[OpenMetrics v1\] Número de transacciones KV reiniciadas|
+| **cockroachdb.txn.restarts.asyncwritefailure.count**
(count) | Número de reinicios debidos a escrituras consensuadas asíncronas que no consiguieron dejar intentos|
+| **cockroachdb.txn.restarts.bucket**
(count) | \[OpenMetrics v2\] Número de transacciones KV reiniciadas|
+| **cockroachdb.txn.restarts.commitdeadlineexceeded.count**
(count) | Número de reinicios debidos a que una transacción superó su límite de tiempo|
+| **cockroachdb.txn.restarts.count**
(count) | \[OpenMetrics v2\] Número de transacciones KV reiniciadas|
+| **cockroachdb.txn.restarts.deleterange**
(count) | \[OpenMetrics v1\] Número de reinicios debidos a una marca de tiempo de confirmación reenviada y a un comando DeleteRange|
+| **cockroachdb.txn.restarts.deleterange.count**
(count) | \[OpenMetrics v2\] Número de reinicios debidos a una marca de tiempo de confirmación reenviada y a un comando DeleteRange|
+| **cockroachdb.txn.restarts.possiblereplay**
(count) | \[OpenMetrics v1\] Número de reinicios debidos a posibles repeticiones de lotes de comandos en la capa de almacenamiento|
+| **cockroachdb.txn.restarts.possiblereplay.count**
(count) | \[OpenMetrics v2\] Número de reinicios debidos a posibles repeticiones de lotes de comandos en la capa de almacenamiento|
+| **cockroachdb.txn.restarts.readwithinuncertainty.count**
(count) | Número de reinicios debidos a la lectura de un nuevo valor dentro del intervalo de incertidumbre|
+| **cockroachdb.txn.restarts.serializable**
(count) | \[OpenMetrics v1\] Número de reinicios debidos a una marca de tiempo de confirmación reenviada y a un aislamiento=SERIALIZABLE|
+| **cockroachdb.txn.restarts.serializable.count**
(count) | \[OpenMetrics v2\] Número de reinicios debidos a una marca de tiempo de confirmación reenviada y a un aislamiento=SERIALIZABLE|
+| **cockroachdb.txn.restarts.sum**
(count) | \[OpenMetrics v2\] Número de transacciones KV reiniciadas|
+| **cockroachdb.txn.restarts.txnaborted.count**
(count) | Número de reinicios debidos a la cancelación de una transacción concurrente (normalmente debido a un bloqueo)|
+| **cockroachdb.txn.restarts.txnpush.count**
(count) | Número de reinicios debidos a un fallo de envío de transacción|
+| **cockroachdb.txn.restarts.unknown.count**
(count) | Número de reinicios por causas desconocidas|
+| **cockroachdb.txn.restarts.writetooold**
(count) | \[OpenMetrics v1\] Número de reinicios debidos a que un escritor se confirmó primero|
+| **cockroachdb.txn.restarts.writetooold.count**
(count) | \[OpenMetrics v2\] Número de reinicios debidos a que un escritor se confirmó primero|
+| **cockroachdb.txn.restarts.writetoooldmulti.count**
(count) | Número de reinicios debidos a que varios escritores concurrentes se confirmaron primero|
+| **cockroachdb.txn.rollbacks.async.failed.count**
(count) | Número de transacciones KV que no pudieron enviar cancelaciones de forma asíncrona y que no siempre se vuelven a intentar|
+| **cockroachdb.txn.rollbacks.failed.count**
(count) | Número de transacciones KV que no pudieron enviar la cancelación final|
+| **cockroachdb.txn.server_side.1PC.failure.count**
(count) | Número de lotes que intentaron confirmar utilizando 1PC y fallaron|
+| **cockroachdb.txn.server_side.1PC.success.count**
(count) | Número de lotes que intentaron confirmar utilizando 1PC y lo consiguieron|
+| **cockroachdb.txn.server_side_retry.read_evaluation.failure.count**
(count) | Número de lotes de lectura que no se actualizaron con éxito en el servidor|
+| **cockroachdb.txn.server_side_retry.read_evaluation.success.count**
(count) | Número de lotes de lectura que se actualizaron con éxito en el servidor|
+| **cockroachdb.txn.server_side_retry.uncertainty_interval_error.failure.count**
(count) | Número de lotes con errores de intervalo de incertidumbre que no se actualizaron con éxito en el servidor|
+| **cockroachdb.txn.server_side_retry.uncertainty_interval_error.success.count**
(count) | Número de lotes con errores de intervalo de incertidumbre que se actualizaron correctamente en el servidor|
+| **cockroachdb.txn.server_side_retry.write_evaluation.failure.count**
(count) | Número de lotes de escritura que no se actualizaron correctamente en el servidor|
+| **cockroachdb.txn.server_side_retry.write_evaluation.success.count**
(count) | Número de lotes de escritura que se actualizaron correctamente en el servidor|
+| **cockroachdb.txnrecovery.attempts.count**
(count) | Número de intentos de recuperación de transacciones ejecutados|
+| **cockroachdb.txnrecovery.attempts.pending**
(gauge) | Número de intentos de recuperación de transacciones en curso|
+| **cockroachdb.txnrecovery.failures.count**
(count) | Número de intentos de recuperación de transacciones fallidos|
+| **cockroachdb.txnrecovery.successes.aborted.count**
(count) | Número de intentos de recuperación de transacciones que cancelaron una transacción|
+| **cockroachdb.txnrecovery.successes.committed.count**
(count) | Número de intentos de recuperación de transacciones que confirmaron una transacción|
+| **cockroachdb.txnrecovery.successes.pending.count**
(count) | Número de intentos de recuperación de transacciones que dejaron una transacción pendiente|
+| **cockroachdb.txnwaitqueue.deadlocks.count**
(count) | Número de bloqueos detectados por la cola de espera de transacciones|
+| **cockroachdb.txnwaitqueue.deadlocks_total.count**
(count) | Número de interbloqueos detectados por la cola de espera de transacciones|
+| **cockroachdb.txnwaitqueue.pushee.waiting**
(gauge) | Número de empujadores en la cola de espera de transacciones|
+| **cockroachdb.txnwaitqueue.pusher.slow**
(gauge) | Número total de casos en los que un empujador esperó más que el umbral de espera excesiva|
+| **cockroachdb.txnwaitqueue.pusher.wait_time.bucket**
(count) | Histograma de las duraciones de permanencia en la cola de los empujadores
_Se muestra como nanosegundo_ |
+| **cockroachdb.txnwaitqueue.pusher.wait_time.count**
(count) | Histograma de las duraciones de permanencia de los empujadores en la cola
_Se muestra como nanosegundo_ |
+| **cockroachdb.txnwaitqueue.pusher.wait_time.sum**
(count) | Histograma de las duraciones de permanencia de los empujadores en la cola
_Se muestra como nanosegundo_ |
+| **cockroachdb.txnwaitqueue.pusher.waiting**
(gauge) | Número de empujadores en la cola de espera de transacciones|
+| **cockroachdb.txnwaitqueue.query.wait_time.bucket**
(count) | Histograma de las duraciones de permanencia de las consultas en la cola
_Se muestra como nanosegundo_ |
+| **cockroachdb.txnwaitqueue.query.wait_time.count**
(count) | Histograma de las duraciones de permanencia de las consultas en la cola
_Se muestra como nanosegundo_ |
+| **cockroachdb.txnwaitqueue.query.wait_time.sum**
(count) | Histograma de las duraciones de permanencia de las consultas en la cola
_Se muestra como nanosegundo_ |
+| **cockroachdb.txnwaitqueue.query.waiting**
(gauge) | Número de consultas sobre el estado de las transacciones en espera de un registro de transacciones actualizado|
+| **cockroachdb.valbytes**
(gauge) | \[OpenMetrics v1 y v2\] Número de bytes ocupados por los valores
_Se muestra como byte_ |
+| **cockroachdb.valcount**
(gauge) | \[OpenMetrics v1 y v2\] Recuento de todos los valores|
### Checks de servicio
-El check de CockroachDB no incluye checks de servicio.
+**cockroachdb.openmetrics.health**
+
+Devuelve `CRITICAL` si el check no puede acceder al endpoint de métricas OpenMetrics de CockroachDB.
+
+_Estados: ok, crítico_
+
+**cockroachdb.prometheus.health**
+
+Devuelve `CRITICAL` si el check no puede acceder al endpoint de métricas Prometheus de CockroachDB.
+
+_Estados: ok, crítico_
### Eventos
@@ -195,19 +2240,10 @@ El check de CockroachDB no incluye eventos.
## Solucionar problemas
-¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][6].
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/).
## Referencias adicionales
-Más enlaces, artículos y documentación útiles:
-
-- [Monitorizar métricas de rendimiento de CockroachDB con Datadog][7]
-
+Documentación útil adicional, enlaces y artículos:
-[1]: https://www.cockroachlabs.com/product/cockroachdb
-[2]: https://app.datadoghq.com/account/settings/agent/latest
-[3]: https://docs.datadoghq.com/es/integrations/guide/versions-for-openmetrics-based-integrations
-[4]: https://github.com/DataDog/integrations-core/blob/7.33.x/cockroachdb/datadog_checks/cockroachdb/data/conf.yaml.example
-[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
-[6]: https://docs.datadoghq.com/es/help/
-[7]: https://www.datadoghq.com/blog/monitor-cockroachdb-performance-metrics-with-datadog
\ No newline at end of file
+- [Monitorizar métricas de rendimiento de CockroachDB con Datadog](https://www.datadoghq.com/blog/monitor-cockroachdb-performance-metrics-with-datadog)
\ No newline at end of file
diff --git a/content/es/integrations/consul.md b/content/es/integrations/consul.md
index 1259ae4ec21d6..f1bcd6c68c6eb 100644
--- a/content/es/integrations/consul.md
+++ b/content/es/integrations/consul.md
@@ -1,38 +1,5 @@
---
app_id: consul
-app_uuid: d0b52e9d-6594-4ff5-9b66-800943f75756
-assets:
- dashboards:
- consul: assets/dashboards/consul_overview.json
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: true
- metrics:
- check: consul.peers
- metadata_path: metadata.csv
- prefix: consul.
- process_signatures:
- - consul agent
- - consul_agent
- - consul-agent
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 122
- source_type_name: Consul
- monitors:
- consul service status: assets/monitors/consul_status.json
- saved_views:
- consul_errors: assets/saved_views/consul_errors.json
- consul_overview: assets/saved_views/consul_overview.json
- consul_processes: assets/saved_views/consul_processes.json
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
- configuration & deployment
- containers
@@ -41,63 +8,36 @@ categories:
- notifications
- orchestration
custom_kind: integración
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/consul/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: consul
-integration_id: consul
-integration_title: Consul
-integration_version: 4.0.0
-is_public: true
-manifest_version: 2.0.0
-name: consul
-public_title: Consul
-short_description: Alerta sobre los controles de estado de Consul, consulta las asignaciones
- de servicio a nodo y mucho más.
+description: Recibe alertas sobre los checks de estado de Consul, ve las asignaciones
+ de servicio a nodo y mucho más. more.
+further_reading:
+- link: https://docs.datadoghq.com/integrations/guide/hcp-consul
+ tag: documentación
+ text: Monitorización de HCP Cónsul con Datadog
+- link: https://www.datadoghq.com/blog/monitor-consul-health-and-performance-with-datadog
+ tag: blog
+ text: Monitorización del estado y rendimiento de Consul con Datadog
+- link: https://www.datadoghq.com/blog/engineering/consul-at-datadog/
+ tag: blog
+ text: Consul en Datadog
+- link: https://www.datadoghq.com/blog/consul-metrics/
+ tag: blog
+ text: Métricas clave para la monitorización de Consul
+- link: https://www.datadoghq.com/blog/consul-monitoring-tools/
+ tag: blog
+ text: Herramientas de monitorización de Consul
+- link: https://www.datadoghq.com/blog/consul-datadog/
+ tag: blog
+ text: Cómo monitorizar Consul con Datadog
+integration_version: 5.0.0
+media: []
supported_os:
- linux
- windows
- macos
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Category::Configuración y despliegue
- - Category::Contenedores
- - Category::Recopilación de logs
- - Category::Red
- - Category::Notificaciones
- - Category::Orquestación
- - Supported OS::Linux
- - Supported OS::Windows
- - Supported OS::macOS
- - Offering::integración
- configuration: README.md#Configuración
- description: Alerta sobre los controles de estado de Consul, consulta las asignaciones
- de servicio a nodo y mucho más.
- media: []
- overview: README.md#Información general
- resources:
- - resource_type: documentación
- url: https://docs.datadoghq.com/integrations/guide/hcp-consul
- - resource_type: blog
- url: https://www.datadoghq.com/blog/monitor-consul-health-and-performance-with-datadog
- - resource_type: blog
- url: https://www.datadoghq.com/blog/engineering/consul-at-datadog/
- - resource_type: blog
- url: https://www.datadoghq.com/blog/consul-metrics/
- - resource_type: blog
- url: https://www.datadoghq.com/blog/consul-monitoring-tools/
- - resource_type: blog
- url: https://www.datadoghq.com/blog/consul-datadog/
- support: README.md#Soporte
- title: Consul
+title: Consul
---
-
-
-
-
-![Consul Dash][1]
+
## Información general
@@ -114,7 +54,7 @@ El _Consul_ Agent puede proporcionar métricas adicionales con DogStatsD. Estas
- Protocolo Raft
- Rendimiento del DNS
-Y mucho más.
+Y muchos más.
Por último, además de las métricas, el Datadog Agent también envía un check de servicio para cada uno de los checks de estado de Consul y un evento después de cada nueva elección de líder.
@@ -122,20 +62,21 @@ Por último, además de las métricas, el Datadog Agent también envía un check
### Instalación
-El check de Consul está incluido en el paquete del [Datadog Agent][2], por lo que no necesitas instalar nada más en tus nodos de Consul.
+El check de Consul del Datadog Agent está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest), por lo que no necesitas instalar nada más en tus nodos de Consul.
### Configuración
{{< tabs >}}
+
{{% tab "Host" %}}
-#### Host
+#### host
Para configurar este check para un Agent que se ejecuta en un host:
##### Recopilación de métricas
-1. Edita el archivo `consul.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][1] para empezar a recopilar tus métricas de Consul. Para ver todas las opciones disponibles de configuración, consulta el [ejemplo consul.d/conf.yaml][2].
+1. Edita el archivo `consul.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory) para comenzar a recopilar tus métricas de Consul. Consulta el [consul.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/consul/datadog_checks/consul/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
```yaml
init_config:
@@ -149,7 +90,7 @@ Para configurar este check para un Agent que se ejecuta en un host:
- url: http://localhost:8500
```
-2. [Reinicia el Agent][3].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
###### OpenMetrics
@@ -157,44 +98,45 @@ Opcionalmente, puedes habilitar la opción de configuración `use_prometheus_end
**Nota**: Utiliza el método DogStatsD o Prometheus; no habilites ambos para la misma instancia.
-1. Configura Consul para exponer métricas al endpoint de Prometheus. Establece [`prometheus_retention_time`][4] anidado bajo la clave `telemetry` de nivel superior del archivo de configuración principal de Consul:
+1. Configura Consul para exponer métricas al endpoint de Prometheus. Establece [`prometheus_retention_time`](https://www.consul.io/docs/agent/options#telemetry-prometheus_retention_time) anidado bajo la clave de nivel superior `telemetry` del archivo de configuración principal de Consul:
- ```conf
- {
- ...
- "telemetry": {
- "prometheus_retention_time": "360h"
- },
- ...
- }
- ```
+ ```conf
+ {
+ ...
+ "telemetry": {
+ "prometheus_retention_time": "360h"
+ },
+ ...
+ }
+ ```
+
+1. Edita el archivo `consul.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory) para empezar a utilizar el endpoint de Prometheus.
-2. Edita el archivo `consul.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent][1] para empezar a usar el endpoint de Prometheus.
- ```yaml
- instances:
- - url:
- use_prometheus_endpoint: true
- ```
+ ```yaml
+ instances:
+ - url:
+ use_prometheus_endpoint: true
+ ```
-3. [Reinicia el Agent][3].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
##### DogStatsD
-En lugar de utilizar el endpoint de Prometheus, puedes configurar Consul para enviar el mismo conjunto de métricas adicionales al Agent a través de [DogStatsD][5].
+En lugar de utilizar el endpoint de Prometheus, puedes configurar Consul para que envíe el mismo conjunto de métricas adicionales al Agent a través de [DogStatsD](https://docs.datadoghq.com/developers/dogstatsd/).
1. Configura Consul para enviar métricas de DogStatsD añadiendo `dogstatsd_addr` anidado bajo la clave `telemetry` de nivel superior en el archivo de configuración principal de Consul:
- ```conf
- {
- ...
- "telemetry": {
- "dogstatsd_addr": "127.0.0.1:8125"
- },
- ...
- }
- ```
+ ```conf
+ {
+ ...
+ "telemetry": {
+ "dogstatsd_addr": "127.0.0.1:8125"
+ },
+ ...
+ }
+ ```
-2. Actualiza el [archivo de configuración principal del Datadog Agent][6] `datadog.yaml` añadiendo las siguientes configuraciones para garantizar que las métricas estén etiquetadas correctamente:
+1. Actualiza el [archivo de configuración principal del Datadog Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/) `datadog.yaml` añadiendo los siguientes ajustes para garantizar que las métricas se etiquetan correctamente:
```yaml
# dogstatsd_mapper_cache_size: 1000 # default to 1000
@@ -225,11 +167,11 @@ En lugar de utilizar el endpoint de Prometheus, puedes configurar Consul para en
peer_id: "$1"
```
-3. [Reinicia el Agent][3].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
##### Recopilación de logs
-_Disponible para la versión 6.0 o posteriores del Agent_
+_Disponible para las versiones 6.0 o posteriores del Agent_
1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala en tu archivo `datadog.yaml` con:
@@ -237,7 +179,7 @@ _Disponible para la versión 6.0 o posteriores del Agent_
logs_enabled: true
```
-2. Edita este bloque de configuración en tu archivo `consul.yaml` para recopilar logs de Consul:
+1. Edita este bloque de configuración en tu archivo `consul.yaml` para recopilar logs de Consul:
```yaml
logs:
@@ -248,22 +190,17 @@ _Disponible para la versión 6.0 o posteriores del Agent_
```
Cambia los valores de los parámetros `path` y `service` y configúralos para tu entorno.
- Para conocer todas las opciones de configuración disponibles, consulta el [consul.d/conf.yaml de ejemplo][2].
+ Consulta el [consul.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/consul/datadog_checks/consul/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
-3. [Reinicia el Agent][3].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
-[1]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/#agent-configuration-directory
-[2]: https://github.com/DataDog/integrations-core/blob/master/consul/datadog_checks/consul/data/conf.yaml.example
-[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[4]: https://www.consul.io/docs/agent/options#telemetry-prometheus_retention_time
-[5]: https://docs.datadoghq.com/es/developers/dogstatsd/
-[6]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/
{{% /tab %}}
-{{% tab "Contenedorizado" %}}
-#### Contenedores
+{{% tab "Containerized" %}}
+
+#### En contenedores
-Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación.
+Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de los parámetros que se indican a continuación.
##### Recopilación de métricas
@@ -275,23 +212,21 @@ Para entornos en contenedores, consulta las [plantillas de integración de Autod
##### Recopilación de logs
-_Disponible para la versión 6.0 o posteriores del Agent_
+_Disponible para las versiones 6.0 o posteriores del Agent_
-La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta [Recopilación de logs de Kubernetes][2].
+La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/).
| Parámetro | Valor |
| -------------- | --------------------------------------------------- |
| `` | `{"source": "consul", "service": ""}` |
-
-[1]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/
-[2]: https://docs.datadoghq.com/es/agent/kubernetes/log/
{{% /tab %}}
+
{{< /tabs >}}
### Validación
-[Ejecuta el subcomando de estado del Agent][3] y busca `consul` en la sección Checks.
+[Ejecuta el subcomando de estado del Agent(https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `consul` en la sección Checks.
**Nota**: Si tus nodos de Consul tienen habilitado el registro de depuración, el sondeo regular del Datadog Agent se muestra en el log de Consul:
@@ -317,12 +252,165 @@ udp 0 0 127.0.0.1:53874 127.0.0.1:8125 ESTABLISHED
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "consul" >}}
-
-Consulta el [documento de telemetría del Consul][4] para obtener una descripción de las métricas que el Consul Agent envía a DogStatsD.
-
-Consulta el [documento de coordenadas de red de Consul][5] para obtener detalles sobre cómo se calculan las métricas de latencia de red.
+| | |
+| --- | --- |
+| **consul.catalog.nodes_critical**
(gauge) | \[Integración\] El número de nodos registrados con estado de servicio `critical`
_Se muestra como nodo_ |
+| **consul.catalog.nodes_passing**
(gauge) | \[Integración\] El número de nodos registrados con estado de servicio `passing`
_Se muestra como nodo_ |
+| **consul.catalog.nodes_up**
(gauge) | \[Integración\] El número de nodos
_Se muestra como nodo_ |
+| **consul.catalog.nodes_warning**
(gauge) | \[Integración\] El número de nodos registrados con estado de servicio `warning`
_Se muestra como nodo_ |
+| **consul.catalog.services_count**
(gauge) | \[Integración\] Métrica para contar el número de servicios que coinciden con criterios como la etiqueta del servicio, el nombre del nodo o el estado. Se puede consultar mediante el agregador `sum by`.
_Se muestra como servicio_ |
+| **consul.catalog.services_critical**
(gauge) | \[Integración\] Total de servicios críticos en los nodos
_Se muestra como servicio_ |
+| **consul.catalog.services_passing**
(gauge) | \[Integración\] Total de servicios aprobados en los nodos
_Se muestra como servicio_ |
+| **consul.catalog.services_up**
(gauge) | \[Integración\] Total de servicios registrados en los nodos
_Se muestra como servicio_ |
+| **consul.catalog.services_warning**
(gauge) | \[Integración\] Total de servicios de alerta en los nodos
_Se muestra como servicio_ |
+| **consul.catalog.total_nodes**
(gauge) | \[Integración\] El número de nodos registrados en el clúster de consul
_Se muestra como nodo_ |
+| **consul.check.up**
(gauge) | Métrica que representa el estado de un check de servicio. Un valor de 0 = no disponible, 1 = aprobado, 2 = advertencia, 3 = crítico.|
+| **consul.client.rpc**
(count) | \[DogStatsD\] \[Prometheus\] Se incrementa cada vez que un agente de Consul en modo cliente hace una solicitud RPC a un servidor de Consul. Esto da una medida de cuánto está cargando un agent dado los servidores de Consul. Esto solo lo generan los agents en modo cliente, no los servidores de Consul.
_Se muestra como solicitud_ |
+| **consul.client.rpc.failed**
(count) | \[DogStatsD\] \[Prometheus\] Se incrementa cada vez que un agente de Consul en modo cliente realiza una solicitud RPC a un servidor de Consul y falla
_Se muestra como solicitud_ |
+| **consul.http.request**
(gauge) | \[DogStatsD\] Realiza un seguimiento de cuánto tiempo se tarda en atender la solicitud HTTP dada para el verbo y la ruta dados. Usando un asignador DogStatsD como se describe en el README, las rutas se asignan a etiquetas y no incluyen detalles como nombres de servicio o clave. Para estas rutas, un guión bajo está presente como parámetro, por ejemplo: `http_method:GET, path:v1.kv._)`
_Se muestra como milisegundo_ |
+| **consul.http.request.count**
(count) | \[Prometheus\] Un recuento de cuánto tiempo se tarda en atender la solicitud HTTP dada para el verbo y la ruta dados. Incluye etiquetas para ruta y método. La ruta no incluye detalles como nombres de servicio o clave. Para estas rutas, un guión bajo está presente como parámetro, por ejemplo: `path=v1.kv._)`
_Se muestra como milisegundo_ |
+| **consul.http.request.quantile**
(gauge) | \[Prometheus\] Un cuantil de cuánto tiempo se tarda en atender la solicitud HTTP dada para el verbo y la ruta dados. Incluye etiquetas para ruta y método. La ruta no incluye detalles como nombres de servicio o clave. Para estas rutas, hay un guión bajo como parámetro, por ejemplo: `path=v1.kv._)`
_Se muestra como milisegundo_ |
+| **consul.http.request.sum**
(count) | \[Prometheus\] La suma de lo que se tarda en atender la solicitud HTTP dada para el verbo y la ruta dados. Incluye etiquetas para ruta y método. La ruta no incluye detalles como nombres de servicio o clave. Para estas rutas, un guión bajo está presente como parámetro, por ejemplo: `path=v1.kv._)`
_Se muestra como milisegundo_ |
+| **consul.memberlist.degraded.probe**
(gauge) | \[DogStatsD\] \[Prometheus\] Esta métrica cuenta el número de veces que el agent de Consul ha realizado la detección de fallos en otro agent a una velocidad de sonda más lenta. El agent utiliza su propia métrica de estado como indicador para realizar esta acción. Si su puntuación de estado es baja, significa que el nodo está en buen estado, y viceversa.|
+| **consul.memberlist.gossip.95percentile**
(gauge) | \[DogStatsD\] El p95 para el número de chismes (mensajes) emitidos a un conjunto de nodos seleccionados aleatoriamente.
_Se muestra como mensaje_ |
+| **consul.memberlist.gossip.avg**
(gauge) | \[DogStatsD\] Promedio del número de chismes (mensajes) emitidos a un conjunto de nodos seleccionados aleatoriamente.
_Se muestra como mensaje_ |
+| **consul.memberlist.gossip.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de consul.memberlist.gossip|
+| **consul.memberlist.gossip.max**
(gauge) | \[DogStatsD\] El máximo para el número de chismes (mensajes) difundidos a un conjunto de nodos seleccionados al azar.
_Se muestra como mensaje_ |
+| **consul.memberlist.gossip.median**
(gauge) | \[DogStatsD\] La mediana del número de chismes (mensajes) emitidos a un conjunto de nodos seleccionados aleatoriamente.
_Se muestra como mensaje_ |
+| **consul.memberlist.gossip.quantile**
(gauge) | \[Prometheus\] El cuantil del número de chismes (mensajes) emitidos a un conjunto de nodos seleccionados aleatoriamente.
_Se muestra como mensaje_ |
+| **consul.memberlist.gossip.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma del número de chismes (mensajes) emitidos a un conjunto de nodos seleccionados aleatoriamente.
_Se muestra como mensaje_ |
+| **consul.memberlist.health.score**
(gauge) | \[DogStatsD\] \[Prometheus\] Esta métrica describe la percepción de un nodo de su propio estado basado en lo bien que está cumpliendo los requisitos de tiempo real poco restrictivos del protocolo. Esta métrica va de 0 a 8, donde 0 indica "totalmente en buen estado". Para más detalles, consulta la sección IV del documento de Lifeguard: https://arxiv.org/pdf/1707.00788.pdf|
+| **consul.memberlist.msg.alive**
(count) | \[DogStatsD\] \[Prometheus\] Esta métrica cuenta el número de agents de Consul activos, que el agent ha asignado hasta el momento, basándose en la información de mensajes dada por la capa de red.|
+| **consul.memberlist.msg.dead**
(count) | \[DogStatsD\] \[Prometheus\] Esta métrica cuenta el número de veces que un agent de Consul ha marcado a otro agente como nodo apagado.
_Se muestra como mensaje_ |
+| **consul.memberlist.msg.suspect**
(count) | \[DogStatsD\] \[Prometheus\] El número de veces que un agent de Consul sospecha que otro ha fallado mientras sondea durante el protocolo de gossip.|
+| **consul.memberlist.probenode.95percentile**
(gauge) | \[DogStatsD\] El p95 para el tiempo que se tarda en realizar una sola ronda de detección de fallos en un agent selecto de Consul.
_Se muestra como nodo_ |
+| **consul.memberlist.probenode.avg**
(gauge) | \[DogStatsD\] Promedio del tiempo necesario para realizar una sola ronda de detección de fallos en un agent seleccionado de Consul.
_Se muestra como nodo_ |
+| **consul.memberlist.probenode.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de consul.memberlist.probenode|
+| **consul.memberlist.probenode.max**
(gauge) | \[DogStatsD\] El máximo para el tiempo que se tarda en realizar una sola ronda de detección de fallos en un agent selecto de Consul.
_Se muestra como nodo_ |
+| **consul.memberlist.probenode.median**
(gauge) | \[DogStatsD\] La mediana del tiempo que se tarda en realizar una sola ronda de detección de fallos en un agent seleccionado de Consul.
_Se muestra como nodo_ |
+| **consul.memberlist.probenode.quantile**
(gauge) | \[Prometheus\] El cuantil del tiempo necesario para realizar una única ronda de detección de fallos en un agent de Consul seleccionado.
_Se muestra como nodo_ |
+| **consul.memberlist.probenode.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma del tiempo necesario para realizar una sola ronda de detección de fallos en un agent de Consul seleccionado.
_Se muestra como nodo_ |
+| **consul.memberlist.pushpullnode.95percentile**
(gauge) | \[DogStatsD\] El p95 para el número de agents de Consul que han intercambiado estado con este agent.
_Se muestra como nodo_ |
+| **consul.memberlist.pushpullnode.avg**
(gauge) | \[DogStatsD\] La media del número de agents de Consul que han intercambiado estado con este agent.
_Se muestra como nodo_ |
+| **consul.memberlist.pushpullnode.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de consul.memberlist.pushpullnode|
+| **consul.memberlist.pushpullnode.max**
(gauge) | \[DogStatsD\] El máximo para el número de agents de Consul que han intercambiado estado con este agent.
_Se muestra como nodo_ |
+| **consul.memberlist.pushpullnode.median**
(gauge) | \[DogStatsD\] La mediana del número de agents de Consul que han intercambiado estado con este agent.
_Se muestra como nodo_ |
+| **consul.memberlist.pushpullnode.quantile**
(gauge) | \[Prometheus\] El cuantil para el número de agents de Consul que han intercambiado estado con este agent.|
+| **consul.memberlist.pushpullnode.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma del número de agents de Consul que han intercambiado estado con este agent.|
+| **consul.memberlist.tcp.accept**
(count) | \[DogStatsD\] \[Prometheus\] Esta métrica cuenta el número de veces que un agent de Consul ha aceptado una conexión de flujo TCP entrante.
_Se muestra como conexión_ |
+| **consul.memberlist.tcp.connect**
(count) | \[DogStatsD\] \[Prometheus\] Esta métrica cuenta el número de veces que un agent de Consul ha iniciado una sincronización push/pull con otro agent.
_Se muestra como conexión_ |
+| **consul.memberlist.tcp.sent**
(count) | \[DogStatsD\] \[Prometheus\] Esta métrica mide el número total de bytes enviados por un agent de Consul a través del protocolo TCP
_Se muestra como byte_ |
+| **consul.memberlist.udp.received**
(count) | \[DogStatsD\] \[Prometheus\] Esta métrica mide el número total de bytes enviados/recibidos por un agent de Consul a través del protocolo UDP.
_Se muestra como byte_ |
+| **consul.memberlist.udp.sent**
(count) | \[DogStatsD\] \[Prometheus\] Esta métrica mide el número total de bytes enviados/recibidos por un agent de Consul a través del protocolo UDP.
_Se muestra como byte_ |
+| **consul.net.node.latency.max**
(gauge) | \[Integration\] Latencia máxima desde este nodo a todos los demás
_Se muestra en milisegundos_ |
+| **consul.net.node.latency.median**
(gauge) | \[Integration\] Mediana de latencia desde este nodo a todos los demás
_Se muestra en milisegundos_ |
+| **consul.net.node.latency.min**
(gauge) | \[Integration\] Latencia mínima desde este nodo a todos los demás
_Se muestra en milisegundos_ |
+| **consul.net.node.latency.p25**
(gauge) | \[Integración\] Latencia P25 desde este nodo a todos los demás
_Se muestra en milisegundos_ |
+| **consul.net.node.latency.p75**
(gauge) | \[Integración\] Latencia P75 desde este nodo a todos los demás
_Se muestra en milisegundos_ |
+| **consul.net.node.latency.p90**
(gauge) | \[Integración\] Latencia P90 desde este nodo a todos los demás
_Se muestra en milisegundos_ |
+| **consul.net.node.latency.p95**
(gauge) | \[Integración\] Latencia P95 desde este nodo a todos los demás
_Se muestra en milisegundos_ |
+| **consul.net.node.latency.p99**
(gauge) | \[Integración\] Latencia P99 desde este nodo a todos los demás
_Se muestra en milisegundos_ |
+| **consul.peers**
(gauge) | \[Integración\] El número de pares en el conjunto de pares|
+| **consul.raft.apply**
(count) | \[DogStatsD\] \[Prometheus\] El número de transacciones de raft que se producen
_Se muestra como transacción_ |
+| **consul.raft.commitTime.95percentile**
(gauge) | \[DogStatsD\] El tiempo p95 que tarda en confirmarse una nueva entrada en el log de raft en el líder
_Se muestra como milisegundo_ |
+| **consul.raft.commitTime.avg**
(gauge) | \[DogStatsD\] El tiempo medio que se tarda en consignar una nueva entrada en el log de raft en el líder
_Se muestra como milisegundo_ |
+| **consul.raft.commitTime.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de raft.commitTime|
+| **consul.raft.commitTime.max**
(gauge) | \[DogStatsD\] El tiempo máximo que se tarda en confirmar una nueva entrada en el log de raft en el líder
_Se muestra como milisegundo_ |
+| **consul.raft.commitTime.median**
(gauge) | \[DogStatsD\] La mediana del tiempo que se tarda en consignar una nueva entrada en el log de raft en el líder
_Se muestra como milisegundo_ |
+| **consul.raft.commitTime.quantile**
(gauge) | \[Prometheus\] El cuantil de tiempo que se tarda en consignar una nueva entrada al log de raft en el líder
_Se muestra como milisegundo_ |
+| **consul.raft.commitTime.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma del tiempo que se tarda en consignar una nueva entrada al log de raft en el líder
_Se muestra como milisegundo_ |
+| **consul.raft.leader.dispatchLog.95percentile**
(gauge) | \[DogStatsD\] El tiempo p95 que tarda el líder en escribir entradas de log en el disco
_Se muestra en milisegundos_ |
+| **consul.raft.leader.dispatchLog.avg**
(gauge) | \[DogStatsD\] El tiempo medio que tarda el líder en escribir entradas de log en el disco
_Se muestra en milisegundos_ |
+| **consul.raft.leader.dispatchLog.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de raft.leader.dispatchLog|
+| **consul.raft.leader.dispatchLog.max**
(gauge) | \[DogStatsD\] El tiempo máximo que tarda el líder en escribir entradas de log en el disco
_Se muestra como milisegundo_ |
+| **consul.raft.leader.dispatchLog.median**
(gauge) | \[DogStatsD\] El tiempo medio que tarda el líder en escribir entradas de log en el disco
_Se muestra en milisegundos_ |
+| **consul.raft.leader.dispatchLog.quantile**
(gauge) | \[Prometheus\] El cuantil de tiempo que tarda el líder en escribir entradas de log en el disco
_Se muestra como milisegundo_ |
+| **consul.raft.leader.dispatchLog.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma del tiempo que tarda el líder en escribir entradas de log en el disco
_Se muestra como milisegundo_ |
+| **consul.raft.leader.lastContact.95percentile**
(gauge) | \[DogStatsD\] El tiempo p95 transcurrido desde la última vez que el líder pudo comprobar su contrato con los seguidores
_Se muestra en milisegundos_ |
+| **consul.raft.leader.lastContact.avg**
(gauge) | \[DogStatsD\] Tiempo medio transcurrido desde la última vez que el líder pudo comprobar su contrato con los seguidores
_Se muestra en milisegundos_ |
+| **consul.raft.leader.lastContact.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de raft.leader.lastContact|
+| **consul.raft.leader.lastContact.max**
(gauge) | \[DogStatsD\] Tiempo máximo transcurrido desde la última vez que el líder pudo comprobar su contrato con los seguidores
_Se muestra en milisegundos_ |
+| **consul.raft.leader.lastContact.median**
(gauge) | \[DogStatsD\] La mediana del tiempo transcurrido desde que el líder pudo comprobar por última vez su contrato con los seguidores
_Se muestra en milisegundos_ |
+| **consul.raft.leader.lastContact.quantile**
(gauge) | \[Prometheus\] El cuantil de tiempo transcurrido desde la última vez que el líder pudo comprobar su contrato con los seguidores
_Se muestra como milisegundo_ |
+| **consul.raft.leader.lastContact.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma del tiempo transcurrido desde la última vez que el líder pudo comprobar su contrato con los seguidores
_Se muestra en milisegundos_ |
+| **consul.raft.replication.appendEntries.logs**
(count) | \[DogStatsD\] \[Prometheus\] Mide el número de logs replicados a un agente, para acercarlo a los logs del líder.
_Se muestra como entrada_ |
+| **consul.raft.replication.appendEntries.rpc.count**
(count) | \[DogStatsD\] \[Prometheus\] El tiempo que tarda el RFC de append entries en replicar las entradas de log de un agent líder en su(s) agent(s) seguidor(es)
_Se muestra en milisegundos_ |
+| **consul.raft.replication.appendEntries.rpc.quantile**
(gauge) | \[Prometheus\] El cuantil que tarda el RFC de append entries en replicar las entradas de log de un agent líder en su(s) agent(s) seguidor(es)
_Se muestra en milisegundos_ |
+| **consul.raft.replication.appendEntries.rpc.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma el tiempo que tarda el RFC de append entries en replicar las entradas de log de un agent líder en su(s) agent(s) seguidor(es)
_Se muestra como milisegundo_ |
+| **consul.raft.replication.heartbeat.count**
(count) | \[DogStatsD\] \[Prometheus\] Cuenta el tiempo que se tarda en invocar appendEntries en un par.
_Se muestra como milisegundo_ |
+| **consul.raft.replication.heartbeat.quantile**
(gauge) | \[Prometheus\] El cuantil del tiempo necesario para invocar appendEntries en un par.
_Se muestra como milisegundo_ |
+| **consul.raft.replication.heartbeat.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma del tiempo empleado en invocar appendEntries en un par.
_Se muestra como milisegundo_ |
+| **consul.raft.state.candidate**
(count) | \[DogStatsD\] \[Prometheus\]El número de elecciones de líderes iniciados
_Se muestra como evento_ |
+| **consul.raft.state.leader**
(count) | \[DogStatsD\] \[Prometheus\] El número de elecciones de líderes completadas
_Se muestra como evento_ |
+| **consul.runtime.gc_pause_ns.95percentile**
(gauge) | \[DogStatsD\] El p95 para el número de nanosegundos consumidos por las pausas de recolección de elementos no usados (GC) desde que se inició Consul.
_Se muestra como nanosegundo_ |
+| **consul.runtime.gc_pause_ns.avg**
(gauge) | \[DogStatsD\] Promedio del número de nanosegundos consumidos por las pausas de recolección de elementos no usados (GC) desde que se inició Consul.
_Se muestra como nanosegundo_ |
+| **consul.runtime.gc_pause_ns.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de consul.runtime.gc_pause_ns|
+| **consul.runtime.gc_pause_ns.max**
(gauge) | \[DogStatsD\] Máximo número de nanosegundos consumidos por pausas de recolección de elementos no usados (GC) desde que se inició Consul.
_Se muestra como nanosegundos_ |
+| **consul.runtime.gc_pause_ns.median**
(gauge) | \[DogStatsD\] La mediana del número de nanosegundos consumidos por las pausas de recolección de elementos no usados (GC) desde que se inició Consul.
_Se muestra como nanosegundos_ |
+| **consul.runtime.gc_pause_ns.quantile**
(gauge) | \[Prometheus\] El cuantil de nanosegundos consumidos por las pausas de recolección de elementos no usados (GC) desde que se inició Consul.
_Se muestra como nanosegundos_ |
+| **consul.runtime.gc_pause_ns.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma de nanosegundos consumidos por las pausas de recolección de elementos no usados (GC) desde que se inició Consul.
_Se muestra como nanosegundo_ |
+| **consul.serf.coordinate.adjustment_ms.95percentile**
(gauge) | \[DogStatsD\] El p95 en milisegundos para el ajuste de coordenadas del nodo
_Se muestra como milisegundo_ |
+| **consul.serf.coordinate.adjustment_ms.avg**
(gauge) | \[DogStatsD\] La media en milisegundos para el ajuste de coordenadas del nodo
_Se muestra como milisegundo_ |
+| **consul.serf.coordinate.adjustment_ms.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de consul.serf.coordinate.adjustment_ms|
+| **consul.serf.coordinate.adjustment_ms.max**
(gauge) | \[DogStatsD\] El máximo en milisegundos para el ajuste de coordenadas del nodo
_Se muestra como milisegundo_ |
+| **consul.serf.coordinate.adjustment_ms.median**
(gauge) | \[DogStatsD\] La mediana en milisegundos para el ajuste de coordenadas del nodo
_Se muestra como milisegundo_ |
+| **consul.serf.coordinate.adjustment_ms.quantile**
(gauge) | \[Prometheus\] El cuantil en milisegundos para el ajuste de coordenadas del nodo
_Se muestra como milisegundo_ |
+| **consul.serf.coordinate.adjustment_ms.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma en milisegundos para el ajuste de coordenadas del nodo
_Se muestra como milisegundo_ |
+| **consul.serf.events**
(count) | \[DogStatsD\] \[Prometheus\] Esto se incrementa cuando un agent de Consul procesa un evento serf
_Se muestra como evento_ |
+| **consul.serf.member.failed**
(count) | \[DogStatsD\] \[Prometheus\] Se incrementa cuando un agent de Consul se marca como eliminado. Esto puede ser un indicador de agents sobrecargados, problemas de red o errores de configuración donde los agents no pueden conectarse entre sí en los puertos requeridos.|
+| **consul.serf.member.flap**
(count) | \[DogStatsD\] \[Prometheus\] Número de veces que un agent de Consul es marcado como eliminado y luego se recupera rápidamente.|
+| **consul.serf.member.join**
(count) | \[DogStatsD\] \[Prometheus\] Se incrementa cuando un agent de Consul procesa un evento de unión
_Se muestra como evento_ |
+| **consul.serf.member.left**
(count) | \[DogStatsD\] \[Prometheus\] Se incrementa cuando un agent de Consul abandona el clúster.|
+| **consul.serf.member.update**
(count) | \[DogStatsD\] \[Prometheus\] Esto se incrementa cuando un agent de Consul se actualiza.|
+| **consul.serf.msgs.received.95percentile**
(gauge) | \[DogStatsD\] El p95 para el número de mensajes serf recibidos
_Se muestra como mensaje_ |
+| **consul.serf.msgs.received.avg**
(gauge) | \[DogStatsD\] La media del número de mensajes serf recibidos
_Se muestra como mensaje_ |
+| **consul.serf.msgs.received.count**
(count) | \[DogStatsD\] \[Prometheus\] El recuento de mensajes serf recibido|
+| **consul.serf.msgs.received.max**
(gauge) | \[DogStatsD\] El máximo de mensajes serf recibidos
_Se muestra como mensaje_ |
+| **consul.serf.msgs.received.median**
(gauge) | \[DogStatsD\] La mediana del número de mensajes serf recibidos
_Se muestra como mensaje_ |
+| **consul.serf.msgs.received.quantile**
(gauge) | \[Prometheus\] El cuantil para el número de mensajes serf recibido
_Se muestra como mensaje_ |
+| **consul.serf.msgs.received.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma para el número de mensajes serf recibidos
_Se muestra como mensaje_ |
+| **consul.serf.msgs.sent.95percentile**
(gauge) | \[DogStatsD\] El p95 para el número de mensajes serf enviados
_Se muestra como mensaje_ |
+| **consul.serf.msgs.sent.avg**
(gauge) | \[DogStatsD\] La media del número de mensajes serf enviados
_Se muestra como mensaje_ |
+| **consul.serf.msgs.sent.count**
(count) | \[DogStatsD\] \[Prometheus\] El recuento de mensajes serf enviados|
+| **consul.serf.msgs.sent.max**
(gauge) | \[DogStatsD\] El máximo para el número de mensajes serf enviados
_Se muestra como mensaje_ |
+| **consul.serf.msgs.sent.median**
(gauge) | \[DogStatsD\] La mediana del número de mensajes serf enviados
_Se muestra como mensaje_ |
+| **consul.serf.msgs.sent.quantile**
(gauge) | \[Prometheus\] El cuantil para el número de mensajes serf enviados
_Se muestra como mensaje_ |
+| **consul.serf.msgs.sent.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma del número de mensajes serf enviados
_Se muestra como mensaje_ |
+| **consul.serf.queue.event.95percentile**
(gauge) | \[DogStatsD\] El p95 para el tamaño de la cola de eventos serf|
+| **consul.serf.queue.event.avg**
(gauge) | \[DogStatsD\] El tamaño medio de la cola de eventos serf|
+| **consul.serf.queue.event.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de elementos en la cola de eventos serf.|
+| **consul.serf.queue.event.max**
(gauge) | \[DogStatsD\] El tamaño máximo de la cola de eventos serf.|
+| **consul.serf.queue.event.median**
(gauge) | \[DogStatsD\] El tamaño medio de la cola de eventos serf|
+| **consul.serf.queue.event.quantile**
(gauge) | \[Prometheus\] El cuantil para el tamaño de la cola de eventos serf.|
+| **consul.serf.queue.intent.95percentile**
(gauge) | \[DogStatsD\] El p95 para el tamaño de la cola de intento de serf|
+| **consul.serf.queue.intent.avg**
(gauge) | \[DogStatsD\] Tamaño medio de la cola de intentos de serf|
+| **consul.serf.queue.intent.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de elementos en la cola de intentos de serf.|
+| **consul.serf.queue.intent.max**
(gauge) | \[DogStatsD\] Tamaño máximo de la cola de intentos de serf|
+| **consul.serf.queue.intent.median**
(gauge) | \[DogStatsD\] El tamaño medio de la cola de intento de serf|
+| **consul.serf.queue.intent.quantile**
(gauge) | \[Prometheus\] El cuantil para el tamaño de la cola de intentos de serf.|
+| **consul.serf.queue.query.95percentile**
(gauge) | \[DogStatsD\] El p95 para el tamaño de la cola de consulta de serf|
+| **consul.serf.queue.query.avg**
(gauge) | \[DogStatsD\] El tamaño medio de la cola de consultas de serf|
+| **consul.serf.queue.query.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de elementos en la cola de consulta de serf|
+| **consul.serf.queue.query.max**
(gauge) | \[DogStatsD\] El tamaño máximo de la cola de consulta de serf.|
+| **consul.serf.queue.query.median**
(gauge) | \[DogStatsD\] El tamaño medio de la cola de consultas de serf|
+| **consul.serf.queue.query.quantile**
(gauge) | \[Prometheus\] El cuantil para el tamaño de la cola de consulta de serf|
+| **consul.serf.snapshot.appendline.95percentile**
(gauge) | \[DogStatsD\] El p95 del tiempo que tarda el agent de Consul en añadir una entrada en el log existente.
_Se muestra como milisegundo_ |
+| **consul.serf.snapshot.appendline.avg**
(gauge) | \[DogStatsD\] Promedio del tiempo que tarda el agent de Consul en añadir una entrada al log existente.
_Se muestra en milisegundos_ |
+| **consul.serf.snapshot.appendline.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de consul.serf.snapshot.appendline|
+| **consul.serf.snapshot.appendline.max**
(gauge) | \[DogStatsD\] El tiempo máximo que tarda el agent de Consul en añadir una entrada al log existente.
_Se muestra en milisegundos_ |
+| **consul.serf.snapshot.appendline.median**
(gauge) | \[DogStatsD\] La mediana del tiempo que tarda el agent de Consul en añadir una entrada al log existente.
_Se muestra en milisegundos_ |
+| **consul.serf.snapshot.appendline.quantile**
(gauge) | \[Prometheus\] El cuantil del tiempo que tarda el agent de Consul en añadir una entrada en el log existente.
_Se muestra como milisegundo_ |
+| **consul.serf.snapshot.compact.95percentile**
(gauge) | \[DogStatsD\] El p95 del tiempo que tarda el agent de Consul en compactar un log. Esta operación solo se produce cuando el snapshot se hace lo suficientemente grande como para justificar la compactación.
_Se muestra como milisegundo_ |
+| **consul.serf.snapshot.compact.avg**
(gauge) | \[DogStatsD\] Promedio del tiempo que tarda el agent de Consul en compactar un log. Esta operación solo se produce cuando el snapshot es lo suficientemente grande como para justificar la compactación.
_Se muestra en milisegundos_ |
+| **consul.serf.snapshot.compact.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de consul.serf.snapshot.compact|
+| **consul.serf.snapshot.compact.max**
(gauge) | \[DogStatsD\] El tiempo máximo que tarda el agent de Consul en compactar un log. Esta operación solo se produce cuando el snapshot es lo suficientemente grande como para justificar la compactación.
_Se muestra como milisegundos_ |
+| **consul.serf.snapshot.compact.median**
(gauge) | \[DogStatsD\] La mediana del tiempo que tarda el agent de Consul en compactar un log. Esta operación solo se produce cuando el snapshot es lo suficientemente grande como para justificar la compactación.
_Se muestra como milisegundos_ |
+| **consul.serf.snapshot.compact.quantile**
(gauge) | \[Prometheus\] El cuantil del tiempo que tarda el agent de Consul en compactar un log. Esta operación solo se produce cuando el snapshot se hace lo suficientemente grande como para justificar la compactación.
_Se muestra como milisegundos_ |
+
+Consulta el [socumento de telemetría de Consul](https://www.consul.io/docs/agent/telemetry.html) para una descripción de las métricas que el Agent de Consul envía a DogStatsD.
+
+Consulta el [documento de coordenadas de red de Consul](https://www.consul.io/docs/internals/coordinates.html) para más detalles sobre cómo se calculan las métricas de latencia de red.
### Eventos
@@ -330,36 +418,43 @@ Consulta el [documento de coordenadas de red de Consul][5] para obtener detalles
El Datadog Agent emite un evento cuando el clúster de Consul elige un nuevo líder y lo etiqueta con `prev_consul_leader`, `curr_consul_leader` y `consul_datacenter`.
### Checks de servicio
-{{< get-service-checks-from-git "consul" >}}
+**consul.check**
+
+Devuelve OK si el servicio está activo, WARNING si hay algún problema y CRITICAL cuando está caído.
+
+_Estados: ok, warning, critical, unknown_
+
+**consul.up**
+
+Devuelve OK si el servidor consul está activo, CRITICAL en caso contrario.
+
+_Estados: ok, critical_
+
+**consul.can_connect**
+
+Devuelve OK si el Agent puede realizar solicitudes HTTP a consul, CRITICAL en caso contrario.
+
+_Estados: ok, critical_
+
+**consul.prometheus.health**
+
+Devuelve `CRITICAL` si el check no puede acceder al endpoint de métricas; en caso contrario, devuelve `OK`.
+
+_Estados: ok, critical_
## Solucionar problemas
-¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][6].
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/).
## Referencias adicionales
-Más enlaces, artículos y documentación útiles:
-
-- [Monitorización de HCP Consul con Datadog][7]
-- [Monitorizar el estado y el rendimiento de Consul con Datadog][8]
-- [Consul en Datadog][9]
-- [Métricas clave para monitorizar Consul][10]
-- [Herramientas de monitorización de Consul][11]
-- [Cómo monitorizar Consul con Datadog][12]
-- [Datadog NPM ya es compatible con la red Consul][13]
-
-
-[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/consul/images/consul-dash.png
-[2]: https://app.datadoghq.com/account/settings/agent/latest
-[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
-[4]: https://www.consul.io/docs/agent/telemetry.html
-[5]: https://www.consul.io/docs/internals/coordinates.html
-[6]: https://docs.datadoghq.com/es/help/
-[7]: https://docs.datadoghq.com/es/integrations/guide/hcp-consul
-[8]: https://www.datadoghq.com/blog/monitor-consul-health-and-performance-with-datadog
-[9]: https://engineering.datadoghq.com/consul-at-datadog
-[10]: https://www.datadoghq.com/blog/consul-metrics/
-[11]: https://www.datadoghq.com/blog/consul-monitoring-tools/
-[12]: https://www.datadoghq.com/blog/consul-datadog/
-[13]: https://www.datadoghq.com/blog/monitor-consul-with-datadog-npm/
\ No newline at end of file
+Documentación útil adicional, enlaces y artículos:
+
+- [Monitorización de HCP Consulta con Datadog](https://docs.datadoghq.com/integrations/guide/hcp-consul)
+- [Monitorización del estado y rendimiento de Consul con Datadog](https://www.datadoghq.com/blog/monitor-consul-health-and-performance-with-datadog)
+- [Consul en Datadog](https://engineering.datadoghq.com/consul-at-datadog)
+- [Métricas clave para la monitorización de Consul](https://www.datadoghq.com/blog/consul-metrics/)
+- [Herramientas de monitorización de Consul](https://www.datadoghq.com/blog/consul-monitoring-tools/)
+- [Cómo monitorizar Consul con Datadog](https://www.datadoghq.com/blog/consul-datadog/)
+- [Datadog CNM ahora admite la red de Consul](https://www.datadoghq.com/blog/monitor-consul-with-datadog-npm/)
\ No newline at end of file
diff --git a/content/es/integrations/coredns.md b/content/es/integrations/coredns.md
index 4d6ece5ba0702..35a3bd61d5119 100644
--- a/content/es/integrations/coredns.md
+++ b/content/es/integrations/coredns.md
@@ -1,37 +1,5 @@
---
app_id: coredns
-app_uuid: b613759e-89ca-4d98-a2c1-4d465c42e413
-assets:
- dashboards:
- CoreDNS: assets/dashboards/coredns.json
- CoreDNS [V2]: assets/dashboards/coredns_v2.json
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- metrics:
- check:
- - coredns.request_count
- - coredns.request_count.count
- - coredns.build_info
- metadata_path: metadata.csv
- prefix: coredns.
- process_signatures:
- - coredns
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10038
- source_type_name: CoreDNS
- monitors:
- Cache hits count is low: assets/monitors/coredns_cache_hits_low.json
- Request duration is high: assets/monitors/coredns_request_duration_high.json
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
- almacenamiento en caché
- contenedores
@@ -39,76 +7,52 @@ categories:
- recopilación de logs
- la red
custom_kind: integración
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/coredns/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: coredns
-integration_id: coredns
-integration_title: CoreDNS
-integration_version: 5.1.0
-is_public: true
-manifest_version: 2.0.0
-name: coredns
-public_title: CoreDNS
-short_description: CoreDNS recopila métricas de DNS en Kubernetes.
+description: CoreDNS recopila métricas de DNS en Kubernetes.
+further_reading:
+- link: https://www.datadoghq.com/blog/coredns-metrics/
+ tag: blog
+ text: Métricas clave para la monitorización de CoreDNS
+- link: https://www.datadoghq.com/blog/coredns-monitoring-tools/
+ tag: blog
+ text: Herramientas para recopilar métricas y logs de CoreDNS
+- link: https://www.datadoghq.com/blog/monitoring-coredns-with-datadog/
+ tag: blog
+ text: Cómo monitorizar CoreDNS con Datadog
+integration_version: 6.0.0
+media: []
supported_os:
- Linux
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Categoría::Almacenamiento en caché
- - Categoría::Contenedores
- - Categoría::Kubernetes
- - Categoría::Recopilación de logs
- - Categoría::Red
- - Sistema operativo compatible::Linux
- - Oferta::Integración
- configuration: README.md#Configuración
- description: CoreDNS recopila métricas de DNS en Kubernetes.
- media: []
- overview: README.md#Información general
- resources:
- - resource_type: Blog
- url: https://www.datadoghq.com/blog/coredns-metrics/
- - resource_type: Blog
- url: https://www.datadoghq.com/blog/coredns-monitoring-tools/
- - resource_type: Blog
- url: https://www.datadoghq.com/blog/monitoring-coredns-with-datadog/
- support: README.md#Soporte
- title: CoreDNS
+title: CoreDNS
---
-
-
-
-
## Información general
Obtén métricas de CoreDNS en tiempo real para visualizar y monitorizar fallos DNS y aciertos o fallos de caché.
## Configuración
+A partir de la versión 1.11.0, esta integración basada en OpenMetrics tiene un modo más reciente (que se activa configurando `openmetrics_endpoint` para que apunte al endpoint de destino) y un modo heredado (que se activa configurando `prometheus_url` en su lugar). Para obtener todas las características más actualizadas, Datadog recomienda activar el modo más reciente. Para obtener más información, consulta [Versiones más recientes y heredadas para integraciones basadas en OpenMetrics](https://docs.datadoghq.com/integrations/guide/versions-for-openmetrics-based-integrations).
-A partir de la versión 1.11.0, esta integración basada en OpenMetrics cuenta con un modo más reciente (que se activa configurando `openmetrics_endpoint` para que apunte al endpoint de destino) y un modo heredado (que se activa configurando `prometheus_url`). Para obtener todas las funciones más actualizadas, Datadog recomienda activar el modo más reciente. Para obtener más información, consulta [Versiones más recientes y heredadas de integraciones basadas en OpenMetrics][1].
-
-El último modo del check de CoreDNS requiere Python 3, envía métricas de `.bucket` y también envía muestras del histograma `.sum` y `.count` como tipo de recuento monotónico. Antes, estas métricas se enviaban como tipo `gauge` en el modo heredado. Para ver la lista de métricas disponibles en cada modo, consulta el [archivo`metadata.csv`][2].
+El modo más reciente del check de CoreDNS requiere Python 3 y envía las métricas `.bucket` y envía las muestras de histograma `.sum` y `.count` como tipo de recuento monotónico. Estas métricas se enviaban anteriormente como tipo `gauge` en el modo heredado. Consulta el archivo [`metadata.csv` ](https://github.com/DataDog/integrations-core/blob/master/coredns/metadata.csv) para obtener una lista de las métricas disponibles en cada modo.
-Para los hosts que no puedan utilizar Python 3, o si previamente has implementado este modo de integración, consulta el [ejemplo de configuración][3] del modo `legacy`. Para los usuarios de Autodiscovery que dependen del archivo `coredns.d/auto_conf.yaml`, este habilita por defecto la opción `prometheus_url` del modo `legacy` del check. Consulta el [coredns.d/auto_conf.yaml de ejemplo][4], para ver las opciones de configuración por defecto, y el [coredns.d/conf.yaml.example de ejemplo][5], para ver todas las opciones de configuración disponibles.
+Para hosts que no puedan utilizar Python 3, o si ya has implementado previamente este modo de integración, consulta el [ejemplo de configuración] del modo `legacy` (https://github.com/DataDog/integrations-core/blob/7.32.x/coredns/datadog_checks/coredns/data/conf.yaml.example). Para los usuarios de Autodiscovery que confían en el archivo `coredns.d/auto_conf.yaml`, este archivo habilita por defecto la opción `prometheus_url` para el modo `legacy` del check. Consulta el ejemplo [coredns.d/auto_conf.yaml](https://github.com/DataDog/integrations-core/blob/master/coredns/datadog_checks/coredns/data/auto_conf.yaml) para conocer las opciones de configuración predeterminadas y el [coredns.d/conf.yaml.example de ejemplo](https://github.com/DataDog/integrations-core/blob/master/coredns/datadog_checks/coredns/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
### Instalación
-El check de CoreDNS está incluido en el paquete del [Datadog Agent][6], por lo que no necesitas instalar nada más en tus servidores.
+El check de CoreDNS está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest), por lo que no necesitas instalar nada más en tus servidores.
### Configuración
+
{{< tabs >}}
+
{{% tab "Docker" %}}
+
#### Docker
Para configurar este check para un Agent que se ejecuta en un contenedor:
##### Recopilación de métricas
-Configura [plantillas de integraciones de Autodiscovery][1] como etiquetas (labels) Docker en el contenedor de tu aplicación:
+Establece las [plantillas de integración de Autodiscovery](http://docs.datadoghq.com/agent/docker/integrations/?tab=docker) como etiquetas de Docker en tu contenedor de aplicaciones:
```yaml
LABEL "com.datadoghq.ad.check_names"='["coredns"]'
@@ -124,24 +68,22 @@ LABEL "com.datadoghq.ad.instances"='[{"prometheus_url":"http://%%host%%:9153/met
**Notas**:
-- El archivo `coredns.d/auto_conf.yaml` enviado activa la opción `prometheus_url` por defecto del modo heredado.
+- El archivo `coredns.d/auto_conf.yaml` enviado activa la opción `prometheus_url` por defecto para el modo heredado.
- La etiqueta (tag) `dns-pod` realiza un seguimiento de la IP del pod DNS de destino. Las otras etiquetas (tags) están relacionadas con el Datadog Agent que sondea la información utilizando la detección de servicios.
- Las anotaciones de detección de servicios deben realizarse en el pod. En caso de despliegue, añade las anotaciones a los metadatos de las especificaciones de la plantilla. No las añadas en el nivel de especificación externo.
#### Recopilación de logs
-La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de Docker][2].
+La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [recopilación de logs de Docker](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation).
-Luego, configura [integraciones de logs][3] como etiquetas Docker:
+A continuación, establece [Integraciones de log](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como etiquetas de Docker:
```yaml
LABEL "com.datadoghq.ad.logs"='[{"source":"coredns","service":""}]'
```
-[1]: http://docs.datadoghq.com/agent/docker/integrations/?tab=docker
-[2]: https://docs.datadoghq.com/es/agent/docker/log/?tab=containerinstallation
-[3]: https://docs.datadoghq.com/es/agent/docker/log/?tab=containerinstallation#log-integrations
{{% /tab %}}
+
{{% tab "Kubernetes" %}}
#### Kubernetes
@@ -150,9 +92,9 @@ Para Configurar este check para un Agent que se ejecuta en Kubernetes:
##### Recopilación de métricas
-Configura [plantillas de integraciones Autodiscovery][1] como anotaciones de pod en tu contenedor de aplicación. Las plantillas también se pueden configurar con [un archivo, un configmap o un almacén de clave-valor][2].
+Configura [Plantillas de integraciones de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes) como anotaciones de pod en tu contenedor de aplicaciones. Opcionalmente, puedes configurar las plantillas con [un archivo, un mapa de configuración o un almacén de clave-valor](https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes#configuration).
-**Anotaciones v1** (para el Datadog Agent v7.36 o anterior)
+**Anotaciones v1** (para Datadog Agent \< v7.36)
```yaml
apiVersion: v1
@@ -205,7 +147,7 @@ spec:
Para activar el modo heredado de este check basado en OpenMetrics, sustituye `openmetrics_endpoint` por `prometheus_url`:
-**Anotaciones v1** (para el Datadog Agent v7.36 o anterior)
+**Anotaciones v1** (para Datadog Agent \< v7.36)
```yaml
ad.datadoghq.com/coredns.instances: |
@@ -230,15 +172,15 @@ Para activar el modo heredado de este check basado en OpenMetrics, sustituye `op
**Notas**:
-- El archivo `coredns.d/auto_conf.yaml` enviado activa la opción `prometheus_url` por defecto del modo heredado.
+- El archivo `coredns.d/auto_conf.yaml` enviado activa la opción `prometheus_url` por defecto para el modo heredado.
- La etiqueta (tag) `dns-pod` realiza un seguimiento de la IP del pod DNS de destino. Las otras etiquetas (tags) están relacionadas con el Datadog Agent que sondea la información utilizando la detección de servicios.
- Las anotaciones de detección de servicios deben realizarse en el pod. En caso de despliegue, añade las anotaciones a los metadatos de las especificaciones de la plantilla. No las añadas en el nivel de especificación externo.
#### Recopilación de logs
-La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de Kubernetes][3].
+La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/?tab=daemonset).
-Luego, configura las [integraciones de logs][4] como anotaciones de pod. Esto también se puede configurar con [un archivo, un mapa de configuración o un almacén de clave-valor][5].
+A continuación, establece las [integraciones de logs](https://docs.datadoghq.com/agent/kubernetes/log/?tab=kubernetes#examples---datadog-redis-integration) como anotaciones del pod. Alternativamente, puedes configurar esto con un [archivo, mapa de configuración o almacén de clave-valor](https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=file).
**Anotaciones v1/v2**
@@ -253,12 +195,8 @@ metadata:
name: coredns
```
-[1]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/?tab=kubernetes
-[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/?tab=kubernetes#configuration
-[3]: https://docs.datadoghq.com/es/agent/kubernetes/log/?tab=daemonset
-[4]: https://docs.datadoghq.com/es/agent/kubernetes/log/?tab=kubernetes#examples---datadog-redis-integration
-[5]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/?tab=file
{{% /tab %}}
+
{{% tab "ECS" %}}
#### ECS
@@ -267,7 +205,7 @@ Para configurar este check para un Agent que se ejecuta en ECS:
##### Recopilación de métricas
-Configura [plantillas de integraciones de Autodiscovery][1] como etiquetas (labels) Docker en el contenedor de tu aplicación:
+Establece [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/amazon_ecs/?tab=awscli#process-collection) como etiquetas de Docker en tu contenedor de aplicaciones:
```json
{
@@ -291,15 +229,15 @@ Para activar el modo heredado de este check basado en OpenMetrics, sustituye `op
**Notas**:
-- El archivo `coredns.d/auto_conf.yaml` enviado activa la opción `prometheus_url` por defecto del modo heredado.
+- El archivo `coredns.d/auto_conf.yaml` enviado activa la opción `prometheus_url` por defecto para el modo heredado.
- La etiqueta (tag) `dns-pod` realiza un seguimiento de la IP del pod DNS de destino. Las otras etiquetas (tags) están relacionadas con el Datadog Agent que sondea la información utilizando la detección de servicios.
- Las anotaciones de detección de servicios deben realizarse en el pod. En caso de despliegue, añade las anotaciones a los metadatos de las especificaciones de la plantilla. No las añadas en el nivel de especificación externo.
##### Recopilación de logs
-La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de ECS][2].
+La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [recopilación de logs de ECS](https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux).
-Luego, configura [integraciones de logs][3] como etiquetas Docker:
+A continuación, establece [Integraciones de logs](https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux#activate-log-integrations) como etiquetas de Docker:
```yaml
{
@@ -312,52 +250,161 @@ Luego, configura [integraciones de logs][3] como etiquetas Docker:
}]
}
```
-[1]: https://docs.datadoghq.com/es/agent/amazon_ecs/?tab=awscli#process-collection
-[2]: https://docs.datadoghq.com/es/agent/amazon_ecs/logs/?tab=linux
-[3]: https://docs.datadoghq.com/es/agent/amazon_ecs/logs/?tab=linux#activate-log-integrations
+
{{% /tab %}}
+
{{< /tabs >}}
### Validación
-[Ejecuta el subcomando de `status` del Agent][7] y busca `coredns` en la sección **Checks**.
+[Ejecuta el subcomando `status` del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent) y busca `coredns` en la sección Checks.
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "coredns" >}}
+| | |
+| --- | --- |
+| **coredns.acl.allowed_requests**
(count) | \[OpenMetrics V1\] Contador de solicitudes DNS permitidas.
_Se muestra como solicitud_ |
+| **coredns.acl.allowed_requests.count**
(count) | \[OpenMetrics V2\] Contador de solicitudes DNS permitidas.
_Se muestra como solicitud_ |
+| **coredns.acl.blocked_requests**
(count) | \[OpenMetrics V1\] Contador de solicitudes DNS bloqueadas.
_Se muestra como solicitud_ |
+| **coredns.acl.blocked_requests.count**
(count) | \[OpenMetrics V2\] Contador de solicitudes DNS bloqueadas.
_Se muestra como solicitud_ |
+| **coredns.autopath.success_count**
(count) | \[OpenMetrics V1\] Contador de solicitudes que hicieron autopath.
_Se muestra como solicitud_ |
+| **coredns.autopath.success_count.count**
(count) | \[OpenMetrics V2\] Contador de solicitudes que hicieron autopath.
_Se muestra como solicitud_ |
+| **coredns.build_info**
(gauge) | \[OpenMetrics V1 y V2\] Una métrica con un valor constante '1' etiquetada por versión, revisión y goversion a partir de la cual se construyó CoreDNS.|
+| **coredns.cache_drops_count**
(count) | \[OpenMetrics V1\] Contador de respuestas excluidas de la caché debido a una falta de coincidencia entre el nombre de la pregunta de solicitud/respuesta.
_Se muestra como respuesta_ |
+| **coredns.cache_drops_count.count**
(count) | \[OpenMetrics V2\] Contador de respuestas excluidas de la caché debido a que el nombre de la pregunta de solicitud/respuesta no coincide.
_Se muestra como respuesta_ |
+| **coredns.cache_hits_count**
(count) | \[OpenMetrics V1\] Contador de accesos a la caché por tipo de caché
_Se muestra como acierto_ |
+| **coredns.cache_hits_count.count**
(count) | \[OpenMetrics V2\] Contador de accesos a la caché por tipo de caché
_Se muestra como acierto_ |
+| **coredns.cache_misses_count**
(count) | \[OpenMetrics V1\] Contador de fallos de caché.
_Se muestra como fallo_ |
+| **coredns.cache_misses_count.count**
(count) | \[OpenMetrics V2\] Contador de fallos de caché.
_Se muestra como fallo_ |
+| **coredns.cache_prefetch_count**
(count) | \[OpenMetrics V1\] El número de veces que la caché ha precargado un elemento almacenado.|
+| **coredns.cache_prefetch_count.count**
(count) | \[OpenMetrics V2\] El número de veces que la caché ha precargado un elemento almacenado.|
+| **coredns.cache_request_count**
(count) | \[OpenMetrics V1\] Contador de solicitudes de caché.
_Se muestra como solicitud_ |
+| **coredns.cache_request_count.count**
(count) | \[OpenMetrics V2\] Contador de solicitudes de caché.
_Se muestra como solicitud_ |
+| **coredns.cache_size.count**
(gauge) | \[OpenMetrics V1 y V2\]
_Se muestra como entrada_ |
+| **coredns.cache_stale_count**
(count) | \[OpenMetrics V1\] Contador de solicitudes servidas desde entradas de caché obsoletas.
_Se muestra como solicitud_ |
+| **coredns.cache_stale_count.count**
(count) | \[OpenMetrics V2\] Contador de solicitudes servidas desde entradas de caché obsoletas.
_Se muestra como solicitud_ |
+| **coredns.dnssec.cache_hits**
(count) | \[OpenMetrics V1\] Contador de accesos a la caché.
_Se muestra como acierto_ |
+| **coredns.dnssec.cache_hits.count**
(count) | \[OpenMetrics V2\] Contador de accesos a la caché.
_Se muestra como acierto_ |
+| **coredns.dnssec.cache_misses**
(count) | \[OpenMetrics V1\] Contador de fallos de caché.
_Se muestra como fallo_ |
+| **coredns.dnssec.cache_misses.count**
(count) | \[OpenMetrics V2\] Contador de fallos de caché.
_Se muestra como fallo_ |
+| **coredns.dnssec.cache_size**
(gauge) | \[OpenMetrics V1 y V2\] Total de elementos en la caché, el tipo es firma.|
+| **coredns.forward_healthcheck_broken_count**
(count) | \[OpenMetrics V1\] Contador de cuando todos los flujos ascendentes no están en buen estado
_Se muestra como entrada_ |
+| **coredns.forward_healthcheck_broken_count.count**
(count) | \[OpenMetrics V2\] Contador de cuando todos los flujos ascendentes no están en buen estado
_Se muestra como entrada_ |
+| **coredns.forward_healthcheck_failure_count**
(count) | \[OpenMetrics V1\] Número de checks de estado fallidos por flujo ascendente
_Se muestra como entrada_ |
+| **coredns.forward_healthcheck_failure_count.count**
(count) | \[OpenMetrics V2\] Número de checks de estado fallidos por flujo ascendente
_Se muestra como entrada_ |
+| **coredns.forward_max_concurrent_rejects**
(count) | \[OpenMetrics V1\] Contador del número de consultas rechazadas porque las consultas concurrentes estaban al máximo.
_Se muestra como consulta_ |
+| **coredns.forward_max_concurrent_rejects.count**
(count) | \[OpenMetrics V2\] Contador del número de consultas rechazadas porque las consultas concurrentes estaban al máximo.
_Se muestra como consulta_ |
+| **coredns.forward_request_count**
(count) | \[OpenMetrics V1\] Recuento de consultas por flujo ascendente
_Se muestra como solicitud_ |
+| **coredns.forward_request_count.count**
(count) | \[OpenMetrics V2\] Recuento de consultas por flujo ascendente
_Se muestra como solicitud_ |
+| **coredns.forward_request_duration.seconds.bucket**
(count) | \[OpenMetrics V2\] Duración por interacción ascendente
_Se muestra en segundos_ |
+| **coredns.forward_request_duration.seconds.count**
(count) | \[OpenMetrics V1 y V2\] Duración por interacción ascendente
_Se muestra en segundos_ |
+| **coredns.forward_request_duration.seconds.sum**
(count) | \[OpenMetrics V1 y V2\] Duración por interacción ascendente
_Se muestra en segundos_ |
+| **coredns.forward_response_rcode_count**
(count) | \[OpenMetrics V1\] Recuento de RCODEs por flujo ascendente
_Se muestra como respuesta_ |
+| **coredns.forward_response_rcode_count.count**
(count) | \[OpenMetrics V2\] Recuento de RCODEs por flujo ascendente
_Se muestra como respuesta_ |
+| **coredns.forward_sockets_open**
(gauge) | \[OpenMetrics V1 y V2\] Número de sockets abiertos por flujo ascendente
_Se muestra como conexión_ |
+| **coredns.go.gc_duration_seconds.count**
(count) | \[OpenMetrics V1 y V2\] Recuento de las duraciones de invocación GC.
_Se muestra como segundo_ |
+| **coredns.go.gc_duration_seconds.quantile**
(gauge) | \[OpenMetrics V1 y V2\] Cuantiles de las duraciones de invocación GC.
_Se muestra como segundo_ |
+| **coredns.go.gc_duration_seconds.sum**
(count) | \[OpenMetrics V1 y V2\] Suma de las duraciones de invocación GC.
_Se muestra como segundo_ |
+| **coredns.go.goroutines**
(gauge) | \[OpenMetrics V1 y V2\] Número de goroutines que existen actualmente.
_Se muestra como subproceso_ |
+| **coredns.go.info**
(gauge) | \[OpenMetrics V1 y V2\] Información sobre el entorno Go.|
+| **coredns.go.memstats.alloc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes asignados y aún en uso.
_Se muestra como byte_ |
+| **coredns.go.memstats.alloc_bytes_total**
(count) | \[OpenMetrics V1\] Número total de bytes asignados aunque se hayan liberado.
_Se muestra como byte_ |
+| **coredns.go.memstats.buck_hash_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados por la tabla hash del bucket de perfiles.
_Se muestra como byte_ |
+| **coredns.go.memstats.frees_total**
(count) | \[OpenMetrics V1\] Número total de libres.|
+| **coredns.go.memstats.frees_total.count**
(count) | \[OpenMetrics V2\] Número total de libres.|
+| **coredns.go.memstats.gc_cpu_fraction**
(gauge) | \[OpenMetrics V1 y V2\] CPU ocupada por GC
_Se muestra en porcentaje_ |
+| **coredns.go.memstats.gc_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para los metadatos del sistema de recopilación de elementos no usados.
_Se muestra como byte_ |
+| **coredns.go.memstats.heap_alloc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Bytes asignados al heap
_Se muestra como byte_ |
+| **coredns.go.memstats.heap_idle_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes ociosos en el heap
_Se muestra como byte_ |
+| **coredns.go.memstats.heap_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en el heap
_Se muestra como byte_ |
+| **coredns.go.memstats.heap_objects**
(gauge) | \[OpenMetrics V1 y V2\] Número de objetos en el heap
_Se muestra como objeto_ |
+| **coredns.go.memstats.heap_released_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes liberados al sistema en el último gc
_Se muestra como byte_ |
+| **coredns.go.memstats.heap_released_bytes.count**
(count) | \[OpenMetrics V2\] Cuenta de bytes liberados al sistema en el último gc
_Se muestra como byte_ |
+| **coredns.go.memstats.heap_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados por el heap
_Se muestra como byte_ |
+| **coredns.go.memstats.last_gc_time_seconds**
(gauge) | \[OpenMetrics V1 y V2\] Longitud de la última GC
_Se muestra como segundo_ |
+| **coredns.go.memstats.lookups_total**
(count) | \[OpenMetrics V1\] Número de búsquedas
_Se muestra como operación_ |
+| **coredns.go.memstats.lookups_total.count**
(count) | \[OpenMetrics V2\] Número de búsquedas
_Se muestra como operación_ |
+| **coredns.go.memstats.mallocs_total**
(count) | \[OpenMetrics V1\] Número de mallocs
_Se muestra como operación_ |
+| **coredns.go.memstats.mallocs_total.count**
(count) | \[OpenMetrics V2\] Número de mallocs
_Se muestra como operación_ |
+| **coredns.go.memstats.mcache_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por las estructuras mcache.
_Se muestra como byte_ |
+| **coredns.go.memstats.mcache_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para las estructuras mcache obtenidas del sistema.
_Se muestra como byte_ |
+| **coredns.go.memstats.mspan_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por las estructuras mspan.
_Se muestra como byte_ |
+| **coredns.go.memstats.mspan_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para las estructuras mspan obtenidas del sistema.
_Se muestra como byte_ |
+| **coredns.go.memstats.next_gc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes del heap cuando se realice la próxima recopilación de elementos no usados
_Se muestra como byte_ |
+| **coredns.go.memstats.other_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para otras asignaciones del sistema
_Se muestra como byte_ |
+| **coredns.go.memstats.stack_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por el asignador de stack tecnológico
_Se muestra como byte_ |
+| **coredns.go.memstats.stack_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes obtenidos del sistema para el asignador de stack tecnológico
_Se muestra como byte_ |
+| **coredns.go.memstats.sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes obtenidos del sistema
_Se muestra como byte_ |
+| **coredns.go.threads**
(gauge) | \[OpenMetrics V1 y V2\] Número de subprosesos de OS creados.
_Se muestra como subproceso_ |
+| **coredns.grpc.request_count**
(count) | \[OpenMetrics V1\] Recuento de consultas por flujo ascendente.|
+| **coredns.grpc.request_count.count**
(count) | \[OpenMetrics V2\] Recuento de consultas por flujo ascendente.|
+| **coredns.grpc.response_rcode_count**
(count) | \[OpenMetrics V1\] Cuenta de RCODEs por flujo ascendente. Aleatoriamente, (esto siempre usa la política aleatoria) se divide a un flujo ascendente.|
+| **coredns.grpc.response_rcode_count.count**
(count) | \[OpenMetrics V2\] Cuenta de RCODEs por flujo ascendente. Aleatoriamente, (esto siempre usa la política aleatoria) se divide a un flujo ascendente.|
+| **coredns.health_request_duration.bucket**
(count) | \[OpenMetrics V2\] Muestra para el histograma del tiempo (en segundos) que tardó cada solicitud.|
+| **coredns.health_request_duration.count**
(count) | \[OpenMetrics V1 y V2\] Recuento para el histograma del tiempo (en segundos) que ha tardado cada solicitud.|
+| **coredns.health_request_duration.sum**
(count) | \[OpenMetrics V1 y V2\] Suma para el histograma del tiempo (en segundos) que tardó cada solicitud.|
+| **coredns.hosts.entries_count**
(gauge) | \[OpenMetrics V1 y V2\] El número combinado de entradas en hosts y Corefile.|
+| **coredns.hosts.reload_timestamp**
(gauge) | \[OpenMetrics V1 y V2\] La marca temporal de la última recarga del archivo hosts.
_Se muestra como segundo_ |
+| **coredns.panic_count.count**
(count) | \[OpenMetrics V1 y V2\]
_Se muestra como entrada_ |
+| **coredns.plugin_enabled**
(gauge) | \[OpenMetrics V1 y V2\] Una métrica que indica si un complemento está habilitado por servidor y zona.|
+| **coredns.process.cpu_seconds_total**
(count) | \[OpenMetrics V1 y V2\] Tiempo total de CPU del usuario y del sistema empleado en segundos.
_Se muestra en segundos_ |
+| **coredns.process.cpu_seconds_total.count**
(count) | \[OpenMetrics V2\] Recuento del tiempo de CPU del usuario y del sistema empleado en segundos.
_Se muestra como segundo_ |
+| **coredns.process.max_fds**
(gauge) | \[OpenMetrics V1 y V2\] Número máximo de descriptores de archivo abiertos.
_Se muestra como archivo_ |
+| **coredns.process.open_fds**
(gauge) | \[OpenMetrics V1 y V2\] Número de descriptores de archivo abiertos.
_Se muestra como archivo_ |
+| **coredns.process.resident_memory_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Tamaño de la memoria residente en bytes.
_Se muestra como byte_ |
+| **coredns.process.start_time_seconds**
(gauge) | \[OpenMetrics V1 y V2\] Tiempo de inicio del proceso desde unix epoch en segundos.
_Se muestra como segundo_ |
+| **coredns.process.virtual_memory_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Tamaño de la memoria virtual en bytes.
_Se muestra como byte_ |
+| **coredns.proxy_request_count**
(count) | \[OpenMetrics V1\] Recuento de consultas por flujo ascendente.
_Se muestra como solicitud_ |
+| **coredns.proxy_request_count.count**
(count) | \[OpenMetrics V2\] Recuento de consultas por flujo ascendente.
_Se muestra como solicitud_ |
+| **coredns.proxy_request_duration.seconds.bucket**
(count) | \[OpenMetrics V2\] Muestra de duración por interacción ascendente
_Se muestra como segundo_ |
+| **coredns.proxy_request_duration.seconds.count**
(count) | \[OpenMetrics V1 y V2\] Duración por interacción ascendente
_Se muestra en segundos_ |
+| **coredns.proxy_request_duration.seconds.sum**
(count) | \[OpenMetrics V1 y V2\] Duración por interacción ascendente
_Se muestra en segundos_ |
+| **coredns.reload.failed_count**
(count) | \[OpenMetrics V1\] Cuenta el número de intentos fallidos de recarga.|
+| **coredns.reload.failed_count.count**
(count) | \[OpenMetrics V2\] Cuenta el número de intentos fallidos de recarga.|
+| **coredns.request_count**
(count) | \[OpenMetrics V1\] Recuento total de consultas.
_Se muestra como solicitud_ |
+| **coredns.request_count.count**
(count) | \[OpenMetrics V2\] Recuento total de consultas.
_Se muestra como solicitud_ |
+| **coredns.request_duration.seconds.bucket**
(count) | \[OpenMetrics V2\] Duración de la muestra para procesar cada consulta
_Se muestra como segundo_ |
+| **coredns.request_duration.seconds.count**
(count) | \[OpenMetrics V1 y V2\] Duración para procesar cada consulta
_Se muestra como segundo_ |
+| **coredns.request_duration.seconds.sum**
(count) | \[OpenMetrics V1 y V2\] Duración para procesar cada consulta
_Se muestra como segundo_ |
+| **coredns.request_size.bytes.bucket**
(count) | \[OpenMetrics V2\] Tamaño de la muestra de la solicitud en bytes
_Se muestra como byte_ |
+| **coredns.request_size.bytes.count**
(count) | \[OpenMetrics V1 y V2\] Tamaño de la solicitud en bytes
_Se muestra como byte_ |
+| **coredns.request_size.bytes.sum**
(count) | \[OpenMetrics V1 y V2\] Tamaño de la solicitud en bytes
_Se muestra como byte_ |
+| **coredns.request_type_count**
(count) | \[OpenMetrics V1\] Contador de consultas por zona y tipo|
+| **coredns.request_type_count.count**
(count) | \[OpenMetrics V2\] Contador de consultas por zona y tipo|
+| **coredns.response_code_count**
(count) | \[OpenMetrics V1\] Número de respuestas por zona y rcode|
+| **coredns.response_code_count.count**
(count) | \[OpenMetrics V2\] Número de respuestas por zona y rcode|
+| **coredns.response_size.bytes.bucket**
(count) | \[OpenMetrics V2\] Tamaño de la muestra de la solicitud en bytes
_Se muestra como byte_ |
+| **coredns.response_size.bytes.count**
(count) | \[OpenMetrics V1 y V2\] Tamaño de la solicitud en bytes
_Se muestra como byte_ |
+| **coredns.response_size.bytes.sum**
(count) | \[OpenMetrics V1 y V2\] Tamaño de la solicitud en bytes
_Se muestra como byte_ |
+| **coredns.template.failures_count**
(count) | \[OpenMetrics V1\] El número de veces que la plantilla Go falló.
_Se muestra como error_ |
+| **coredns.template.failures_count.count**
(count) | \[OpenMetrics V2\] El número de veces que la plantilla Go falló.
_Se muestra como error_ |
+| **coredns.template.matches_count**
(count) | \[OpenMetrics V1\] El número total de solicitudes coincidentes por expresión regular.|
+| **coredns.template.matches_count.count**
(count) | \[OpenMetrics V2\] El número total de solicitudes coincidentes por expresión regular.|
+| **coredns.template.rr_failures_count**
(count) | \[OpenMetrics V1\] El número de veces que el registro de recursos de plantilla no era válido y no pudo ser analizado.
_Se muestra como error_ |
+| **coredns.template.rr_failures_count.count**
(count) | \[OpenMetrics V2\] El número de veces que el registro de recursos de plantilla no era válido y no pudo ser analizado.
_Se muestra como error_ |
### Eventos
El check de CoreDNS no incluye eventos.
### Checks de servicio
-{{< get-service-checks-from-git "coredns" >}}
+**coredns.prometheus.health**
+
+Devuelve `CRITICAL` si el check no puede acceder al endpoint de métricas. En caso contrario, devuelve `OK`.
+
+_Estados: ok, critical_
## Solucionar problemas
-¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8].
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](http://docs.datadoghq.com/help).
## Referencias adicionales
Documentación útil adicional, enlaces y artículos:
-- [Métricas clave para la monitorización CoreDNS][9]
-- [Herramientas para la recopilación de métricas y logs de CoreDNS][10]
-- [Monitorización de CoreDNS con Datadog][11]
-
-
-
-[1]: https://docs.datadoghq.com/es/integrations/guide/versions-for-openmetrics-based-integrations
-[2]: https://github.com/DataDog/integrations-core/blob/master/coredns/metadata.csv
-[3]: https://github.com/DataDog/integrations-core/blob/7.32.x/coredns/datadog_checks/coredns/data/conf.yaml.example
-[4]: https://github.com/DataDog/integrations-core/blob/master/coredns/datadog_checks/coredns/data/auto_conf.yaml
-[5]: https://github.com/DataDog/integrations-core/blob/master/coredns/datadog_checks/coredns/data/conf.yaml.example
-[6]: https://app.datadoghq.com/account/settings/agent/latest
-[7]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[8]: http://docs.datadoghq.com/help
-[9]: https://www.datadoghq.com/blog/coredns-metrics/
-[10]: https://www.datadoghq.com/blog/coredns-monitoring-tools/
-[11]: https://www.datadoghq.com/blog/monitoring-coredns-with-datadog/
\ No newline at end of file
+- [Métricas clave para la monitorización de CoreDNS](https://www.datadoghq.com/blog/coredns-metrics/)
+- [Herramientas para recopilar métricas y logs de CoreDNS](https://www.datadoghq.com/blog/coredns-monitoring-tools/)
+- [Cómo monitorizar CoreDNS con Datadog](https://www.datadoghq.com/blog/monitoring-coredns-with-datadog/)
\ No newline at end of file
diff --git a/content/es/integrations/delinea_secret_server.md b/content/es/integrations/delinea_secret_server.md
new file mode 100644
index 0000000000000..d4b1e2757f7e2
--- /dev/null
+++ b/content/es/integrations/delinea_secret_server.md
@@ -0,0 +1,216 @@
+---
+app_id: delinea-secret-server
+app_uuid: 69a8e7df-7ed3-451c-948b-43303a5219e3
+assets:
+ dashboards:
+ Delinea Secret Server - Overview: assets/dashboards/delinea_secret_server_overview.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ source_type_id: 41132309
+ source_type_name: Delinea Secret Server
+ logs:
+ source: delinea-secret-server
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- recopilación de logs
+- seguridad
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/delinea_secret_server/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: delinea_secret_server
+integration_id: delinea-secret-server
+integration_title: Delinea Secret Server
+integration_version: 1.0.0
+is_public: true
+manifest_version: 2.0.0
+name: delinea_secret_server
+public_title: Delinea Secret Server
+short_description: Obtén información sobre los logs de Delinea Secret Server.
+supported_os:
+- linux
+- windows
+- macOS
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Sistema operativo compatible::Linux
+ - Sistema operativo compatible::Windows
+ - Sistema operativo compatible::macOS
+ - Categoría::Recopilación de logs
+ - Categoría::Seguridad
+ - Oferta::Integración
+ - Tipo de datos enviados::Logs
+ configuration: README.md#Configuración
+ description: Obtén información sobre los logs de Delinea Secret Server.
+ media:
+ - caption: 'Delinea Secret Server: información general 1'
+ image_url: images/delinea_secret_server_overview_1.png
+ media_type: imagen
+ - caption: 'Delinea Secret Server: información general 2'
+ image_url: images/delinea_secret_server_overview_2.png
+ media_type: imagen
+ - caption: 'Delinea Secret Server: información general 3'
+ image_url: images/delinea_secret_server_overview_3.png
+ media_type: imagen
+ - caption: 'Delinea Secret Server: información general 4'
+ image_url: images/delinea_secret_server_overview_4.png
+ media_type: imagen
+ overview: README.md#Información general
+ support: README.md#Soporte
+ title: Delinea Secret Server
+---
+
+
+## Información general
+
+[Delinea Secret Server][1] es una solución de gestión de contraseñas de nivel empresarial diseñada para ayudar a las organizaciones a almacenar, gestionar y controlar de forma segura el acceso a credenciales privilegiadas. Su objetivo es mejorar la seguridad de los datos confidenciales, reducir el riesgo de violación de datos y agilizar el proceso de gestión de contraseñas.
+
+Esta integración enriquece e ingiere los siguientes logs:
+
+- **Logs de Secret Server**: representa un evento en el que un usuario realiza una acción (como ver, añadir o modificar) en un secreto almacenado, carpeta, grupo o usuario. Proporciona detalles que incluyen la identidad del usuario, la fuente de la acción y el elemento en el que se realizó la acción.
+
+Después de recopilar los logs, Delinea Secret Server los canaliza en Datadog para su análisis. Usando el pipeline de logs integrados, estos logs se analizan y se enriquecen, permitiendo la búsqueda y el análisis sin esfuerzo. La integración proporciona información en los logs de Secret Server a través de dashboards predefinidos e incluye reglas de detección de Cloud SIEM predefinidas para la monitorización y la seguridad mejoradas.
+
+## Configuración
+
+### Instalación
+
+Para instalar la integración de Delinea Secret Server, ejecuta el siguiente comando de instalación del Agent y los siguientes pasos. Para más información, consulta la documentación de [Gestión de la integración][2].
+
+**Nota**: Este paso no es necesario para el Agent versión >= 7.65.0.
+
+Comando Linux:
+
+ ```shell
+ sudo -u dd-agent -- datadog-agent integration install datadog-delinea-secret-server==1.0.0
+ ```
+
+### Configuración
+
+#### Recopilación de logs
+
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en el archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. Añade este bloque de configuración a tu archivo `delinea_secret_server.d/conf.yaml` para empezar a recopilar tus logs de Delinea Secret Server.
+
+ ```yaml
+ logs:
+ - type: tcp/udp
+ port:
+ source: delinea-secret-server
+ service: delinea-secret-server
+ ```
+
+ Para las opciones de configuración disponibles, ve el [delinea_secret_server.d/conf.yaml de ejemplo][3]. Elige el protocolo apropiado (TCP o UDP) basado en tu configuración de reenvío de syslogs de Delinea Secret Server.
+
+ **Nota**: No modifiques los valores de servicio y fuente, ya que estos parámetros forman parte integrante del funcionamiento del pipeline.
+
+3. [Reinicia el Agent][4].
+
+#### Configurar el reenvío de mensajes de syslog desde Delinea Secret Server
+
+1. Inicia sesión en la plataforma **Delinea Secret Server**.
+2. Ve a **Settings** > **All Settings** (Configuración > Todos los ajustes).
+3. Ve a **Configuration** > **General** > **Application** (Configuración > General > Aplicación).
+4. Haz clic en **Edit** (Editar).
+5. Marca **Enable Syslog/CEF Log Output** (Activar la salida de logs Syslog/CEF).
+6. Rellena los siguientes datos:
+
+ - **Servidor Syslog/CEF**: introduce la dirección del servidor Syslog/CEF.
+ - **Puerto de Syslog/CEF**: ingresa el puerto del servidor Syslog/CEF.
+ - **Protocolo Syslog/CEF Protocol**: selecciona TCP o UDP.
+ - **Franja horaria de Syslog/CEF**: selecciona la franja UTC.
+ - **Formato fecha/hora Syslog/CEF**: selecciona ISO 8601.
+ - **Sitio de Syslog/CEF**: selecciona el sitio en el que se ejecutará CEF/Syslogs.
+
+7. Haz clic en **Save** (Guardar).
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][5] y busca `delinea_secret_server` en la sección Checks.
+
+## Datos recopilados
+
+### Logs
+
+La integración de Delinea Secret Server recopila los logs de Secret Server.
+
+### Métricas
+
+La integración de Delinea Secret Server no incluye ninguna métrica.
+
+### Eventos
+
+La integración de Delinea Secret Server no incluye ningún evento.
+
+### Checks de servicio
+
+La integración de Delinea Secret Server no incluye ningún check de servicio.
+
+## Solucionar problemas
+
+### Permiso denegado durante la vinculación de puertos
+
+Si ves un error de **Permiso denegado** mientras se vincula al puerto en los logs del Agent, consulta las siguientes instrucciones:
+
+ 1. La vinculación a un número de puerto inferior a 1024 requiere permisos elevados. Concede acceso al puerto mediante el comando `setcap`:
+
+ - Concede acceso al puerto mediante el comando `setcap`:
+
+ ```shell
+ sudo setcap CAP_NET_BIND_SERVICE=+ep /opt/datadog-agent/bin/agent/agent
+ ```
+
+ - Comprueba que la configuración es correcta ejecutando el comando `getcap`:
+
+ ```shell
+ sudo getcap /opt/datadog-agent/bin/agent/agent
+ ```
+
+ Con el resultado esperado:
+
+ ```shell
+ /opt/datadog-agent/bin/agent/agent = cap_net_bind_service+ep
+ ```
+
+ **Nota**: Vuelve a ejecutar este comando `setcap` cada vez que actualices el Agent.
+
+ 2. [Reinicia el Agent][4].
+
+### No se recopilan datos
+
+Asegúrate de que se evita el tráfico del puerto configurado si el firewall está activado.
+
+### Puerto ya utilizado
+
+Si aparece el error **Port Ya está en uso**, consulta las siguientes instrucciones. El ejemplo siguiente es para PORT-NO = 514:
+
+En los sistemas que utilizan Syslog, si el Agent escucha logs de Delinea Secret Server en el puerto 514, puede aparecer el siguiente error en los logs del Agent: `Can't start UDP forwarder on port 514: listen udp :514: bind: address already in use`.
+
+Por defecto, Syslog escucha en el puerto 514. Para resolver este error, sigue **uno** de los pasos siguientes:
+
+- Desactiva Syslog.
+- Configura el Agent para escuchar en un puerto diferente, disponible.
+
+¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog][6].
+
+[1]: https://delinea.com/products/secret-server
+[2]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=linux#install
+[3]: https://github.com/DataDog/integrations-core/blob/master/delinea_secret_server/datadog_checks/delinea_secret_server/data/conf.yaml.example
+[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[6]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/github.md b/content/es/integrations/github.md
index 91ae6a664db89..f5103f0972c38 100644
--- a/content/es/integrations/github.md
+++ b/content/es/integrations/github.md
@@ -1,245 +1,366 @@
---
-aliases:
-- /es/integrations/github_apps
+app_id: github
categories:
-- collaboration
+- automation
- developer tools
-- issue tracking
- source control
custom_kind: integración
-dependencies: []
-description: Conecta GitHub con Datadog para monitorizar confirmaciones y solicitudes
- pull que afecten el rendimiento de tus servicios.
-doc_link: https://docs.datadoghq.com/integrations/github/
-draft: false
+description: GitHub es un servicio de alojamiento web para proyectos de desarrollo
+ de software that use the Git revision control system.
further_reading:
-- link: https://www.datadoghq.com/blog/collect-github-audit-logs-alerts-datadog/
- tag: Blog
- text: Recopila logs de auditoría de GitHub y alertas de escaneo con Datadog
-- link: https://www.datadoghq.com/blog/github-source-code-integration/
- tag: Blog
- text: Usa las integraciones de código fuente y GitHub de Datadog para optimizar
- la solución de problemas
-- link: https://www.datadoghq.com/blog/github-actions-service-catalog/
- tag: Blog
- text: Uso GitHub Actions para Service Catalog de Datadog, y tú también deberías
- hacerlo
-- link: https://docs.datadoghq.com/integrations/guide/source-code-integration/
- tag: Documentación
- text: Obtén más información sobre la integración del código fuente de Datadog
-- link: https://docs.datadoghq.com/service_catalog/adding_metadata/#store-and-edit-service-definitions-in-github
- tag: Documentación
- text: Aprende a usar la integración de GitHub en Service Catalog
-- link: https://docs.datadoghq.com/serverless/configuration/?tab=serverlessframework#link-errors-to-your-source-code
- tag: Documentación
- text: Aprende a usar la integración de GitHub en la monitorización serverless
-git_integration_title: github
-has_logo: true
-integration_id: github
-integration_title: GitHub
-integration_version: ''
-is_public: true
-manifest_version: '1.0'
-name: github
-public_title: Integración de GitHub
-short_description: Conecta GitHub con Datadog.
-team: web-integrations
-version: '1.0'
+- link: https://www.datadoghq.com/blog/source-code-preview/
+ tag: blog
+ text: Centrarse en el código importante mediante vistas previas del código fuente
+ en Continuous Profiler
+- link: https://www.datadoghq.com/blog/live-debugging/
+ tag: blog
+ text: Solucionar eficazmente los errores de producción con la depuración en directo
+ de Datadog
+- link: https://www.datadoghq.com/blog/datadog-code-analysis/
+ tag: blog
+ text: Enviar código seguro y de alta calidad más rápidamente con Datadog Code Analysis
+- link: https://www.datadoghq.com/blog/ai-assistant-workflows-apps/
+ tag: blog
+ text: Crea workflows (UI) / procesos (generic) y aplicaciones en Datadog en cuestión
+ de minutos con nuestro asistente de inteligencia artificial.
+- link: https://www.datadoghq.com/blog/monitor-github-datadog-cloud-siem/
+ tag: blog
+ text: Monitoriza GitHub con Cloud SIEM de Datadog
+media:
+- caption: Fragmento de código de GitHub en la interfaz de usuario de Datadog
+ image_url: images/code_snippet.png
+ media_type: imagen
+- caption: Comentarios automatizados en GitHub Pull Request
+ image_url: images/pr_comment.png
+ media_type: imagen
+- caption: Datadog’s Action Catalog for GitHub
+ image_url: images/actions.png
+ media_type: imagen
+- caption: Dashboard de información general de GitHub
+ image_url: images/overview.png
+ media_type: imagen
+title: GitHub
---
-
-
## Información general
-Instala la integración de GitHub para configurar GitHub Apps y GitHub Actions, proteger el acceso a tus repositorios y recopilar telemetría avanzada (como logs de auditoría, informes de vulnerabilidad, escaneo de secretos y estadísticas de repositorios).
+La integración de Datadog y GitHub recopila cuatro tipos principales de datos:
+
+- **Registros de auditoría**: actividades de seguimiento de datos de seguridad y cumplimiento a nivel de empresa en toda la organización, cambios de acceso de los usuarios y parámetros de seguridad a través de Audit Log Streaming.
+
+- **Eventos de repositorio**: seguimiento en tiempo real de las actividades del repositorio, incluyendo solicitudes pull, incidentes, commits y cambios de rama a través de webhooks.
+
+- **Información del código fuente**: proporciona acceso al código fuente para potenciar funciones bidireccionales entre Datadog y GitHub, como mostrar fragmentos de código en trazas (traces) de APM, Error Tracking y herramientas de seguridad o habilitar comentarios en solicitudes pull de Code Security y Test Optimization (optimización de tests).
+
+- **Datos de telemetría**: recopilación automatizada de alertas de análisis de código, alertas de análisis de secretos y métricas de repositorio para realizar un seguimiento de las tendencias de seguridad y los patrones de workflow (UI) / proceso (generic).
+
+#### GitHub Apps
+
+La integración de aplicaciones de GitHub te permite conectar tu organización o cuenta personal de GitHub para acceder a la funcionalidad relacionada con el código de source (fuente) y recopilar datos valiosos para ayudarte a monitorizar y proteger tu entorno de GitHub. Gestiona tus aplicaciones de GitHub a través de la [pestaña Configuración](https://docs.datadoghq.com/integrations/guide/source-code-integration/) para empezar.
+
+Configura la integración de GitHub para configurar [aplicaciones de GitHub](https://docs.github.com/en/apps) que conectan tu organización o cuenta personal de GitHub a Datadog, lo que te permite acceder a la funcionalidad relacionada con el código source (fuente), recopilar datos valiosos y ayudarte a monitorizar y proteger tu entorno de GitHub.
+
+**Funcionalidad del código fuente**: cuando se instala con los permisos correctos, la integración de GitHub potencia diferentes funciones de código fuente en productos de Datadog para ayudarte a solucionar problemas y tomar acciones en tu código. Algunos ejemplos incluyen:
+
+- Acelerar las investigaciones en Error Tracking, Continuous Profiler y Code Security utilizando fragmentos de código en línea para contextualizar de dónde procede un problema en tu código.
+- Potenciar tus revisiones de código con comentarios automáticos y sugerencias de cambios directamente en tus solicitudes pull desde Code Security y Test Optimization (optimización de tests).
+- Tomar acciones en tu código de base con automatizaciones personalizadas creadas con Datadog Actions and Remediations.
+
+Por ejemplo, una vez instalada la aplicación de GitHub con los permisos pertinentes activados, puedes utilizar Datadog [integración del código source (fuente)](https://docs.datadoghq.com/integrations/guide/source-code-integration/) para consultar fragmentos de código en tus stack traces, obtener comentarios automatizados y sugerencias de cambios a través de los comentarios de pull request de [CI Visibility](https://docs.datadoghq.com/continuous_integration/guides/pull_request_comments/) y [Code Security](https://docs.datadoghq.com/security/code_security/dev_tool_int/github_pull_requests/), y acceder a múltiples definiciones de servicios en GitHub desde [Software Catalog](https://docs.datadoghq.com/service_catalog/adding_metadata/#store-and-edit-definitions-in-github).
+
+
+
+Ya puedes integrar tus equipos de GitHub con tus equipos de Datadog: únete a la vista previa:
+{{< callout url="https://www.datadoghq.com/product-preview/github-integration-for-teams/" header="Únete a la vista previa">}}
+La integración de GitHub para equipos está en vista previa.
+{{< /callout >}}
+
+#### Eventos de repositorio
+
+Captura eventos de GitHub en Datadog para:
+
+- Realizar un seguimiento de las nuevas funciones a partir de cambios en el código
+- Identificar cuándo los nuevos cambios de código generan alertas en el sistema o fallos de compilación
+- Discutir los cambios de código con tu equipo
+- Declarar un incidente o exportar un evento a un incidente en curso
+
+Eventos de consumo relacionados con tus acciones en repositorios y/o ramificaciones específicas incluidos:
+| Nombre del evento | Acciones del evento |
+| ---------------------------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
+| [Creación de ramificación o tag (etiqueta)](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#create) | |
+| [Eliminación de ramificación o tag (etiqueta)](https://docs.github.com/en/webhooks/webhook-events-and-payloads#delete) | |
+| [Reglas de protección de ramificaciones](https://docs.github.com/en/webhooks/webhook-events-and-payloads#branch_protection_rule) | Se admiten las siguientes acciones:
- [`created`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=created#branch_protection_rule)
- [`deleted`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#branch_protection_rule)
- [`edited`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#branch_protection_rule) |
+| [Comentarios de confirmación](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#commit_comment) | |
+| [Alertas de Dependabot](https://docs.github.com/en/webhooks/webhook-events-and-payloads#dependabot_alert) | Se admiten las siguientes acciones:
- [`auto_dismissed`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=auto_dismissed#dependabot_alert)
- [`auto_reopened`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=auto_reopened#dependabot_alert)
- [`created`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=created#dependabot_alert)
- [`dismissed`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=dismissed#dependabot_alert)
- [`fixed`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=fixed#dependabot_alert)
- [`reintroduced`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=reintroduced#dependabot_alert)
- [`reopened`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=reopened#dependabot_alert) |
+| [Comentarios de problemas](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#issue_comment) | Se admiten las siguientes acciones:
- [`created`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=created#issue_comment)
- [`deleted`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#issue_comment)
- [`edited`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#issue_comment) |
+| [Problemas](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#issues) | Se admiten las siguientes acciones:
- [`assigned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=assigned#issues)
- [`closed`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=closed#issues)
- [`deleted`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#issues)
- [`demilestoned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=demilestoned#issues)
- [`edited`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#issues)
- [`labeled`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=labeled#issues)
- [`locked`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=locked#issues)
- [`milestoned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=milestoned#issues)
- [`opened`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=opened#issues)
- [`pinned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=pinned#issues)
- [`reopened`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=reopened#issues)
- [`transferred`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=transferred#issues)
- [`unassigned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unassigned#issues)
- [`unlabeled`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unlabeled#issues)
- [`unlocked`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unlocked#issues)
- [`unpinned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unpinned#issues) |
+| [Comentarios de revisión de solicitud de cambio](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#pull_request_review_comment) | Se admiten las siguientes acciones:
- [`created`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=created#pull_request_review_comment)
- [`deleted`](https://app.datadoghq.com/hhttps://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#pull_request_review_comment)
- [`edited`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#pull_request_review_comment) |
+| [Solicitudes de cambios](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#pull_request) | Se admiten las siguientes acciones:
- [`assigned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=assigned#pull_request)
- [`unassigned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unassigned#pull_request)
- [`labeled`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=labeled#pull_request)
- [`unlabeled`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unlabeled#pull_request)
- [`opened`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=opened#pull_request)
- [`edited`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#pull_request)
- [`closed`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=closed#pull_request)
- [`reopened`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=reopened#pull_request)
- [`synchronize`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=synchronize#pull_request)
- [`converted_to_draft`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=converted_to_draft#pull_request)
- [`locked`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=locked#pull_request)
- [`unlocked`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unlocked#pull_request)
- [`enqueued`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=enqueued#pull_request)
- [`dequeued`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=dequeued#pull_request)
- [`milestoned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=milestoned#pull_request)
- [`demilestoned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=demilestoned#pull_request)
- [`ready_for_review`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=ready_for_review#pull_request)
- [`review_requested`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=review_requested#pull_request)
- [`review_request_removed`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=review_request_removed#pull_request)
- [`auto_merge_enabled`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=auto_merge_enabled#pull_request)
- [`auto_merge_disabled`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=auto_merge_disabled#pull_request) |
+| [Inserciones](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#push) | |
+| [Repositorios](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#repository) | Se admiten las siguientes acciones:
- [`archived`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=archived#repository)
- [`created`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=created#repository)
- [`deleted`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#repository)
- [`edited`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#repository)
- [`privatized`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=privatized#repository)
- [`publicized`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=publicized#repository)
- [`renamed`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=renamed#repository)
- [`transferred`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=transferred#repository)
- [`unarchived`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unarchived#repository) |
+| [Alertas de vulnerabilidad del repositorio](https://docs.github.com/en/webhooks/webhook-events-and-payloads#repository_vulnerability_alert) | Se admiten las siguientes acciones:
- [`create`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=create#repository_vulnerability_alert)
- [`dismiss`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=dismiss#repository_vulnerability_alert)
- [`reopen`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=reopen#repository_vulnerability_alert)
- [`resolve`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=resolve#repository_vulnerability_alert) |
+| [Asesoramiento de seguridad](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#security_advisory) | Se admiten las siguientes acciones:
- [`published`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=published#security_advisory)
- [`updated`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=updated#security_advisory)
- [`withdrawn`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=withdrawn#security_advisory) |
+| [Agregados al equipo](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#team_add) |
+| [Cambios en la visibilidad](https://docs.github.com/en/webhooks/webhook-events-and-payloads#public) |
+
+#### Datos de telemetría
+
+Recopilación automatizada de datos mediante rastreadores de métricas y logs:
+
+- Métricas de alerta del análisis de código
+- Métricas de alerta del análisis de secretos
+- Métricas de repositorio
+- Seguimiento del estado de alertas
+- Tendencias de flujos de trabajo
+
+#### Registros de auditoría
-{{< img src="integrations/github/repo_configuration.png" alt="La pestaña Configuración del repositorio en el cuadro de integración de GitHub" popup="true" style="width:100%;">}}
+Datos de seguridad y cumplimiento a nivel de empresa:
-Puedes usar la [integración de código fuente][1] de Datadog a fin de ver fragmentos de código en tus stack traces, vincular stack traces al código fuente en GitHub para tus [funciones de Lambda][2], mostrar resúmenes de resultados de tests de los comentarios de solicitudes pull en [CI Visibility][3] y acceder a diferentes definiciones de servicio en GitHub desde [Service Catalog][4].
+- Audit Log Streaming (recomendado para nuevos clientes)
+ - Monitorización de la actividad de toda la organización en tiempo real
+ - Cambios en el acceso de los usuarios
+ - Modificación de los parámetros de seguridad
+ - Eventos a nivel de organización
+- Rastreador de logs de auditoría legacy (disponible solo para clientes que lo hayan configurado previamente)
+ - Datos de logs de auditoría históricos
+ - Eventos de seguridad de la organización
-## Configurar
+**Nota**: Datadog eligió Audit Log Streaming como método preferido para la recopilación de logs de auditoría. Mientras que los rastreadores de análisis de código y de seguridad siguen siendo partes activas de GitHub Telemetry, el rastreador de logs de auditoría solo está disponible para los clientes que lo hayan instalado previamente.
+
+## Configuración
+
+### Configuración
+
+Cada tipo de datos requiere permisos y pasos de configuración específicos. Consulta la sección de configuración de cada tipo de datos para configurar cada parte de la integración.
+
+- [Logs de auditoría](#audit-logs)
+- [GitHub Apps](#github-apps)
+- [Métricas](#metrics)
+- [Eventos de repositorio](#repository-events)
+
+### GitHub Apps
-Sigue estas instrucciones para instalar GitHub Apps y otorgar permisos a Datadog. En función de los permisos otorgados, puedes configurar la integración de código fuente, ver fragmentos de código en las stack traces, ver la telemetría recopilada, como los logs de auditoría, acceder a GitHub Actions en CI Visibility y más.
+Dependiendo de la función del producto, puede ser necesaria una configuración adicional, además de la creación de una GitHub App, para habilitar completamente esa función. La creación de una GitHub App para conectar tu cuenta solo concede los permisos de GitHub que estas funciones requieren como requisitos previos. No incurrirás en gastos adicionales por la creación de GitHub Apps y ninguna función asociada a un producto facturable estará habilitada por defecto, aunque concedas los permisos necesarios para dichas funciones.
-### Vincular un repositorio en tu organización o cuenta personal
+1. En el [ícono de integración de GitHub](https://app.datadoghq.com/integrations/github/), ve a la pestaña **Configuration** (Configuración).
+
+1. Haz clic en **Connect GitHub Account** (Conectar cuenta de GitHub) para crear una GitHub App nueva.
+
+1. En **Configure App** (Configurar aplicación), selecciona **Organization** (Organización) e ingresa un nombre para la organización en GitHub, o selecciona **Personal Account** (Cuenta personal).
+
+1. Para despliegues de GitHub autoalojadas, selecciona **Running GitHub enterprise server** (Ejecutar servidor empresarial de GitHub) e introduce la URL de tu instancia de servidor empresarial de GitHub (versión 2.22 o superior). Asegúrate de que los servidores de Datadog puedan conectarse con tu instancia de GitHub. Las direcciones IP de los servidores están disponibles en la sección Webhooks de [Rangos de IP](https://docs.datadoghq.com/api/latest/ip-ranges/).
+
+1. Opcionalmente, si no quieres utilizar la configuración recomendada de Datadog, amplía **Edit GitHub App permissions** (Editar permisos de GitHub App) para ver y personalizar los permisos de GitHub que quieres conceder a Datadog. El resumen contiene estas secciones:
+
+ - **Funciones de Datadog** enumera las funciones generales y específicas del producto en Datadog que requieren permisos específicos de GitHub. Amplía cada función para obtener detalles sobre su funcionalidad y sus requisitos.
+
+ - **Permisos de GitHub** enumera los permisos de GitHub relacionados. Puedes utilizar los desplegables **Access Level** (Nivel de acceso) para cambiar la autorización del acceso a aspectos específicos de tu entorno de GitHub.
+
+ Por defecto, Datadog selecciona los permisos recomendados necesarios para todas las funciones relacionadas con el código fuente. Cambiar los permisos afectará a la funcionalidad de las funciones. La sección **Datadog Features** (Funciones de Datadog) identifica cualquier función no disponible y sus requisitos faltantes.
+
+
+
+6. Haz clic en **Create App in GitHub** (Crear aplicación en GitHub). Si es necesario, se te pedirá que te autentiques en GitHub.
+1. En GitHub, introduce un nombre para tu GitHub App y haz clic en **Create GitHub App** (Crear GitHub App).
+1. Elige si quieres instalar la GitHub App para **All repositories** (Todos los repositorios) o **Only select repositories** (Solo los repositorios seleccionados) y, a continuación, haz clic en **Install & Authorize** (Instalar y autorizar).
+
+Cuando termines de instalar la aplicación de GitHub, volverás al punto donde lo dejaste en Datadog. Para activar fragmentos de código en línea en APM, considera [configurar la integración del código source (fuente)](https://docs.datadoghq.com/integrations/guide/source-code-integration/).
+
+#### Actualizar una GitHub App existente
+
+Si una GitHub App instalada no tiene los permisos o webhooks necesarios para una función, Datadog indica los requisitos que faltan en la pestaña **Configuration** (Configuración) de la página de la integración. Esta alerta también aparece en otras áreas de Datadog en las que puedes activar y utilizar funciones con tecnología GitHub, como Test Optimization.
+
+Para actualizar tu GitHub App con los requisitos que faltan de la página de la integración:
+
+1. Haz clic en **Review Missing Requirements** (Revisar los requisitos que faltan).
+1. Selecciona las funciones de Datadog deseadas. La lista solo incluye las funciones a las que les faltan requisitos.
+1. A medida que selecciones cada función, ten en cuenta los **Repository Permissions** (Permisos de repositorio), los **Organization Permissions** (Permisos de organización) o los **Webhooks** específicos que se indican en el siguiente paso de las instrucciones.
+1. Haz clic en **Go to GitHub App Settings** (Ir a los parámetros de GitHub App) y autentícate con GitHub.
+1. En GitHub, actualiza los permisos y webhooks necesarios. Revisa las instrucciones en Datadog, si es necesario.
+1. Asegúrate de hacer clic en **Save changes** (Guardar cambios), en la parte inferior de la página en GitHub.
+1. Datadog intentará verificar que hayas realizado los cambios correctamente. Vuelve a Datadog para confirmar que la verificación se aprobó con una marca de verificación verde. Si sólo necesitas actualizar los webhooks, puedes cerrar las instrucciones y detenerte aquí.
+
+**_Si actualizaste los permisos_**
-Si eres administrador en tu organización de GitHub, puedes configurar GitHub Apps.
+1. Haz clic en **Accept New Permissions** (Aceptar nuevos permisos) para volver a GitHub y aceptar los cambios en los permisos.
-1. En el [cuadro de integración de GitHub][5], dirígete a la pestaña **Repo Configuration** (Configuración del repositorio).
-2. Haz clic en **Link GitHub Account** (Vincular cuenta de GitHub) para crear una GitHub App nueva.
-3. En **Configure** (Configurar), selecciona **Organization** (Organización) e ingresa un nombre para la organización, o selecciona **Personal Account** (Cuenta personal).
+1. En GitHub, haz clic en **Review request** (Revisar solicitud) y acepta los nuevos permisos.
- De manera opcional, especifica la URL de tu instancia de GitHub Enterprise Server (versión 2.22 o posterior) y asegúrate de que los servidores de Datadog puedan conectarse a tu instancia de Enterprise. Las direcciones IP de los servidores se encuentran disponibles en la sección Webhooks de [Rangos de IP][6].
+1. Datadog intentará verificar que tus nuevos permisos hayan sido aceptados con éxito. Vuelve a Datadog para confirmar que la verificación se aprobó con una marca de verificación verde y, a continuación, cierra las instrucciones.
-4. En **Edit Permissions** (Editar permisos), habilita los permisos de lectura de Datadog para problemas, solicitudes pull y contenidos. Debes seleccionar al menos un permiso.
-5. Haz clic en **Create App in GitHub** (Crear aplicación en GitHub), luego se te solicitará que ingreses un nombre de GitHub App en GitHub.
-6. Ingresa un nombre en el campo nombre de GitHub App y haz clic en **Create GitHub App** (Crear GitHub App).
-7. En la pestaña **Configuration** (Configuración), haz clic en **Install GitHub App** (Instalar GitHub App) e **Install & Authorize** (Instalar y autorizar).
+ 
-Tu GitHub App se muestra en el cuadro de integración. Para habilitar fragmentos de código en línea en las stack traces, consulta la [Configuración de la integración de código fuente][1].
+#### Notebooks
-### Notebooks
+Si has concedido a tu aplicación de GitHub permisos de lectura para incidencias y solicitudes de cambios, las incidencias y solicitudes de cambios de GitHub generan automáticamente una ventana emergente de previsualización con detalles que incluyen el historial de confirmaciones, el autor y la fecha en [Notebooks](https://app.datadoghq.com/notebook).
-Si has concedido permisos de lectura para problemas y solicitudes pull a tu GitHub App, estos generarán de manera automática un cuadro flotante de vista previa con detalles que incluyen el historial de confirmaciones, el autor y la fecha en [Notebooks][7].
+1. Ve a **Notebooks** > **New Notebook** (Notebooks > Notebook nuevo).
+1. Añade una celda **Text** (Textp) y menciona una incidente o una solicitud pull en GitHub en el campo **Editar** (Editar). Por ejemplo: `https://github.com/project/repository/pull/#`.
+1. Haz clic en **Done** (Listo). Aparecerá el icono de GitHub junto al incidente o la solicitud pull vinculada.
+1. Si es necesario, haz clic en **Connect to Preview** (Conectar a Vista Previa) y **Authorize** (Autorizar).
+1. Coloca el cursor sobre la solicitud pull o problema vinculado para ver la vista previa de la descripción.
-{{< img src="integrations/guide/github_apps/notebooks-links-to-git.png" alt="Enlaces a Git" style="width:90%;">}}
+
-1. Dirígete a **Notebooks** > **New Notebook** (Notebook nuevo).
-2. Añade una celda de **texto** y menciona un problema o solicitud pull en GitHub en el campo **Edit** (Editar), por ejemplo: `https://github.com/project/repository/pull/#`.
-3. Haz clic en **Done** (Listo) y, a continuación, aparecerá el icono de GitHub junto al problema o solicitud pull vinculados.
-4. Haz clic en **Connect to Preview** (Conectar a la vista previa) y **Authorize** (Autorizar).
-5. Coloca el cursor sobre la solicitud pull o problema vinculado para ver la vista previa de la descripción.
+#### Conecta GitHub Teams a Datadog Teams
+
+Para vincular GitHub Teams a [Datadog Teams ](https://docs.datadoghq.com/account_management/teams/), tu aplicación de GitHub debe tener el permiso _Miembros leen_. En el [ícono de integración de GitHub](https://app.datadoghq.com/integrations/github/), haz clic en **Review Missing Requirements** (Revisar los requisitos que faltan) y selecciona **Link GitHub Teams** (Vincular GitHub Teams) para ver cómo actualizar tu aplicación de GitHub con los permisos necesarios.
+
+Cuando tu aplicación de GitHub tenga el permiso _Miembros leen_, puedes vincular tu equipo de Datadog a un equipo de GitHub:
+
+1. En Datadog, ve a **Organization Settings** (Configuración de la organización) > **Teams**.
+1. Selecciona el equipo Datadog que desees vincular.
+1. En la page (página) del equipo, haz clic en **Settings** (Configuración).
+1. Selecciona **GitHub Connection** (Connection (conexión) con GitHub).
+1. Selecciona el equipo de GitHub que desees vincular.
+
+La connection (conexión) de GitHub Teams a Datadog Teams mejora las siguientes funciones:
+
+- [Code Security](https://docs.datadoghq.com/security/code_security/): Datadog puede [asociar automáticamente las vulnerabilidades detectadas con Teams](https://docs.datadoghq.com/getting_started/code_security/?tab=staticcodeanalysissast#link-results-to-teams)
+- [Error Tracking](https://docs.datadoghq.com/error_tracking/explorer/): Automatiza la asignación de problemas a Teans con [Issue Team Ownership](https://docs.datadoghq.com/error_tracking/issue_team_ownership/)
### Logs de auditoría
-**Requisito**: Se requiere una cuenta de GitHub Enterprise para recopilar logs de auditoría.
+**Requirement** (Requisito): Se requiere una cuenta de GitHub Enterprise para recopilar logs de auditoría.
-Los logs de auditoría abarcan todas las actividades y eventos de una organización de GitHub. Tras la instalación de una aplicación, permite que los permisos de **administración de la organización** tengan acceso de lectura. Esto permite que la aplicación comience a recopilar el flujo de auditoría de GitHub como logs en nombre de la organización de GitHub.
+Los logs de auditoría abarcan todas las actividades y eventos de una organización de GitHub. Sigue las instrucciones de [configuración de streaming a Datadog](https://docs.github.com/en/enterprise-cloud@latest/admin/monitoring-activity-in-your-enterprise/reviewing-audit-logs-for-your-enterprise/streaming-the-audit-log-for-your-enterprise#setting-up-streaming-to-datadog) en la documentación de GitHub para reenviar tus logs de auditoría a Datadog. Para obtener más información sobre los logs de auditoría, consulta la documentación de GitHub para [acciones de logs de auditoría](https://docs.github.com/en/organizations/keeping-your-organization-secure/managing-security-settings-for-your-organization/reviewing-the-audit-log-for-your-organization#audit-log-actions).
-Sigue las instrucciones en la [Configuración de la transmisión a Datadog][8] en la documentación de GitHub para reenviar tus logs de auditoría a Datadog. A fin de obtener más información sobre los logs de auditoría, consulta la documentación de GitHub para [Acciones de log de auditoría][9].
+### Datos de telemetría
-## Datos recopilados
+1. Configura una aplicación siguiendo las instrucciones de la sección [GitHub Apps](#github-apps).
+1. Selecciona los permisos respectivos para el acceso de lectura durante la instalación de la aplicación.
+1. Ve a la pestaña **Telemetry** (Telemetría) en el cuadro de Datadog.
+1. Activar **Code Scan Alert** (Alerta de análisis de código) o **Secret Scan Alerts** (Alerta de análisis de secretos).
+ 
-### Métricas
+**Para excluir las métricas Análisis de códigos o Análisis de secretos:_**
-La integración de GitHub recopila métricas de alertas de escaneo de código y de secretos. Estas métricas proporcionan información general sobre el estado de alerta de la organización al categorizar su estado, repositorio y tipo de secreto. También proporcionan información a largo plazo sobre las tendencias de alerta y su progreso general.
+1. Busca la organización correspondiente en la pestaña **Telemetry** (Telemetría) del cuadro de la integración.
+1. Haz clic en el conmutador de las secciones correspondientes.
+1. Haz clic en **Update Account** (Actualizar cuenta).
-A fin de empezar a recopilar estas métricas, selecciona los permisos correspondientes para el acceso de lectura al instalar la aplicación. Para inhabilitar las métricas de escaneo de código o de secretos, busca la organización correspondiente en la pestaña **Telemetery** (Telemetría) en el cuadro de integración, haz clic en el botón de alternancia de las secciones respectivas y haz clic en **Update Account** (Actualizar cuenta).
+### Eventos de repositorio
-### Eventos
+**Prerequisite** (Requisito previo): debes ser un administrador de Github de tu repositorio.
-
-Sigue estas instrucciones para configurar webhooks en GitHub y Datadog, lo que permite que los eventos aparezcan en el Events Explorer.
-
+#### En GitHub
+
+1. Haz clic en la página **Settings** (Parámetros) de tu proyecto de GitHub.
+
+1. Haz clic en **Webhooks** en la sección **Code, vplanning automation** (Código, planificación de la automatización).
+
+1. Haz clic en **Add Webhook** (Añadir webhook).
+
+1. Añade la siguiente URL en el campo **Payload URL** (URL de carga útil):
+ `https://{{< region-param key="dd_full_site" code="true" >}}/intake/webhook/github?api_key=`. No olvides sustituir `` por [tu clave de la API de Datadog ](https://app.datadoghq.com/organization-settings/api-keys). Esto también se puede generar en el ícono.
+
+1. Selecciona `application/json` en el menú desplegable **Content type** (Tipo de contenido).
+
+1. De manera opcional, añade un secreto en el campo **Secret** (Secreto).
+
+1. Asegúrate de que la casilla `Active` está seleccionada.
+
+1. Haz clic en **Add Webhook** (Añadir webhook).
+
+ 
+
+1. En la sección **Which events would you like to trigger this webhook?** (¿Qué eventos deseas que activen este webhook?), haz clic en **Let me select individual events** (Déjame seleccionar eventos individuales). Selecciona eventos de entre las siguientes opciones compatibles para enviar [eventos](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads) a Datadog:
+
+- creación de rama o etiqueta
+- eliminación de rama o etiqueta
+- reglas de protección de ramas
+- comentarios de commits
+- commits
+- alertas de dependabot
+- comentarios del incidente
+- incidentes
+- afiliación \**Only for Organizations** (Solo para organizaciones)
+- comentarios de revisión de solicitudes pull
+- solicitudes pull
+- envíos
+- repositorios
+- alertas de vulnerabilidad de repositorios
+- consultoría de seguridad
+- agregado de equipos
+- cambios de visibilidad
-#### Añadir un webhook en GitHub
+**Nota** Si seleccionas un evento que no figura en la lista anterior, Datadog no lo recibirá.
-1. En tu proyecto de GitHub, dirígete a **Settings** (Configuración) > **Webhooks**.
-2. Haz clic en **Add webhook** (Añadir webhook).
-3. Añade la siguiente URL en el campo **Payload URL** (URL de carga útil): `https://{{< region-param key="dd_full_site" code="true" >}}/intake/webhook/github?api_key=`. No olvides reemplazar `` con [tu clave de API de Datadog][10].
-4. Selecciona `application/json` en el menú desplegable **Content type** (Tipo de contenido).
-5. De manera opcional, añade un secreto en el campo **Secret** (Secreto).
-6. En la sección **Which events would you like to trigger this webhook?** (¿Qué eventos te gustaría que activen este webhook?), haz clic en **Let me select individual events.** (Permíteme seleccionar eventos individuales.) y selecciona una de las siguientes opciones compatibles para enviar [eventos][11] a Datadog:
+#### Configurar la integración de eventos de Github
- | Nombre del evento | Acciones del evento |
- |---|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
- | [Creación de rama o etiqueta (tag)][12] | |
- | [Comentarios de confirmación][13] | |
- | [Comentarios del problema][14] | Se admiten las siguientes acciones:
- [`created`][15]
- [`deleted`][16]
- [`edited`][17] |
- | [Problemas][18] | Se admiten las siguientes acciones:
- [`assigned`][19]
- [`closed`][20]
- [`deleted`][21]
- [`demilestoned`][22]
- [`edited`][23]
- [`labeled`][24]
- [`locked`][25]
- [`milestoned`][26]
- [`opened`][27]
- [`pinned`][28]
- [`reopened`][29]
- [`transferred`][30]
- [`unassigned`][31]
- [`unlabeled`][32]
- [`unlocked`][33]
- [`unpinned`][34] |
- | [Comentarios de revisión de la solicitud pull][35] | Se admiten las siguientes acciones:
- [`created`][36]
- [`deleted`][37]
- [`edited`][38] |
- | [Solicitudes pull][39] | Se admiten las siguientes acciones:
- [`assigned`][40]
- [`unassigned`][41]
- [`labeled`][42]
- [`unlabeled`][43]
- [`opened`][44]
- [`edited`][45]
- [`closed`][46]
- [`reopened`][47]
- [`synchronize`][48]
- [`converted_to_draft`][49]
- [`locked`][50]
- [`unlocked`][51]
- [`enqueued`][52]
- [`dequeued`][53]
- [`milestoned`][54]
- [`demilestoned`][55]
- [`ready_for_review`][56]
- [`review_requested`][57]
- [`review_request_removed`][58]
- [`auto_merge_enabled`][59]
- [`auto_merge_disabled`][60] |
- | [Pushes][61] | |
- | [Repositorios][62] | Se admiten las siguientes acciones:
- [`archived`][63]
- [`created`][64]
- [`deleted`][65]
- [`edited`][66]
- [`privatized`][67]
- [`publicized`][68]
- [`renamed`][69]
- [`transferred`][70]
- [`unarchived`][71] |
- | [Aviso de seguridad][72] | |
- | [Adiciones del equipo][73] | |
+Después de configurar el webhook en GitHub, configura qué repositorios y eventos monitorizar en Datadog.
-7. Selecciona **Active** (Activo) para recibir detalles del evento cuando se active el enlace.
-8. Haz clic en **Add webhook** (Añadir webhook) para guardar el webhook.
+1. Ve al [ícono de integración de GitHub](https://app.datadoghq.com/integrations/github/) en Datadog.
-#### Añadir un webhook en Datadog
+1. Haz clic en la pestaña **Events** (Eventos).
-1. En el [cuadro de integración de GitHub][5], dirígete a la pestaña **Webhooks**.
-2. Especifica los repositorios y las ramas que quieres monitorizar para cada repositorio. Para añadir todos los repositorios de un usuario u organización, usa comodines (`*`). Puedes usar comodines en los nombres de las ramas. Por ejemplo, `dev-*` incluye todas las ramas que comienzan con `dev-`.
+1. En la sección **Repository Configuration** (Configuración del repositorio):
- Para reunir todos los eventos relacionados con la rama `master` del repositorio de GitHub `DataDog/documentation`, puedes ingresar `DataDog/documentation` en el campo **Repository** (Repositorio) y `master` en el campo **Branches** (Ramas).
+ - Introduce el nombre o los nombres de los repositorios que desees monitorizar.
+ - Formato: `organization/repository` (por ejemplo, `Datadog/documentation`)
+ - Para varios repositorios:
+ - Utiliza comodines: `Datadog/*` monitoriza todos los repositorios de la organización de Datadog.
+ - Enumera repositorios específicos: `Datadog/documentation`, `Datadog/integrations-core`.
- Si quieres recopilar todos los eventos relacionados con **todas** las ramas `master` de la organización de Datadog, ingresa `DataDog/*` en el campo **Repository** (Repositorio) y `master` en el campo **Branches** (Ramas).
- Nota: Cuando se usa un comodín para el nombre de repositorio, se debe especificar el usuario o la organización. Por ejemplo, «*» no es un nombre de repositorio válido, pero «DataDog/*» sí lo es.
+1. En la sección **Branch Configuration** (Configuración de la rama):
-3. Haz clic en las casillas de verificación de **Commits** (Confirmaciones) e **Issues** (Problemas) para recibir alertas sobre estos eventos.
-4. Haz clic en **Update Configuration** (Actualizar configuración) para guardar la configuración del webhook.
+ - Introduce el nombre o los nombres de las ramas que quieres monitorizar.
+ - Ejemplos:
+ - Una sola rama: `main`
+ - Varias ramas: `main`, `develop`
+ - Utiliza comodines: `feature/*` monitoriza todas las ramas de funciones.
+ - Patrón común: `dev-*` monitoriza todas las ramas de desarrollo.
-Una vez que hayas añadido webhooks en la pestaña **Webhooks** en el cuadro de integración, los eventos en los repositorios de GitHub que especificaste anteriormente empiezan a aparecer en el [Events Explorer][74]. Para obtener más información, consulta la [documentación del Events Explorer][75].
+1. En la sección **Event Types** (Tipos de eventos):
-Para filtrar eventos provenientes de GitHub, selecciona **Github** en el menú de la faceta **Source** (Fuente) en **Core** (Núcleo), o ingresa `source:github` en la consulta de búsqueda. La gráfica de barras de los eventos se actualiza de manera automática a medida que editas la consulta de búsqueda.
+ - Selecciona **Commits** para realizar un seguimiento de los cambios en el código.
+ - Selecciona **Issues** (Incidentes) para monitorizar actividad de incidentes.
+ - Ambos pueden seleccionarse para un control exhaustivo
+
+1. Haz clic en **Update Configuration** (Actualizar configuración) para guardar la configuración.
+
+Después de la configuración, puedes ver los eventos de tu repositorio en [Explorer de eventos](https://app.datadoghq.com/event/explorer/):
+
+- Filtra eventos utilizando `source (fuente):github`.
+- Utiliza el menú de facetas fuente en Core para filtrar los eventos de GitHub.
+- El flujo de eventos se actualiza en tiempo real a medida que se producen nuevos eventos.
+
+**Nota**: Los eventos pueden tardar unos minutos en empezar a aparecer luego de la configuración inicial.
+
+### Datos recopilados
+
+Recopila datos procesables derivados de logs de auditoría, análisis de código, análisis de secretos y métricas de repositorio de GitHub. Estos datos de telemetría permitirán a tus equipos de ingeniería comprender las tendencias de los workflows / procesos (generic) y eventos de seguridad. Esta integración también recopila eventos de repositorios.
+
+- Visualiza y realiza un seguimiento de la actividad de los repositorios, de los eventos de auditoría y de tu estado de alerta general.
+- Configura monitores en repositorios específicos para asegurarte de que tu equipo realiza un seguimiento de todas las nuevas alertas de análisis de código y dirígelas directamente a Slack o Jira para tomar medidas inmediatas.
+- Protege tu organización de GitHub de las amenazas utilizando [Cloud SIEM de Datadog](https://docs.datadoghq.com/continuous_integration/guides/pull_request_comments/) para detectar señales que puedan indicar actividades sospechosas.
+
+Para empezar a ingerir estos datos, sigue las instrucciones de la [pestaña Telemetría](https://docs.datadoghq.com/security/code_security/dev_tool_int/github_pull_requests/) después de instalar la aplicación de GitHub de Datadog.
+
+### Métricas
+
+Esta integración recopila las siguientes métricas:
+
+- Alertas de análisis de código: Recopila métricas relacionadas con los distintos tipos de alertas de análisis de código y realiza un seguimiento de sus tendencias a lo largo del tiempo.
+
+- Alertas de análisis de secretos: Recopila métricas a medida que se detectan alertas de análisis de secretos y monitoriza cómo se resuelven.
+
+Estas métricas proporcionan una información general del estado de las alertas de la organización clasificando su estado, repositorio y tipo de secreto. También proporcionan información a largo plazo sobre las tendencias de las alertas y su progreso general.
### Checks de servicio
La integración de GitHub no incluye checks de servicio.
-## Resolución de problemas
-
-¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][76].
-
-## Leer más
-
-{{< partial name="whats-next/whats-next.html" >}}
-
-[1]: https://docs.datadoghq.com/es/integrations/guide/source-code-integration/
-[2]: https://docs.datadoghq.com/es/serverless/configuration/?tab=serverlessframework#link-errors-to-your-source-code
-[3]: https://docs.datadoghq.com/es/continuous_integration/guides/pull_request_comments/
-[4]: https://docs.datadoghq.com/es/service_catalog/adding_metadata/#store-and-edit-service-definitions-in-github
-[5]: https://app.datadoghq.com/integrations/github/
-[6]: https://docs.datadoghq.com/es/api/latest/ip-ranges/
-[7]: https://app.datadoghq.com/notebook
-[8]: https://docs.github.com/en/enterprise-cloud@latest/admin/monitoring-activity-in-your-enterprise/reviewing-audit-logs-for-your-enterprise/streaming-the-audit-log-for-your-enterprise#setting-up-streaming-to-datadog
-[9]: https://docs.github.com/en/organizations/keeping-your-organization-secure/managing-security-settings-for-your-organization/reviewing-the-audit-log-for-your-organization#audit-log-actions
-[10]: https://app.datadoghq.com/organization-settings/api-keys
-[11]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads
-[12]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#create
-[13]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#commit_comment
-[14]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#issue_comment
-[15]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=created#issue_comment
-[16]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#issue_comment
-[17]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#issue_comment
-[18]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#issues
-[19]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=assigned#issues
-[20]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=closed#issues
-[21]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#issues
-[22]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=demilestoned#issues
-[23]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#issues
-[24]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=labeled#issues
-[25]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=locked#issues
-[26]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=milestoned#issues
-[27]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=opened#issues
-[28]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=pinned#issues
-[29]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=reopened#issues
-[30]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=transferred#issues
-[31]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unassigned#issues
-[32]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unlabeled#issues
-[33]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unlocked#issues
-[34]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unpinned#issues
-[35]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#pull_request_review_comment
-[36]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=created#pull_request_review_comment
-[37]: hhttps://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#pull_request_review_comment
-[38]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#pull_request_review_comment
-[39]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#pull_request
-[40]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=assigned#pull_request
-[41]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unassigned#pull_request
-[42]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=labeled#pull_request
-[43]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unlabeled#pull_request
-[44]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=opened#pull_request
-[45]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#pull_request
-[46]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=closed#pull_request
-[47]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=reopened#pull_request
-[48]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=synchronize#pull_request
-[49]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=converted_to_draft#pull_request
-[50]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=locked#pull_request
-[51]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unlocked#pull_request
-[52]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=enqueued#pull_request
-[53]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=dequeued#pull_request
-[54]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=milestoned#pull_request
-[55]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=demilestoned#pull_request
-[56]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=ready_for_review#pull_request
-[57]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=review_requested#pull_request
-[58]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=review_request_removed#pull_request
-[59]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=auto_merge_enabled#pull_request
-[60]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=auto_merge_disabled#pull_request
-[61]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#push
-[62]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#repository
-[63]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=archived#repository
-[64]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=created#repository
-[65]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#repository
-[66]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#repository
-[67]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=privatized#repository
-[68]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=publicized#repository
-[69]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=renamed#repository
-[70]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=transferred#repository
-[71]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unarchived#repository
-[72]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#security_advisory
-[73]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#team_add
-[74]: https://app.datadoghq.com/event/explorer/
-[75]: https://docs.datadoghq.com/es/events/explorer/
-[76]: https://docs.datadoghq.com/es/help/
+### Eventos
+
+Esta integración utiliza webhooks para recopilar eventos del repositorio, que puedes ver en [Explorer de eventos](https://app.datadoghq.com/event/explorer/).
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog](https://docs.datadoghq.com/help/).
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/es/integrations/github_costs.md b/content/es/integrations/github_costs.md
new file mode 100644
index 0000000000000..a94095ede77fd
--- /dev/null
+++ b/content/es/integrations/github_costs.md
@@ -0,0 +1,121 @@
+---
+app_id: github-costs
+app_uuid: fb5e121a-6cdc-4a2a-b85a-850134c50693
+assets:
+ dashboards:
+ GitHub-Costs-Overview: assets/dashboards/GitHub-Costs-Overview_dashboard.json
+ integration:
+ auto_install: false
+ events:
+ creates_events: false
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 38026450
+ source_type_name: GitHub Costs
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- gestión de costes
+- colaboración
+- herramientas de desarrollo
+- control de fuentes
+custom_kind: integración
+dependencies: []
+display_on_public_website: true
+draft: false
+git_integration_title: github_costs
+integration_id: github-costs
+integration_title: GitHub Costs
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: github_costs
+public_title: GitHub Costs
+short_description: Integra GitHub Costs con Datadog Cloud Cost para optimizar e informar
+ sobre los costes de uso de repositorios y empresas.
+supported_os:
+- linux
+- Windows
+- macOS
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::Windows
+ - Supported OS::macOS
+ - Offering::Integration
+ - Categoría::Gestión de costes
+ - Category::Collaboration
+ - Categoría::Herramientas de desarrollo
+ - Category::Source Control
+ configuration: README.md#Setup
+ description: Integra GitHub Costs con Datadog Cloud Cost para optimizar e informar
+ sobre los costes de uso de repositorios y empresas.
+ media:
+ - caption: Dashboard de GitHub Costs
+ image_url: images/dashboard-redacted.png
+ media_type: imagen
+ - caption: Explorador de GitHub Costs
+ image_url: images/explorer-redacted.png
+ media_type: imagen
+ overview: README.md#Overview
+ support: README.md#Support
+ title: GitHub Costs
+---
+
+
+## Información general
+
+La integración de GitHub Costs de Datadog proporciona una visión completa de los gastos de GitHub, desde Actions a Storage a Copilot, en toda la organización. Con esta integración, puedes ver los costes de GitHub junto con otros costes en [Cloud Cost Management][1], filtrar los datos de costes por repositorio y optimizar el gasto en la nube en toda la empresa.
+
+## Configuración
+
+Para leer la información de facturación de la empresa desde GitHub, Datadog requiere un token de acceso personal (clásico) con los contextos `manage_billing:enterprise` y `repo`, como se indica en la [documentación de GitHub][2]. También es necesario proporcionar el nombre de la empresa, que se puede encontrar en la [página de parámetros de la empresa][3].
+
+
+### Instalación
+
+1. Ve al [cuadro de Github Costs][4] en Datadog.
+2. Haz clic en **Add New** (Añadir nuevo).
+3. Introduce un nombre de cuenta, tu token de acceso personal y el nombre de tu empresa (en formato `enterprise-name`), así como las etiquetas (tags) correspondientes.
+4. Haz clic en el botón de marca de verificación para guardar esta cuenta.
+
+### Validación
+
+Una vez configurada la integración, los datos suelen aparecer en [Cloud Cost Management][1] en "GitHub Costs" del nombre del proveedor en un plazo aproximado de 24 horas. Para ver una lista de los datos recopilados, consulta [Integraciones de costes SaaS][5].
+
+## Datos recopilados
+
+### Cloud Cost Management
+
+La integración de costes de GitHub calcula los costes basándose en precios de lista y datos de uso, e incluye valores de descuento cuando están disponibles. No tiene en cuenta las tarifas negociadas.
+
+### Métricas
+
+GitHub Costs no incluye métricas.
+
+### Recopilación de logs
+
+GitHub Costs no incluye logs.
+
+### Eventos
+
+GitHub Costs no incluye eventos.
+
+### Checks de servicio
+
+GitHub Costs no incluye checks de servicios.
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog][6].
+
+[1]: https://app.datadoghq.com/cost
+[2]: https://docs.github.com/en/enterprise-cloud@latest/rest/enterprise-admin/billing?apiVersion=2022-11-28
+[3]: https://github.com/settings/enterprises
+[4]: https://app.datadoghq.com/integrations/github-costs
+[5]: https://docs.datadoghq.com/es/cloud_cost_management/saas_costs/?tab=githubcosts#data-collected
+[6]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/glusterfs.md b/content/es/integrations/glusterfs.md
index 06c368142493f..60cbae89bb0f8 100644
--- a/content/es/integrations/glusterfs.md
+++ b/content/es/integrations/glusterfs.md
@@ -1,91 +1,34 @@
---
app_id: glusterfs
-app_uuid: 3c3562fb-8dce-4265-a8de-eacaa30974e1
-assets:
- dashboards:
- Red Hat Gluster Storage: assets/dashboards/red_hat_gluster_storage.json
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- metrics:
- check: glusterfs.cluster.nodes.count
- metadata_path: metadata.csv
- prefix: glusterfs.
- process_signatures:
- - glusterd
- - gluster
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10145
- source_type_name: GlusterFS
- monitors:
- Number of offline bricks is high: assets/monitors/brick_status.json
- saved_views:
- glusterfs_processes: assets/saved_views/glusterfs_processes.json
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
- almacenes de datos
- recopilación de logs
custom_kind: integración
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/glusterfs/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: glusterfs
-integration_id: glusterfs
-integration_title: Red Hat Gluster Storage
-integration_version: 3.0.1
-is_public: true
-manifest_version: 2.0.0
-name: glusterfs
-public_title: Red Hat Gluster Storage
-short_description: Monitoriza métricas de estados de nodo, de volumen y de ladrillo
- del clúster GlusterFS.
+description: Monitoriza métricas de estados de nodo, de volumen y de ladrillo del
+ clúster GlusterFS.
+integration_version: 3.0.2
+media: []
supported_os:
- Linux
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Sistema operativo compatible::Linux
- - Categoría::Almacenes de datos
- - Categoría::Recopilación de logs
- - Oferta::Integración
- configuration: README.md#Configuración
- description: Monitoriza métricas de estados de nodo, de volumen y de ladrillo del
- clúster GlusterFS.
- media: []
- overview: README.md#Información general
- support: README.md#Soporte
- title: Red Hat Gluster Storage
+title: Red Hat Gluster Storage
---
-
-
-
-
## Información general
-Este check monitoriza la situación, el volumen y el estado de ladrillos del clúster [Red Hat Gluster Storage][1] a través del Datadog Agent.
-Esta integración GlusterFS es compatible con las versiones de código abierto y vendidas por Red Hat de GlusterFS.
+Este check monitoriza el estado del clúster de [Red Hat Gluster Storage](https://www.redhat.com/en/technologies/storage/gluster), el volumen y el estado de los bloques a través del Datadog Agent.
+Esta integración de GlusterFS es compatible con las versiones de Red Hat de terceros y de código abierto de GlusterFS.
## Configuración
-Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones.
+Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecute en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de estas instrucciones.
### Instalación
-El check de GlusterFS está incluido en el paquete del [Datadog Agent ][3].
+El check de GlusterFS está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest).
No es necesaria ninguna instalación adicional en tu servidor.
### Configuración
-1. Edita el archivo `glusterfs.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent, para empezar a recopilar los datos de rendimiento de tu GlusterFS. Para conocer todas las opciones de configuración disponibles, consulta el [glusterfs.d/conf.yaml de ejemplo][4].
+1. Edita el archivo `glusterfs.d/conf.yaml`, en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent para comenzar a recopilar tus datos de rendimiento de GlusterFS. Consulta el [glusterfs.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/glusterfs/datadog_checks/glusterfs/data/conf.yaml.example de ejemplo) para todas las opciones de configuración disponibles.
```yaml
init_config:
@@ -110,7 +53,7 @@ No es necesaria ninguna instalación adicional en tu servidor.
min_collection_interval: 60
```
- **NOTA**: Por defecto, [`gstatus`][5] llama internamente al comando `gluster` que requiere ser ejecutado como superusuario. Añade una línea como la siguiente a tu archivo `sudoers`:
+ **NOTA**: Por defecto, [`gstatus`](https://github.com/gluster/gstatus#install) llama internamente al comando `gluster` que requiere ser ejecutado como superusuario. Añade una línea como la siguiente a tu archivo `sudoers`:
```text
dd-agent ALL=(ALL) NOPASSWD:/path/to/your/gstatus
@@ -118,66 +61,98 @@ No es necesaria ninguna instalación adicional en tu servidor.
Si tu entorno GlusterFS no requiere raíz, define la opción de configuración `use_sudo` como `false`.
-2. [Reinicia el Agent][6].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
#### Recopilación de logs
+1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`:
-1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala en tu archivo `datadog.yaml`:
-
- ```yaml
- logs_enabled: true
- ```
+ ```yaml
+ logs_enabled: true
+ ```
-2. Edita este bloque de configuración en tu archivo `glusterfs.d/conf.yaml` para empezar a recopilar tus logs de GlusterFS:
+1. Edita este bloque de configuración en tu archivo `glusterfs.d/conf.yaml` para empezar a recopilar tus logs de GlusterFS:
- ```yaml
- logs:
- - type: file
- path: /var/log/glusterfs/glusterd.log
- source: glusterfs
- - type: file
- path: /var/log/glusterfs/cli.log
- source: glusterfs
- ```
+ ```yaml
+ logs:
+ - type: file
+ path: /var/log/glusterfs/glusterd.log
+ source: glusterfs
+ - type: file
+ path: /var/log/glusterfs/cli.log
+ source: glusterfs
+ ```
- Cambia el valor del parámetro `path` en función de tu entorno. Para ver todas las opciones de configuración disponibles, consulta el [conf.yaml de ejemplo][4].
+Cambia el valor del parámetro `path` en función de tu entorno. Consulta el [conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/glusterfs/datadog_checks/glusterfs/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
- 3. [Reinicia el Agent][6].
+3. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
-Para obtener más información sobre cómo configurar el Agent para la recopilación de logs en entornos Kubernetes, consulta [Recopilación de logs de Kubernetes][7].
+Para obtener información sobre la configuración del Agent para la recopilación de logs en entornos de Kubernetes, consulta [Recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/).
### Validación
-[Ejecuta el subcomando de estado del Agent][8] y busca `glusterfs` en la sección **Checks**.
+[Ejecuta el subcomando de estado del Agent(https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `glusterfs` en la sección Checks.
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "glusterfs" >}}
+| | |
+| --- | --- |
+| **glusterfs.brick.block_size**
(gauge) | Tamaño de bloque del bloque
_Se muestra como byte_ |
+| **glusterfs.brick.inodes.free**
(gauge) | Inodos libres en el bloque
_Se muestra como byte_ |
+| **glusterfs.brick.inodes.total**
(gauge) | Total de inodos en el bloque
_Se muestra como byte_ |
+| **glusterfs.brick.inodes.used**
(gauge) | Inode utilizado en el bloque
_Se muestra como byte_ |
+| **glusterfs.brick.online**
(gauge) | Número de bloques en línea
_Se muestra como unidad_ |
+| **glusterfs.brick.size.free**
(gauge) | Tamaño del bloque libre
_Se muestra como byte_ |
+| **glusterfs.brick.size.total**
(gauge) | Tamaño total del bloque
_Se muestra como byte_ |
+| **glusterfs.brick.size.used**
(gauge) | Bytes actuales utilizados en el bloque
_Se muestra como byte_ |
+| **glusterfs.cluster.nodes.active**
(gauge) | Nodos activos actuales
_Se muestra como nodo_ |
+| **glusterfs.cluster.nodes.count**
(gauge) | Número total de nodos en el clúster
_Se muestra como nodo_ |
+| **glusterfs.cluster.volumes.count**
(gauge) | Número de volúmenes en el clúster
_Se muestra como unidad_ |
+| **glusterfs.cluster.volumes.started**
(gauge) | Número de volúmenes iniciados en el clúster
_Se muestra como unidad_ |
+| **glusterfs.subvol.disperse**
(gauge) | Recuento disperso del subvolumen
_Se muestra como unidad_ |
+| **glusterfs.subvol.disperse_redundancy**
(gauge) | Redundancia dispersa del subvolumen
_Se muestra como unidad_ |
+| **glusterfs.subvol.replica**
(gauge) | Réplicas en subvolumen
_Se muestra como unidad_ |
+| **glusterfs.volume.bricks.count**
(gauge) | Número de bloques en el volumen
_Se muestra como unidad_ |
+| **glusterfs.volume.disperse**
(gauge) | Número de dispersos en el volumen
_Se muestra como unidad_ |
+| **glusterfs.volume.disperse_redundancy**
(gauge) | Número de redundancia dispersa en el volumen
_Se muestra como unidad_ |
+| **glusterfs.volume.distribute**
(gauge) | Número de distribuidos
_Se muestra como unidad_ |
+| **glusterfs.volume.inodes.free**
(gauge) | Inodos libres en el volumen
_Se muestra como byte_ |
+| **glusterfs.volume.inodes.total**
(gauge) | Tamaño total de inodos en el volumen
_Se muestra como byte_ |
+| **glusterfs.volume.inodes.used**
(gauge) | Bytes usados de inodos en el volumen
_Se muestra como byte_ |
+| **glusterfs.volume.online**
(gauge) | Número de volúmenes en línea
_Se muestra como unidad_ |
+| **glusterfs.volume.replica**
(gauge) | Réplicas en volúmenes
_Se muestra como unidad_ |
+| **glusterfs.volume.size.free**
(gauge) | Bytes libres en el volumen
_Se muestra como byte_ |
+| **glusterfs.volume.size.total**
(gauge) | Bytes totales en el volumen
_Se muestra como byte_ |
+| **glusterfs.volume.size.used**
(gauge) | Bytes utilizados en el volumen
_Se muestra como byte_ |
+| **glusterfs.volume.snapshot.count**
(gauge) | Número de snapshots del volumen
_Se muestra como byte_ |
+| **glusterfs.volume.used.percent**
(gauge) | Porcentaje de volumen utilizado
_Se muestra en porcentaje_ |
### Eventos
GlusterFS no incluye eventos.
### Checks de servicio
-{{< get-service-checks-from-git "glusterfs" >}}
+**glusterfs.brick.health**
-## Solucionar problemas
+Devuelve `CRITICAL` si el subvolumen es 'degraded'. Devuelve `OK` si es 'up'.
+
+_Estados: ok, critical, warning_
+
+**glusterfs.volume.health**
+
+Devuelve `CRITICAL` si el volumen es 'degraded'. Devuelve `OK` si es 'up'.
-¿Necesitas ayuda? Contacta con el [equipo de asistencia de Datadog][11].
+_Estados: ok, critical, warning_
+**glusterfs.cluster.health**
+
+Devuelve `CRITICAL` si el volumen es 'degraded'. Devuelve `OK` en caso contrario.
+
+_Estados: ok, critical, warning_
+
+## Solucionar problemas
-[1]: https://www.redhat.com/en/technologies/storage/gluster
-[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/
-[3]: https://app.datadoghq.com/account/settings/agent/latest
-[4]: https://github.com/DataDog/integrations-core/blob/master/glusterfs/datadog_checks/glusterfs/data/conf.yaml.example
-[5]: https://github.com/gluster/gstatus#install
-[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
-[7]: https://docs.datadoghq.com/es/agent/kubernetes/log/
-[8]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
-[9]: https://github.com/DataDog/integrations-core/blob/master/glusterfs/metadata.csv
-[10]: https://github.com/DataDog/integrations-core/blob/master/glusterfs/assets/service_checks.json
-[11]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/).
\ No newline at end of file
diff --git a/content/es/integrations/google_cloud_bigquery.md b/content/es/integrations/google_cloud_bigquery.md
new file mode 100644
index 0000000000000..6a6ae8ef885ce
--- /dev/null
+++ b/content/es/integrations/google_cloud_bigquery.md
@@ -0,0 +1,122 @@
+---
+app_id: google-cloud-bigquery
+app_uuid: 7b7d322f-c14a-4378-994c-ed9982c94864
+assets:
+ dashboards:
+ bigquery: assets/dashboards/bigquery.json
+ integration:
+ auto_install: true
+ events:
+ creates_events: false
+ metrics:
+ check: gcp.bigquery.query.count
+ metadata_path: metadata.csv
+ prefix: gcp.bigquery.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 188
+ source_type_name: Google BigQuery
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- nube
+- google cloud
+- almacenes de datos
+- recopilación de logs
+custom_kind: integración
+dependencies: []
+display_on_public_website: true
+draft: false
+git_integration_title: google_cloud_bigquery
+integration_id: google-cloud-bigquery
+integration_title: Google BigQuery
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: google_cloud_bigquery
+public_title: Google BigQuery
+short_description: BigQuery es el almacén de datos empresariales de bajo coste, de
+ nivel de petabyte y totalmente gestionado de Google para los análisis.
+supported_os: []
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Categoría::Nube
+ - Categoría::Google Cloud
+ - Categoría::Almacenes de datos
+ - Category::Log Collection
+ - Offering::Integration
+ configuration: README.md#Setup
+ description: BigQuery es el almacén de datos empresariales de bajo coste, de nivel
+ de petabyte y totalmente gestionado de Google para los análisis.
+ media: []
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Google BigQuery
+---
+
+
+
+{{< callout url="https://www.datadoghq.com/product-preview/bigquery-monitoring/" header="Únete a la vista previa" >}}
+ La monitorización ampliada de BigQuery está en vista previa. Utiliza este formulario para inscribirte y empezar a obtener información sobre el rendimiento de tus consultas.
+{{< /callout >}}
+
+
+## Información general
+
+La integración de Datadog con Google BigQuery proporciona una monitorización de tus cargas de trabajo de análisis de datos.
+
+Al conectar BigQuery con Datadog (mediante la integración con Google Cloud Platform), obtendrás información en tiempo real sobre el rendimiento de las consultas, el consumo de recursos y los generadores de costes.
+
+Esta integración te permite realizar un seguimiento de métricas críticas, como los tiempos de finalización de trabajos, el uso de ranuras y los bytes procesados, lo que te permite identificar latencias elevadas durante la ejecución de trabajos de BigQuery.
+
+## Configuración
+
+### Instalación
+
+Si aún no lo has hecho, configura la [integración Google Cloud Platform][1]. No es necesario realizar ningún otro paso de instalación.
+
+### Monitorización ampliada de BigQuery
+
+La monitorización ampliada de BigQuery proporciona una visibilidad granular de tus entornos BigQuery.
+
+Consulta la [documentación de la integración Google Cloud][2] para obtener instrucciones de configuración detalladas.
+
+### Recopilación de logs
+
+Los logs de Google BigQuery se recopilan con Google Cloud Logging y se envían a una tarea de Dataflow a través de un tema Cloud Pub/Sub. Si aún no lo has hecho, [configura la generación de logs con la plantilla Dataflow de Datadog][3].
+
+Una vez hecho esto, exporta tus logs de Google BigQuery desde Google Cloud Logging al tema Pub/Sub:
+
+1. Ve a la [página de Google Cloud Logging][4] y filtra los logs de Google BigQuery.
+2. Haz clic en **Create Export** (Crear exportación) y asigna un nombre al sumidero.
+3. Elige "Cloud Pub/Sub" como destino y selecciona el tema Pub/Sub creado para tal fin. **Nota**: El tema Pub/Sub puede encontrarse en un proyecto diferente.
+4. Haz clic en **Create** (Crear) y espera a que aparezca el mensaje de confirmación.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "google_cloud_bigquery" >}}
+
+
+### Eventos
+
+La integración Google BigQuery no incluye eventos.
+
+### Checks de servicio
+
+La integración Google BigQuery no incluye checks de servicios.
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog][6].
+
+[1]: https://docs.datadoghq.com/es/integrations/google_cloud_platform/
+[2]: https://docs.datadoghq.com/es/integrations/google_cloud_platform/#expanded-bigquery-monitoring
+[3]: https://docs.datadoghq.com/es/integrations/google_cloud_platform/#log-collection
+[4]: https://console.cloud.google.com/logs/viewer
+[5]: https://github.com/DataDog/dogweb/blob/prod/integration/google_cloud_big_query/google_cloud_big_query_metadata.csv
+[6]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/hivemq.md b/content/es/integrations/hivemq.md
index 2b52bbf567b4b..8a473ed85244a 100644
--- a/content/es/integrations/hivemq.md
+++ b/content/es/integrations/hivemq.md
@@ -1,92 +1,42 @@
---
app_id: hivemq
-app_uuid: ba1769d1-c71b-4cf1-8169-8ce3b66629dd
-assets:
- dashboards:
- HiveMQ: assets/dashboards/hivemq.json
- integration:
- auto_install: true
- configuration:
- spec: assets/configuration/spec.yaml
- events:
- creates_events: false
- metrics:
- check: hivemq.messages.queued.count
- metadata_path: metadata.csv
- prefix: hivemq.
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10101
- source_type_name: HiveMQ
-author:
- homepage: https://www.datadoghq.com
- name: Datadog
- sales_email: info@datadoghq.com
- support_email: help@datadoghq.com
categories:
- iot (internet de las cosas)
- recopilación de logs
- colas de mensajes
custom_kind: integración
-dependencies:
-- https://github.com/DataDog/integrations-core/blob/master/hivemq/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: hivemq
-integration_id: hivemq
-integration_title: HiveMQ
+description: Monitoriza tus clústeres HiveMQ.
+further_reading:
+- link: https://www.datadoghq.com/blog/hivemq-opentelemetry-monitor-iot-applications/
+ tag: blog
+ text: Uso de HiveMQ y OpenTelemetry para monitorizar aplicaciones IoT en Datadog
integration_version: 2.1.0
-is_public: true
-manifest_version: 2.0.0
-name: hivemq
-public_title: HiveMQ
-short_description: Monitoriza tus clústeres HiveMQ.
+media: []
supported_os:
- Linux
- Windows
- macOS
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Categoría::IoT
- - Categoría::Recopilación de logs
- - Categoría::Colas de mensajes
- - Sistema operativo compatible::Linux
- - Sistema operativo compatible::Windows
- - Sistema operativo compatible::macOS
- - Oferta::Integración
- configuration: README.md#Configuración
- description: Monitoriza tus clústeres HiveMQ.
- media: []
- overview: README.md#Información general
- resources:
- - resource_type: Blog
- url: https://www.datadoghq.com/blog/hivemq-opentelemetry-monitor-iot-applications/
- support: README.md#Soporte
- title: HiveMQ
+title: HiveMQ
---
-
-
-
-
## Información general
-[HiveMQ][1] es una plataforma de mensajería basada en MQTT, diseñada para el movimiento rápido, eficiente y fiable
-de datos hacia y desde dispositivos IoT conectados. Es un broker compatible con MQTT v3.1, v3.1.1 y v5.0.
+[HiveMQ](https://www.hivemq.com/hivemq/) es una plataforma de mensajería basada en MQTT diseñada para el movimiento rápido, eficiente y fiable
+de datos hacia y desde dispositivos IoT conectados. Es un broker compatible con MQTT 3.1, 3.1.1 y 5.0.
## Configuración
### Instalación
-El check de HiveMQ está incluido en el paquete del [Datadog Agent][2].
+El check de HiveMQ se incluye en el paquete de [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest).
No es necesaria ninguna instalación adicional en tu servidor.
### Configuración
{{< tabs >}}
+
{{% tab "Host" %}}
-#### Host
+#### host
Para configurar este check para un Agent que se ejecuta en un host:
@@ -94,24 +44,24 @@ Para configurar este check para un Agent que se ejecuta en un host:
1. Edita el archivo `hivemq.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del
directorio de configuración del Agent para empezar a recopilar tus datos de rendimiento de HiveMQ.
- Para conocer todas las opciones de configuración disponibles, consulta el [hivemq.d/conf.yaml de ejemplo][1].
+ Consulta el [hivemq.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/hivemq/datadog_checks/hivemq/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles.
- Este check tiene un límite de 350 métricas por instancia. El número de métricas devueltas se indica en [la página de estado][2].
+ Este check tiene un límite de 350 métricas por instancia. El número de métricas devueltas se indica en [la página](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information).
Puedes especificar las métricas que te interesan editando la configuración a continuación.
- Para saber cómo personalizar las métricas que se van a recopilar,, consulta la [documentación de checks de JMX][3] para obtener instrucciones más detalladas.
- Si necesitas monitorizar más métricas, ponte en contacto con el [servicio de asistencia de Datadog][4].
+ Para saber cómo personalizar las métricas a recopilar, consulta la [documentación de checks de JMX](https://docs.datadoghq.com/integrations/java) para obtener instrucciones más detalladas.
+ Si necesitas monitorizar más métricas, ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help).
-2. [Reinicia el Agent][5].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent)
##### Recopilación de logs
-1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala en tu archivo `datadog.yaml`:
+1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`:
```yaml
logs_enabled: true
```
-2. Añade el siguiente bloque de configuración a tu archivo `hivemq.d/conf.yaml`. Cambia los valores de los parámetros `path` y `service` en función de tu entorno. Consulta el [hivemq.d/conf.yaml de ejemplo][1] para conocer todas las opciones de configuración disponibles.
+1. Añade el siguiente bloque de configuración a tu archivo `hivemq.d/conf.yaml`. Cambia los valores de los parámetros `path` y `service` en función de tu entorno. Consulta el [hivemq.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/hivemq/datadog_checks/hivemq/data/conf.yaml.example) para ver todas las opciones de configuración disponibles.
```yaml
logs:
@@ -125,25 +75,21 @@ Para configurar este check para un Agent que se ejecuta en un host:
pattern: \d{4}\.\d{2}\.\d{2}
```
-3. [Reinicia el Agent][5].
+1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent).
-[1]: https://github.com/DataDog/integrations-core/blob/master/hivemq/datadog_checks/hivemq/data/conf.yaml.example
-[2]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
-[3]: https://docs.datadoghq.com/es/integrations/java
-[4]: https://docs.datadoghq.com/es/help
-[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
{{% /tab %}}
-{{% tab "Contenedorizado" %}}
+
+{{% tab "Containerized" %}}
#### En contenedores
##### Recopilación de métricas
-Para obtener información sobre entornos en contenedores, consulta la guía [Autodiscovery con JMX][1].
+Para entornos en contenedores, consulta la guía [Autodiscovery with JMX](https://docs.datadoghq.com/agent/guide/autodiscovery-with-jmx/?tab=containerizedagent).
##### Recopilación de logs
-La recopilación de Logs se encuentra deshabilitada por defecto en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de Docker][2].
+La recopilación de logs está desactivada por defecto en Datadog Agent. Para activarla, consultz [recopilación de logs de Docker](https://docs.datadoghq.com/agent/docker/log/).
| Parámetro | Valor |
| -------------- | -------------------------------------------------- |
@@ -151,7 +97,7 @@ La recopilación de Logs se encuentra deshabilitada por defecto en el Datadog Ag
### Validación
-[Ejecuta el subcomando de estado del Agent][3] y busca `hivemq` en la sección **JMXFetch**:
+[Ejecuta el subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `hivemq` en la sección **JMXFetch**:
```text
========
@@ -167,34 +113,284 @@ JMXFetch
status : OK
```
-[1]: https://docs.datadoghq.com/es/agent/guide/autodiscovery-with-jmx/?tab=containerizedagent
-[2]: https://docs.datadoghq.com/es/agent/docker/log/
-[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
{{% /tab %}}
+
{{< /tabs >}}
## Datos recopilados
### Métricas
-{{< get-metrics-from-git "hivemq" >}}
+| | |
+| --- | --- |
+| **hivemq.cache.payload_persistence.average_load_penalty**
(gauge) | Estadística de caché que captura la penalización de carga media de la caché de persistencia de carga útil.|
+| **hivemq.cache.payload_persistence.eviction_count**
(gauge) | Estadística de caché que captura el recuento de desalojos de la caché de persistencia de carga útil|
+| **hivemq.cache.payload_persistence.hit_count**
(gauge) | Estadística de caché que captura el recuento de aciertos de la caché de persistencia de carga útil
_Se muestra como acierto_ |
+| **hivemq.cache.payload_persistence.hit_rate**
(gauge) | Estadística de caché que captura la tasa de aciertos de la caché de persistencia de carga útil.|
+| **hivemq.cache.payload_persistence.load_count**
(gauge) | Estadística de caché que captura el recuento de carga de la caché de persistencia de carga útil.|
+| **hivemq.cache.payload_persistence.load_exception_count**
(gauge) | Estadística de caché que captura el recuento de excepciones de carga de la caché de persistencia de carga útil.|
+| **hivemq.cache.payload_persistence.load_exception_rate**
(gauge) | Estadística de caché que captura la tasa de excepciones de carga de la caché de persistencia de carga útil.|
+| **hivemq.cache.payload_persistence.load_success_count**
(gauge) | Estadística de caché que captura el recuento de éxitos de carga de la caché de persistencia de carga útil.|
+| **hivemq.cache.payload_persistence.miss_count**
(gauge) | Estadística de caché que captura el recuento de fallos de la caché de persistencia de carga útil|
+| **hivemq.cache.payload_persistence.miss_rate**
(gauge) | Estadística de caché que captura la tasa de fallos de la caché de persistencia de carga útil.|
+| **hivemq.cache.payload_persistence.request_count**
(gauge) | Estadística de caché que captura el recuento de solicitud de la caché de persistencia de carga útil.|
+| **hivemq.cache.payload_persistence.total_load_time**
(gauge) | Estadística de caché que captura el tiempo de carga total de la caché de persistencia de carga útil.|
+| **hivemq.cache.shared_subscription.average_load_penalty**
(gauge) | Estadística de caché que captura la penalización de carga media de la caché de suscripción compartida|
+| **hivemq.cache.shared_subscription.eviction_count**
(gauge) | Estadística de caché que captura el recuento de desalojos de la caché de suscripción compartida|
+| **hivemq.cache.shared_subscription.hit_count**
(gauge) | Estadística de caché que captura el recuento de aciertos de la caché de suscripción compartida|
+| **hivemq.cache.shared_subscription.hit_rate**
(gauge) | Estadística de caché que captura la tasa de aciertos de la caché de suscripción compartida|
+| **hivemq.cache.shared_subscription.load_count**
(gauge) | Estadística de caché que captura el recuento de carga de la caché de suscripción compartida|
+| **hivemq.cache.shared_subscription.load_exception_count**
(gauge) | Estadística de caché que captura el recuento de excepciones de carga de la caché de suscripción compartida|
+| **hivemq.cache.shared_subscription.load_exception_rate**
(gauge) | Estadística de caché que captura la tasa de excepciones de carga de la caché de suscripción compartida|
+| **hivemq.cache.shared_subscription.load_success_count**
(gauge) | Estadística de caché que captura el recuento de éxitos de carga de la caché de suscripción compartida|
+| **hivemq.cache.shared_subscription.miss_count**
(gauge) | Estadística de caché que captura el recuento de fallos de la caché de suscripción compartida|
+| **hivemq.cache.shared_subscription.miss_rate**
(gauge) | Estadística de caché que captura la tasa de fallos de la caché de suscripción compartida|
+| **hivemq.cache.shared_subscription.request_count**
(gauge) | Estadística de caché que captura el recuento de solicitudes de la caché de suscripción compartida|
+| **hivemq.cache.shared_subscription.total_load_time**
(gauge) | Estadística de caché que captura el tiempo de carga total de la caché de suscripción compartida|
+| **hivemq.cluster.name_request.retry.count**
(count) | Cuenta el número de reintentos hasta que se resuelve el nombre de un nodo a través de su dirección.|
+| **hivemq.cpu_cores.licensed**
(gauge) | Contiene la cantidad máxima de núcleos de cpu permitidos por la licencia|
+| **hivemq.cpu_cores.used**
(gauge) | Mantiene la cantidad actual de núcleos de cpu utilizados|
+| **hivemq.extension.managed_executor.running**
(count) | Mide el recuento actual de trabajos en ejecución en el ManagedExtensionExecutor|
+| **hivemq.extension.managed_executor.scheduled.overrun**
(count) | Mide el recuento actual de trabajos en el ManagedExtensionExecutor excedidos|
+| **hivemq.extension.managed_executor.scheduled.percent_of_period.50th_percentile**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService|
+| **hivemq.extension.managed_executor.scheduled.percent_of_period.75th_percentile**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService|
+| **hivemq.extension.managed_executor.scheduled.percent_of_period.95th_percentile**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService|
+| **hivemq.extension.managed_executor.scheduled.percent_of_period.98th_percentile**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService|
+| **hivemq.extension.managed_executor.scheduled.percent_of_period.999th_percentile**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService|
+| **hivemq.extension.managed_executor.scheduled.percent_of_period.99th_percentile**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService|
+| **hivemq.extension.managed_executor.scheduled.percent_of_period.count**
(count) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService|
+| **hivemq.extension.managed_executor.scheduled.percent_of_period.max**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService|
+| **hivemq.extension.managed_executor.scheduled.percent_of_period.mean**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService|
+| **hivemq.extension.managed_executor.scheduled.percent_of_period.min**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService|
+| **hivemq.extension.managed_executor.scheduled.percent_of_period.snapshot_size**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService|
+| **hivemq.extension.managed_executor.scheduled.percent_of_period.std_dev**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService|
+| **hivemq.extension.services.publish_service_publishes**
(count) | Cuenta la cantidad de mensajes de publicación enviados por el servicio de publicación.|
+| **hivemq.extension.services.publish_service_publishes_to_client**
(count) | Cuenta la cantidad de mensajes de publicación enviados por el servicio de publicación a un cliente específico.|
+| **hivemq.extension.services.rate_limit_exceeded.count**
(count) | Cuenta la cantidad de veces que se ha superado el límite de la tasa de servicio de extensión.|
+| **hivemq.keep_alive.disconnect.count**
(count) | Cuenta cada conexión cerrada porque el cliente no envió el mensaje PINGREQ durante el intervalo keep-alive.|
+| **hivemq.messages.dropped.count**
(count) | Cuenta todos los mensajes perdidos.|
+| **hivemq.messages.dropped.internal_error.count**
(count) | Cuenta los mensajes PUBLISH que han sido descartados, debido a un error interno.|
+| **hivemq.messages.dropped.message_too_large.count**
(count) | Cuenta los mensajes PUBLISH que se han descartado porque el tamaño del mensaje era demasiado grande para el cliente.|
+| **hivemq.messages.dropped.mqtt_packet_too_large.count**
(count) | Cuenta los mensajes MQTT (excepto PUBLISH) que han sido descartados, porque el tamaño del mensaje era demasiado grande para el cliente.|
+| **hivemq.messages.dropped.not_writable.count**
(count) | Cuenta los mensajes PUBLISH que han sido descartados, porque el socket para el cliente no era escribible (solo QoS 0).|
+| **hivemq.messages.dropped.publish_inbound_intercepted.count**
(count) | Cuenta los mensajes PUBLISH que se han descartado porque un interceptor de entrada de publicación ha impedido la entrega posterior.|
+| **hivemq.messages.dropped.qos_0_memory_exceeded.count**
(count) | Cuenta los mensajes PUBLISH que han sido descartados, porque se ha excedido el límite de memoria global para mensajes QoS 0.|
+| **hivemq.messages.dropped.queue_full.count**
(count) | Cuenta los mensajes PUBLISH que se han descartado porque la cola de mensajes de un cliente de sesión persistente desconectado estaba llena.|
+| **hivemq.messages.expired_messages**
(count) | Cuenta todos los mensajes caducados|
+| **hivemq.messages.incoming.auth.count**
(count) | Cuenta cada mensaje MQTT AUTH entrante|
+| **hivemq.messages.incoming.connect.count**
(count) | Cuenta cada mensaje MQTT CONNECT entrante|
+| **hivemq.messages.incoming.connect.mqtt3.count**
(count) | Cuenta cada mensaje MQTT 3 CONNECT entrante|
+| **hivemq.messages.incoming.connect.mqtt5.count**
(count) | Cuenta cada mensaje MQTT 5 CONNECT entrante|
+| **hivemq.messages.incoming.disconnect.count**
(count) | Cuenta cada mensaje MQTT DISCONNECT entrante|
+| **hivemq.messages.incoming.pingreq.count**
(count) | Cuenta cada mensaje MQTT PINGREQ entrante|
+| **hivemq.messages.incoming.puback.count**
(count) | Cuenta cada mensaje MQTT PUBACK entrante|
+| **hivemq.messages.incoming.pubcomp.count**
(count) | Cuenta cada mensaje MQTT PUBCOMP entrante|
+| **hivemq.messages.incoming.publish.bytes.50th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.publish.bytes.75th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.publish.bytes.95th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.publish.bytes.98th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.publish.bytes.999th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.publish.bytes.99th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.publish.bytes.count**
(count) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.publish.bytes.max**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.publish.bytes.mean**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.publish.bytes.min**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.publish.bytes.snapshot_size**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.publish.bytes.std_dev**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.publish.count**
(count) | Cuenta cada mensaje MQTT PUBLISH entrante|
+| **hivemq.messages.incoming.pubrec.count**
(count) | Cuenta cada mensaje MQTT PUBREC entrante|
+| **hivemq.messages.incoming.pubrel.count**
(count) | Cuenta cada mensaje MQTT PUBREL entrante|
+| **hivemq.messages.incoming.subscribe.count**
(count) | Cuenta cada mensaje MQTT SUBSCRIBE entrante|
+| **hivemq.messages.incoming.total.bytes.50th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.total.bytes.75th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.total.bytes.95th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.total.bytes.98th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.total.bytes.999th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.total.bytes.99th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.total.bytes.count**
(count) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.total.bytes.max**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.total.bytes.mean**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.total.bytes.min**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.total.bytes.snapshot_size**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.total.bytes.std_dev**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.incoming.total.count**
(count) | Cuenta cada mensaje MQTT entrante|
+| **hivemq.messages.incoming.unsubscribe.count**
(count) | Cuenta cada mensaje MQTT UNSUBSCRIBE entrante|
+| **hivemq.messages.outgoing.auth.count**
(count) | Cuenta cada mensaje MQTT AUTH saliente|
+| **hivemq.messages.outgoing.connack.count**
(count) | Cuenta cada mensaje MQTT CONNACK saliente|
+| **hivemq.messages.outgoing.disconnect.count**
(count) | Cuenta cada mensaje MQTT DISCONNECT saliente|
+| **hivemq.messages.outgoing.pingresp.count**
(count) | Cuenta cada mensaje MQTT PINGRESP saliente|
+| **hivemq.messages.outgoing.puback.count**
(count) | Cuenta cada mensaje MQTT PUBACK saliente|
+| **hivemq.messages.outgoing.pubcomp.count**
(count) | Cuenta cada mensaje MQTT PUBCOMP saliente|
+| **hivemq.messages.outgoing.publish.bytes.50th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.publish.bytes.75th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.publish.bytes.95th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.publish.bytes.98th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.publish.bytes.999th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.publish.bytes.99th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.publish.bytes.count**
(count) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.publish.bytes.max**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.publish.bytes.mean**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.publish.bytes.min**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.publish.bytes.snapshot_size**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.publish.bytes.std_dev**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.publish.count**
(count) | Cuenta cada mensaje MQTT PUBLISH saliente|
+| **hivemq.messages.outgoing.pubrec.count**
(count) | Cuenta cada mensaje MQTT PUBREC saliente|
+| **hivemq.messages.outgoing.pubrel.count**
(count) | Cuenta cada mensaje MQTT PUBREL saliente|
+| **hivemq.messages.outgoing.suback.count**
(count) | Cuenta cada mensaje MQTT SUBACK saliente|
+| **hivemq.messages.outgoing.total.bytes.50th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.total.bytes.75th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.total.bytes.95th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.total.bytes.98th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.total.bytes.999th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.total.bytes.99th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.total.bytes.count**
(count) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.total.bytes.max**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.total.bytes.mean**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.total.bytes.min**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.total.bytes.snapshot_size**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.total.bytes.std_dev**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).|
+| **hivemq.messages.outgoing.total.count**
(count) | Cuenta cada mensaje MQTT saliente|
+| **hivemq.messages.outgoing.unsuback.count**
(count) | Cuenta cada mensaje MQTT UNSUBACK saliente|
+| **hivemq.messages.pending.qos_0.count**
(gauge) | El número actual de mensajes qos 0 pendientes|
+| **hivemq.messages.pending.total.count**
(gauge) | El número actual del total de mensajes pendientes|
+| **hivemq.messages.queued.count**
(gauge) | Número actual de mensajes en cola|
+| **hivemq.messages.retained.current**
(gauge) | La cantidad actual de mensajes retenidos|
+| **hivemq.messages.retained.mean.50th_percentile**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.|
+| **hivemq.messages.retained.mean.75th_percentile**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.|
+| **hivemq.messages.retained.mean.95th_percentile**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.|
+| **hivemq.messages.retained.mean.98th_percentile**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.|
+| **hivemq.messages.retained.mean.999th_percentile**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.|
+| **hivemq.messages.retained.mean.99th_percentile**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.|
+| **hivemq.messages.retained.mean.count**
(count) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.|
+| **hivemq.messages.retained.mean.max**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.|
+| **hivemq.messages.retained.mean.mean**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.|
+| **hivemq.messages.retained.mean.min**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.|
+| **hivemq.messages.retained.mean.snapshot_size**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.|
+| **hivemq.messages.retained.mean.std_dev**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.|
+| **hivemq.messages.retained.pending.total.count**
(gauge) | El número actual del total de mensajes retenidos pendientes|
+| **hivemq.messages.retained.queued.count**
(gauge) | El número actual de mensajes retenidos en cola|
+| **hivemq.networking.bytes.read.current**
(gauge) | La cantidad actual (últimos 5 segundos) de bytes leídos|
+| **hivemq.networking.bytes.read.total**
(gauge) | La cantidad total de bytes leídos|
+| **hivemq.networking.bytes.write.current**
(gauge) | La cantidad actual (últimos 5 segundos) de bytes escritos|
+| **hivemq.networking.bytes.write.total**
(gauge) | Cantidad total de bytes escritos|
+| **hivemq.networking.connections.current**
(gauge) | Número total actual de conexiones MQTT activas|
+| **hivemq.networking.connections.mean.50th_percentile**
(gauge) | Número total medio de conexiones MQTT activas|
+| **hivemq.networking.connections.mean.75th_percentile**
(gauge) | Número total medio de conexiones MQTT activas|
+| **hivemq.networking.connections.mean.95th_percentile**
(gauge) | Número total medio de conexiones MQTT activas|
+| **hivemq.networking.connections.mean.98th_percentile**
(gauge) | Número total medio de conexiones MQTT activas|
+| **hivemq.networking.connections.mean.999th_percentile**
(gauge) | Número total medio de conexiones MQTT activas|
+| **hivemq.networking.connections.mean.99th_percentile**
(gauge) | Número total medio de conexiones MQTT activas|
+| **hivemq.networking.connections.mean.count**
(count) | Número total medio de conexiones MQTT activas|
+| **hivemq.networking.connections.mean.max**
(gauge) | Número total medio de conexiones MQTT activas|
+| **hivemq.networking.connections.mean.mean**
(gauge) | Número total medio de conexiones MQTT activas|
+| **hivemq.networking.connections.mean.min**
(gauge) | Número total medio de conexiones MQTT activas|
+| **hivemq.networking.connections.mean.snapshot_size**
(gauge) | Número total medio de conexiones MQTT activas|
+| **hivemq.networking.connections.mean.std_dev**
(gauge) | Número total medio de conexiones MQTT activas|
+| **hivemq.networking.connections_closed.graceful.count**
(count) | Cuenta los clientes que se desconectaron después de enviar un mensaje DISCONNECT|
+| **hivemq.networking.connections_closed.total.count**
(count) | Cuenta todos los clientes que se desconectaron de HiveMQ (= apagado ordenado + apagado forzado)|
+| **hivemq.networking.connections_closed.ungraceful.count**
(count) | Cuenta los clientes que se desconectaron sin enviar un mensaje DISCONNECT|
+| **hivemq.overload_protection.clients.average_credits**
(gauge) | Mantiene la cantidad media de créditos disponibles entre todos los clientes|
+| **hivemq.overload_protection.clients.backpressure_active**
(gauge) | Contiene la cantidad actual de clientes a los que se aplica contrapresión mediante la protección contra sobrecarga.|
+| **hivemq.overload_protection.clients.using_credits**
(gauge) | Mantiene la cantidad actual de clientes que tienen menos de la cantidad total de créditos|
+| **hivemq.overload_protection.credits.per_tick**
(gauge) | Mantiene la cantidad actual de créditos que recibe un cliente por tick|
+| **hivemq.overload_protection.level**
(gauge) | Mantiene el nivel actual de protección contra sobrecargas|
+| **hivemq.payload_persistence.cleanup_executor.running**
(count) | Cuenta las tareas que se están ejecutando actualmente en el programador a cargo de la limpieza de la carga útil de persistencia|
+| **hivemq.payload_persistence.cleanup_executor.scheduled.overrun**
(count) | Cuenta las tareas periódicas que se ejecutaron más tiempo del permitido en el programador encargado de la limpieza de la carga útil de persistencia.|
+| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.50th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.|
+| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.75th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.|
+| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.95th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.|
+| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.98th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.|
+| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.999th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.|
+| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.99th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.|
+| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.count**
(count) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.|
+| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.max**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.|
+| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.mean**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.|
+| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.min**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.|
+| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.snapshot_size**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.|
+| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.std_dev**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.|
+| **hivemq.persistence.executor.client_session.tasks**
(gauge) | Cantidad actual de tareas de E/S de disco que están en cola por la persistencia de la sesión de cliente.|
+| **hivemq.persistence.executor.noempty_queues**
(gauge) | Cantidad actual de colas de tareas de escritor único que no están vacías|
+| **hivemq.persistence.executor.outgoing_message_flow.tasks**
(gauge) | Cantidad actual de tareas de E/S de disco que están en cola por la persistencia del flujo de mensajes salientes.|
+| **hivemq.persistence.executor.queue_misses**
(count) | Recuento actual de bucles que todos los subprocesos de escritor único han realizado sin ejecutar una tarea.|
+| **hivemq.persistence.executor.queued_messages.tasks**
(gauge) | Cantidad actual de tareas de E/S de disco que están en cola por la persistencia de mensajes en cola.|
+| **hivemq.persistence.executor.request_event_bus.tasks**
(gauge) | Cantidad actual de tareas en cola por el bus de eventos de solicitud|
+| **hivemq.persistence.executor.retained_messages.tasks**
(gauge) | Cantidad actual de tareas de E/S de disco que están en cola por la persistencia de mensajes retenidos.|
+| **hivemq.persistence.executor.running.threads**
(gauge) | Cantidad actual de subprocesos que están ejecutando tareas de E/S de disco|
+| **hivemq.persistence.executor.subscription.tasks**
(gauge) | Cantidad actual de tareas de E/S de disco en cola por la persistencia de suscripción|
+| **hivemq.persistence.executor.total.tasks**
(gauge) | Cantidad actual de tareas de E/S de disco en cola por todos los ejecutores de persistencia|
+| **hivemq.persistence.payload_entries.count**
(gauge) | Contiene la cantidad actual de cargas útiles almacenadas en la persistencia de cargas útiles|
+| **hivemq.persistence.removable_entries.count**
(gauge) | Contiene la cantidad actual de cargas útiles almacenadas en la persistencia de cargas útiles, que pueden eliminarse mediante la limpieza.|
+| **hivemq.persistence_executor.running**
(count) | Cuenta las tareas que se están ejecutando actualmente en el ejecutor de persistencia|
+| **hivemq.persistence_scheduled_executor.running**
(count) | Cuenta las tareas que se están ejecutando actualmente en el programador responsable de la persistencia|
+| **hivemq.persistence_scheduled_executor.scheduled.overrun**
(count) | Cuenta las tareas periódicas que se han ejecutado más tiempo del permitido en el programador responsable de la persistencia.|
+| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.50th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia|
+| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.75th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia|
+| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.95th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia|
+| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.98th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia|
+| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.999th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia|
+| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.99th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia|
+| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.count**
(count) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia|
+| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.max**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia|
+| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.mean**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia|
+| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.min**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia|
+| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.snapshot_size**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia|
+| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.std_dev**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia|
+| **hivemq.publish.without_matching_subscribers**
(count) | Cuenta la cantidad de mensajes de publicación recibidos, sin suscriptores coincidentes|
+| **hivemq.qos_0_memory.exceeded.per_client**
(gauge) | Mantiene la cantidad actual de clientes que excedieron su memoria de mensajes QoS 0|
+| **hivemq.qos_0_memory.max**
(gauge) | Contiene la cantidad máxima de bytes que los mensajes QoS 0 pueden utilizar en memoria|
+| **hivemq.qos_0_memory.used**
(gauge) | Mantiene la cantidad actual de bytes que los mensajes QoS 0 utilizan en memoria|
+| **hivemq.sessions.overall.current**
(gauge) | Mide el recuento actual de sesiones almacenadas. Estas sesiones incluyen todas las sesiones, incluidos los clientes en línea y fuera de línea|
+| **hivemq.sessions.persistent.active**
(count) | Mide el recuento actual de sesiones persistentes activas (= clientes MQTT en línea que están conectados con cleanSession=false).|
+| **hivemq.single_writer_executor.running**
(count) | Cuenta las tareas que se están ejecutando actualmente en el programador responsable de un solo escritor|
+| **hivemq.subscriptions.overall.current**
(count) | Mide el recuento actual de suscripciones en el broker|
+| **hivemq.system.max_file_descriptor**
(gauge) | Cantidad máxima permitida de descriptores de archivo vistos por la JVM|
+| **hivemq.system.open_file_descriptor**
(gauge) | Cantidad de descriptores de archivo abiertos vistos por la JVM|
+| **hivemq.system.os.file_descriptors.max**
(gauge) | Cantidad máxima permitida de descriptores de archivo|
+| **hivemq.system.os.file_descriptors.open**
(gauge) | Cantidad de descriptores de archivo actualmente abiertos|
+| **hivemq.system.os.global.memory.available**
(gauge) | La cantidad de memoria física disponible actualmente, en bytes|
+| **hivemq.system.os.global.memory.swap.total**
(gauge) | El tamaño actual de los archivos de paginación/swap, en bytes.|
+| **hivemq.system.os.global.memory.swap.used**
(gauge) | La memoria actual asignada a los archivos de paginación/swap, en bytes.|
+| **hivemq.system.os.global.memory.total**
(gauge) | La cantidad de memoria física real, en bytes|
+| **hivemq.system.os.global.uptime**
(gauge) | Tiempo de actividad del sistema operativo en segundos|
+| **hivemq.system.os.process.disk.bytes_read**
(gauge) | Número de bytes que el proceso de HiveMQ ha leído del disco|
+| **hivemq.system.os.process.disk.bytes_written**
(gauge) | Número de bytes que el proceso de HiveMQ ha escrito en el disco|
+| **hivemq.system.os.process.memory.resident_set_size**
(gauge) | Tamaño del conjunto residente (RSS) en bytes. Se utiliza para mostrar cuánta memoria está asignada al proceso de HiveMQ y está en la RAM. No incluye la memoria que se intercambia. Incluye la memoria de las bibliotecas compartidas siempre que las páginas de esas bibliotecas estén realmente en memoria. Incluye toda la memoria de stack tecnológico y heap.|
+| **hivemq.system.os.process.memory.virtual**
(gauge) | Tamaño de memoria virtual (VSZ) en bytes. Incluye toda la memoria a la que puede acceder el proceso de HiveMQ, incluida la memoria intercambiada y la memoria de las bibliotecas compartidas.|
+| **hivemq.system.os.process.threads.count**
(gauge) | Número de subprocesos del proceso de HiveMQ visto por el SO|
+| **hivemq.system.os.process.time_spent.kernel**
(gauge) | Cantidad de milisegundos que el proceso de HiveMQ se ha ejecutado en modo kernel/sistema visto por el sistema operativo.|
+| **hivemq.system.os.process.time_spent.user**
(gauge) | Cantidad de milisegundos que el proceso de HiveMQ se ha ejecutado en modo usuario visto por el sistema operativo.|
+| **hivemq.system.physical_memory.free**
(gauge) | Cantidad actual de memoria física libre en bytes|
+| **hivemq.system.physical_memory.total**
(gauge) | Cantidad total de memoria física (bytes) disponible|
+| **hivemq.system.process_cpu.load**
(gauge) | Uso actual de la CPU para el proceso de JVM (0.0 inactivo - 1.0 uso total de la CPU)|
+| **hivemq.system.process_cpu.time**
(gauge) | Cantidad total de tiempo de CPU que el proceso de JVM ha utilizado hasta este punto (en nanosegundos)|
+| **hivemq.system.swap_space.free**
(gauge) | Cantidad actual de espacio swap libre en bytes|
+| **hivemq.system.swap_space.total**
(gauge) | Cantidad total de espacio swap disponible en bytes|
+| **hivemq.system.system_cpu.load**
(gauge) | Uso actual de la CPU para todo el sistema (0.0 inactivo - 1.0 uso total de la CPU)|
+| **hivemq.topic_alias.count.total**
(gauge) | Contiene la cantidad actual de alias de temas|
+| **hivemq.topic_alias.memory.usage**
(gauge) | Contiene la cantidad actual de bytes que los alias temáticos utilizan en memoria|
### Checks de servicio
-{{< get-service-checks-from-git "hivemq" >}}
+**hivemq.can_connect**
-## Solucionar problemas
+Devuelve `CRITICAL` si el Agent no puede conectarse a HiveMQ, `WARNING` si no se recopilan métricas y `OK` en caso contrario.
-¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3].
+_Estados: ok, critical, warning_
-## Referencias adicionales
+### Eventos
-Más enlaces, artículos y documentación útiles:
+HiveMQ no incluye ningún evento.
-- [Uso de HiveMQ y OpenTelemetry para la monitorización de aplicaciones IoT en Datadog][4]
+### Checks de servicio
+
+Consulta [service_checks.json](https://github.com/DataDog/integrations-core/blob/master/hivemq/assets/service_checks.json) para obtener una lista de los checks de servicio proporcionados por esta integración.
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help).
+
+## Referencias adicionales
+Documentación útil adicional, enlaces y artículos:
-[1]: https://www.hivemq.com/hivemq/
-[2]: https://app.datadoghq.com/account/settings/agent/latest
-[3]: https://docs.datadoghq.com/es/help
-[4]: https://www.datadoghq.com/blog/hivemq-opentelemetry-monitor-iot-applications/
\ No newline at end of file
+- [Utiliza HiveMQ y OpenTelemetry para monitorizar aplicaciones IoT en Datadog](https://www.datadoghq.com/blog/hivemq-opentelemetry-monitor-iot-applications/)
\ No newline at end of file
diff --git a/content/es/integrations/ilert.md b/content/es/integrations/ilert.md
index ac58d23e1817b..2b8392f4f1114 100644
--- a/content/es/integrations/ilert.md
+++ b/content/es/integrations/ilert.md
@@ -1,85 +1,34 @@
---
app_id: ilert
-app_uuid: 12731389-915a-4fb7-baec-3319f87dfc7f
-assets:
- integration:
- auto_install: true
- configuration: {}
- events:
- creates_events: true
- metrics:
- check: []
- metadata_path: metadata.csv
- prefix: ilert.
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10154
- source_type_name: iLert
-author:
- homepage: https://github.com/DataDog/integrations-extras
- name: ilert
- sales_email: support@ilert.com
- support_email: support@ilert.com
categories:
- events
- colaboración
- rum
- rastreo de problemas
- notificaciones
-custom_kind: integration
-dependencies:
-- https://github.com/DataDog/integrations-extras/blob/master/ilert/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: ilert
-integration_id: ilert
-integration_title: ilert
-integration_version: ''
-is_public: true
-manifest_version: 2.0.0
-name: ilert
-public_title: ilert
-short_description: Recibe notificaciones de las alertas de Datadog y adopte medidas
- con ilert.
+custom_kind: integración
+description: Recibe notificaciones de las alertas de Datadog y adopte medidas con
+ ilert.
+integration_version: 1.0.0
+media:
+- caption: lista de alertas de ilert
+ image_url: images/ilert-alert-list.png
+ media_type: imagen
supported_os:
- linux
- windows
- macos
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Categoría::Alertas
- - Categoría::Colaboración
- - Categoría::Incidentes
- - Categoría::Rastreo de problemas
- - Categoría::Notificaciones
- - SO compatible::Linux
- - SO compatible::Windows
- - SO compatible::macOS
- - Oferta::Integración
- configuration: README.md#Configuración
- description: Recibe notificaciones de las alertas de Datadog y adopte medidas con
- ilert.
- media:
- - caption: lista de alertas de ilert
- image_url: images/ilert-alert-list.png
- media_type: imagen
- overview: README.md#Información general
- support: README.md#Soporte
- title: ilert
+title: ilert
---
-
-
## Información general
-La integración de [ilert][1] envía alertas de Datadog a ilert y toma medidas de manera fluida sobre estas alertas dentro de la plataforma ilert.
-ilert es una plataforma de gestión de incidentes que permite a los equipos cubrir todas las etapas del ciclo de un incidente. ilert ofrece alertas confiables y procesables, enrutamiento de llamadas, horarios de disponibilidad flexibles, páginas de estado, varias características de ChatOps, asistencia de IA en las comunicaciones de incidentes y creación de autopsias. Con ilert, los equipos de DevOps aumentan el tiempo de actividad y responden los incidentes con mayor rapidez.
+La integración de [ilert](https://www.ilert.com/?utm_medium=organic&utm_source=integration&utm_campaign=datadog) envía alertas de Datadog a ilert y ayuda a los DevOps y SREs a tomar medidas inmediatas para evitar tiempos de inactividad o interrupciones operativas. ilert es la plataforma de gestión de incidentes basada en la IA que permite a Teams cubrir todas las fases del ciclo de incidente. Con ilert, Teams responde a los incidentes más rápidamente y reduce su tiempo medio de resolución.
Integra ilert para hacer lo siguiente:
-- activar y resolver incidentes de Datadog;
-- abordar los incidentes y establecer políticas de derivación a medida que se producen;
-- establecer un recordatorio diario de quién está de guardia.
+- Desencadenar y resolver incidencias de Datadog
+- Abordar las incidencias y establecer políticas de escalada a medida que se producen
+- Establecer un recordatorio diario de quién está de guardia
## Configuración
@@ -89,32 +38,33 @@ Integra ilert para hacer lo siguiente:
1. Ve a la pestaña **Alert Sources** (Orígenes de alertas) y haz clic en el botón "Create new alert source" (Crear nuevo origen de alertas).
-2. Busca "**Datadog**", selecciona el cuadro de **Datadog** y haz clic en **Next** (Siguiente).
+1. Busca "**Datadog**", selecciona el cuadro de **Datadog** y haz clic en **Next** (Siguiente).
- ![Nuevo origen de alertas de ilert][2]
+ 
-3. Asígnale un nombre.
+1. Asígnale un nombre.
- ![Nuevo origen de alertas de ilert 2][3]
+ 
-4. Selecciona la política de derivación que desees.
+1. Selecciona la política de derivación que desees.
- ![Nuevo origen de alertas de ilert 3][4]
+ 
-5. En la página siguiente, se genera una **Webhook URL** (URL de webhook). Necesitarás esta URL para la configuración de la integración en Datadog.
+1. En la página siguiente, se genera una **Webhook URL** (URL de webhook). Necesitarás esta URL para la configuración de la integración en Datadog.
- ![Vista del origen de alertas de ilert][5]
+ 
### Datadog
#### Añadir un webhook de ilert como canal de alertas
-1. Desde la página **Datadog Integrations** (Integraciones de Datadog), [**instala la integración de Webhooks**][6].
-2. En el cuadro de la integración de Webhooks, añade un nuevo webhook:
+1. Desde la página de integraciones de Datadog, [**instala la integración de webhooks**](https://app.datadoghq.com/integrations/webhooks).
+
+1. En el cuadro de la integración de Webhooks, añade un nuevo webhook:
- ![Nuevo webhook de Datadog][7]
+ 
-3. Ingresa un nombre, la **URL del webhook de Datadog** generada anteriormente a partir del origen de alertas de ilert y la **carga útil de la plantilla**:
+1. Ingresa un nombre, la **URL del webhook de Datadog** generada anteriormente a partir del origen de alertas de ilert y la **carga útil de la plantilla**:
```json
{
@@ -134,9 +84,9 @@ Integra ilert para hacer lo siguiente:
}
```
- ![Vista del webhook de Datadog][8]
+ 
-4. Haz clic en **Save** (Guardar).
+1. Haz clic en **Save** (Guardar).
## Datos recopilados
@@ -154,14 +104,4 @@ La integración de ilert no incluye checks de servicios.
## Solucionar problemas
-¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][9].
-
-[1]: https://www.ilert.com/?utm_medium=organic&utm_source=integration&utm_campaign=datadog
-[2]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-alert-source-new.png
-[3]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-alert-source-new-2.png
-[4]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-alert-source-new-3.png
-[5]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-alert-source-view.png
-[6]: https://app.datadoghq.com/integrations/webhooks
-[7]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-webhook-new.png
-[8]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-webhook-view.png
-[9]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/).
\ No newline at end of file
diff --git a/content/es/integrations/insightfinder.md b/content/es/integrations/insightfinder.md
index 35c7434587ef1..6da20c4236676 100644
--- a/content/es/integrations/insightfinder.md
+++ b/content/es/integrations/insightfinder.md
@@ -1,77 +1,23 @@
---
app_id: insightfinder
-app_uuid: 144b8c72-b842-4257-9815-93aa63ad2da1
-assets:
- dashboards:
- InsightFinder Dashboard: assets/dashboards/ifdashboard.json
- integration:
- auto_install: true
- configuration: {}
- events:
- creates_events: false
- metrics:
- check: []
- metadata_path: metadata.csv
- prefix: insightfinder.
- service_checks:
- metadata_path: assets/service_checks.json
- source_type_id: 10253
- source_type_name: InsightFinder
-author:
- homepage: https://github.com/DataDog/integrations-extras
- name: InsightFinder
- sales_email: support@insightfinder.com
- support_email: support@insightfinder.com
categories:
- events
- automatización
- rum
- notificaciones
- ia/ml
-custom_kind: integration
-dependencies:
-- https://github.com/DataDog/integrations-extras/blob/master/insightfinder/README.md
-display_on_public_website: true
-draft: false
-git_integration_title: insightfinder
-integration_id: insightfinder
-integration_title: InsightFinder
-integration_version: ''
-is_public: true
-manifest_version: 2.0.0
-name: insightfinder
-public_title: InsightFinder
-short_description: Integra los datos de Datadog para su análisis con InsightFinder.
+custom_kind: integración
+description: Integra los datos de Datadog para su análisis con InsightFinder.
+media: []
supported_os:
- linux
- windows
- macos
-tile:
- changelog: CHANGELOG.md
- classifier_tags:
- - Categoría::Alertas
- - Categoría::Automatización
- - Categoría::Incidentes
- - Categoría::Notificaciones
- - Categoría::IA/ML
- - SO compatible::Linux
- - SO compatible::Windows
- - SO compatible::macOS
- - Oferta::Integración
- configuration: README.md#Configuración
- description: Integra los datos de Datadog para su análisis con InsightFinder.
- media: []
- overview: README.md#Información general
- support: README.md#Soporte
- title: InsightFinder
+title: InsightFinder
---
-
-
-
-
## Información general
-[InsightFinder][1] AIOps identifica los problemas de sistemas y aplicaciones antes de que afecten a los usuarios. Gracias a la tecnología no supervisada de machine learning, InsightFinder aprende continuamente de eventos, logs, métricas y cambios para detectar anomalías, predecir incidentes y corregir errores.
+AIOps de [InsightFinder](https://insightfinder.com/) identifica los problemas de sistemas y aplicaciones antes de que afecten a los usuarios. Gracias al machine learning no supervisado, InsightFinder aprende continuamente de los eventos, logs, métricas y cambios para detectar anomalías, predecir incidentes y corregir las interrupciones.
Esta integración bidireccional brinda capacidades avanzadas de AIOps. InsightFinder recibe datos de Datadog a través de las API estándar y detecta anomalías en los eventos antes de que tu negocio se vea afectado. Las alertas de estos eventos anómalos pueden enviarse a Datadog para notificar a tu equipo.
@@ -79,16 +25,8 @@ Esta integración bidireccional brinda capacidades avanzadas de AIOps. InsightFi
### Instalación
-Para configurar la integración y enviar datos a InsightFinder, consulta la [Integración de InsightFinder y Datadog][2]. Debes contar con una [clave de API y de aplicación][3] de Datadog.
-
-
-## Compatibilidad
-
-Ponte en contacto con el [servicio de asistencia de Datadog][4] o envía un correo electrónico al [servicio de asistencia de InsightFinder][5].
+Para configurar la integración y enviar datos a InsightFinder, consulta la [integración de InsightFinder y Datadog](https://insightfinder.com/datadog-integration/). Necesitas una [clave de API y clave de aplicación] de Datadog(https://docs.datadoghq.com/account_management/api-app-keys/).
+## Soporte
-[1]: https://insightfinder.com/
-[2]: https://insightfinder.com/datadog-integration/
-[3]: https://docs.datadoghq.com/es/account_management/api-app-keys/
-[4]: https://docs.datadoghq.com/es/help/
-[5]: mailto:support@insightfinder.com
\ No newline at end of file
+Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/) o envía un correo electrónico al [soporte de InsightFinder](mailto:support@insightfinder.com).
\ No newline at end of file
diff --git a/content/es/integrations/iocs_dmi4apm.md b/content/es/integrations/iocs_dmi4apm.md
new file mode 100644
index 0000000000000..799ce6b016042
--- /dev/null
+++ b/content/es/integrations/iocs_dmi4apm.md
@@ -0,0 +1,135 @@
+---
+algolia:
+ subcategory: Integraciones de Marketplace
+app_id: iocs-dmi4apm
+app_uuid: 29b4a34d-e40d-4975-ba55-4fc019685959
+assets:
+ integration:
+ auto_install: false
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ metrics:
+ check: iocs_dmi4apm.ioconnect.dmi4apm.agent
+ metadata_path: metadata.csv
+ prefix: iocs_dmi4apm.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 9762172
+ source_type_name: iocs_dmi4apm
+author:
+ homepage: https://www.novacloud.io/
+ name: Nova
+ sales_email: products.sales@novacloud.io
+ support_email: support_ddp@novacloud.io
+ vendor_id: ioconnect
+categories:
+- nube
+- marketplace
+- herramientas de desarrollo
+custom_kind: integración
+dependencies: []
+display_on_public_website: true
+draft: false
+git_integration_title: iocs_dmi4apm
+integration_id: iocs-dmi4apm
+integration_title: Mule® para APM
+integration_version: ''
+is_public: true
+legal_terms:
+ eula: assets/eula.pdf
+manifest_version: 2.0.0
+name: iocs_dmi4apm
+pricing:
+- billing_type: tag_count
+ includes_assets: false
+ metric: datadog.marketplace.ioconnect.dmi4apm.agent
+ product_id: dmi4apm
+ short_description: Precio por cada host
+ tag: hosts
+ unit_label: host
+ unit_price: 50
+public_title: Integración de Mule® para APM
+short_description: Integración de Datadog y MuleSoft para la monitorización del rendimiento
+ de las aplicaciones
+supported_os:
+- linux
+- windows
+- macos
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Category::Cloud
+ - Category::Marketplace
+ - Category::Developer Tools
+ - Offering::Integration
+ - Supported OS::Linux
+ - Supported OS::Windows
+ - Supported OS::macOS
+ - Submitted Data Type::Traces
+ configuration: README.md#Setup
+ description: Integración de Datadog y MuleSoft para la monitorización del rendimiento
+ de las aplicaciones
+ media:
+ - caption: 'DMI4APM: Logs de traces (trazas)'
+ image_url: images/dmi_apm_logs.png
+ media_type: imagen
+ - caption: 'DMI4APM: Detalles de traces (trazas)'
+ image_url: images/dmi_apm_trace.png
+ media_type: imagen
+ - caption: 'DMI4APM: Lista de traces (trazas)'
+ image_url: images/dmi_apm_traces.png
+ media_type: imagen
+ - caption: 'DMI4APM: Span (tramo) distribuido'
+ image_url: images/dmi_distributed_span.png
+ media_type: imagen
+ - caption: 'DMI4APM: Trace (traza) de span (tramo) distribuido'
+ image_url: images/dmi_distributed_trace.png
+ media_type: imagen
+ - caption: 'DMI4APM: Lista de spans (tramos)'
+ image_url: images/dmi_distributed.png
+ media_type: imagen
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Integración de Mule® para APM
+ uninstallation: README.md#Uninstallation
+---
+
+
+
+
+## Información general
+MuleSoft es una empresa de software especializada en soluciones de integración y gestión de API. Su principal producto, Anypoint Platform, es una plataforma de integración que permite a los desarrolladores conectar aplicaciones, datos y dispositivos en entornos on-premises y en la nube.
+
+Esta integración captura traces (trazas) de APM de las aplicaciones MuleSoft y proporciona información sobre el rendimiento y los problemas de las aplicaciones. Las traces (trazas) de APM permiten a los desarrolladores y equipos de operaciones obtener una visibilidad profunda del rendimiento de esta integración e identificar cuellos de botella, errores y degradación del rendimiento en tiempo real.
+
+### **Instrumenta tus aplicaciones Mule con nuestro Datadog Mule 4 Connector**
+
+
+Utiliza el conector de Datadog para Mule 4 con Datadog APM para obtener visibilidad con los dashboards de rendimiento predefinidos.
+
+Mide el rendimiento de las operaciones en tus flujos de forma tan granular como sea necesario con spans (tramos).
+
+También, correlaciona los logs generados dentro de una transacción en una única trace (traza) para acotar cualquier optimización del rendimiento o contexto de solución de problemas.
+
+
+## Asistencia técnica
+Tómate un momento para conocer el proceso de configuración de la integración de Datadog y Mule® para APM aquí: [Requisitos previos e instalación][7] y la [documentación del conector][8].
+
+Para solicitar asistencia o funciones, ponte en contacto con el servicio de asistencia técnica de Nova a través de los siguientes canales:
+
+- Ventas: [products.sales@novacloud.io][2]
+- Asistencia técnica: [support_ddp@novacloud.io][6]
+
+[1]: https://app.datadoghq.com/account/settings#agent/overview
+[2]: mailto:products.sales@novacloud.io
+[3]: https://docs.datadoghq.com/es/agent/autodiscovery/integrations
+[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#restart-the-agent
+[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/?tab=agentv6v7#agent-information
+[6]: mailto:support_ddp@novacloud.io
+[7]: https://docs.ioconnectservices.com/dmi4apm/apm-datadog-integration
+[8]: https://docs.ioconnectservices.com/dmi4apm/apm-global-elements
+
+---
+Esta aplicación está disponible a través de Datadog Marketplace y cuenta con el apoyo de un socio tecnológico de Datadog. Para utilizarla, adquiere esta aplicación en el Marketplace.
\ No newline at end of file
diff --git a/content/es/integrations/jetbrains_ides.md b/content/es/integrations/jetbrains_ides.md
new file mode 100644
index 0000000000000..02cfdd8b83ec6
--- /dev/null
+++ b/content/es/integrations/jetbrains_ides.md
@@ -0,0 +1,101 @@
+---
+app_id: jetbrains-ides
+app_uuid: f27e2abf-7827-46f8-bddb-266a0c1acd9f
+assets: {}
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- herramientas de desarrollo
+custom_kind: integración
+dependencies: []
+display_on_public_website: true
+draft: false
+git_integration_title: jetbrains_ides
+integration_id: jetbrains-ides
+integration_title: IDE JetBrains
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: jetbrains_ides
+public_title: IDE JetBrains
+short_description: Complemento Datadog para IntelliJ IDEA, GoLand, PyCharm, WebStorm
+ y PhpStorm
+supported_os:
+- linux
+- Windows
+- macOS
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Sistema operativo compatible::Linux
+ - Sistema operativo compatible::Windows
+ - Sistema operativo compatible::macOS
+ - Categoría::Herramientas de desarrollo
+ - Oferta::Integración
+ configuration: README.md#Configuración
+ description: Complemento Datadog para IntelliJ IDEA, GoLand, PyCharm, WebStorm y
+ PhpStorm
+ media:
+ - caption: Información sobre Error Tracking en IntelliJ IDEA
+ image_url: images/overview.png
+ media_type: imagen
+ overview: README.md#Información general
+ resources:
+ - resource_type: otros
+ url: https://plugins.jetbrains.com/plugin/19495-datadog
+ support: README.md#Soporte
+ title: IDE JetBrains
+---
+
+
+
+
+## Información general
+
+El [complemento Datadog para JetBrains IDE][1] está disponible para IntelliJ IDEA, GoLand, PyCharm, WebStorm y PhpStorm. Te ayuda a mejorar tu software proporcionando información a nivel de código directamente en el IDE, basada en datos de observabilidad en tiempo real de:
+
+- Logs
+- Elaboración de perfiles
+- Seguimiento de errores
+- CI Visibility
+- App and API Protection
+- Análisis estático
+
+## Configuración
+
+### Instalación
+
+Desde tu JetBrains IDE:
+
+1. Ve a **Settings > Plugins** (Configuración > Complementos).
+2. Busca `Datadog`.
+3. Haz clic en **Install** (Instalar) para descargar e instalar el plugin en tu entorno de desarrollo integrado.
+4. Si recibes un aviso de que Datadog es un plugin de terceros, haz clic en **Accept** (Aceptar).
+5. Reinicia el IDE.
+6. Cuando se te pida que inicies sesión en Datadog, haz clic en el botón **Log-in** (Iniciar sesión). Tu navegador se abrirá en la página de inicio de sesión en Datadog.
+
+### Configuración
+
+Selecciona los servicios Datadog correspondientes a tu proyecto en la configuración del complemento.
+
+La configuración del complemento se encuentra dentro de la configuración del IDE, en **Datadog**.
+
+### Ver en entorno de desarrollo integrado
+
+La función **View in IDE** (Ver en IDE) proporciona un enlace desde la plataforma Datadog directamente a tus archivos de origen.
+
+### Referencias adicionales
+
+- [Complemento Datadog en el Marketplace de JetBrains][2]
+
+## Asistencia
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3] o abre un [incidente en GitHub][4].
+
+[1]: https://docs.datadoghq.com/es/developers/ide_integrations/idea/
+[2]: https://plugins.jetbrains.com/plugin/19495-datadog
+[3]: https://docs.datadoghq.com/es/help/
+[4]: https://github.com/DataDog/datadog-for-intellij-platform
\ No newline at end of file
diff --git a/content/es/integrations/kitepipe_atomwatch.md b/content/es/integrations/kitepipe_atomwatch.md
new file mode 100644
index 0000000000000..727d881b7e1ef
--- /dev/null
+++ b/content/es/integrations/kitepipe_atomwatch.md
@@ -0,0 +1,201 @@
+---
+algolia:
+ subcategory: Integraciones de Marketplace
+app_id: kitepipe-atomwatch
+app_uuid: c9c6ace5-9793-48da-a4be-7bbd4c3e9b06
+assets:
+ dashboards:
+ AtomWatch Boomi Cluster Monitoring: assets/dashboards/boomi_cluster_monitoring2.json
+ AtomWatch Boomi Compute Monitoring: assets/dashboards/boomi_compute_monitoring2.json
+ AtomWatch Boomi Workload Monitoring: assets/dashboards/boomi_workload_monitoring2.json
+ AtomWatch Overview: assets/dashboards/atomwatch_overview.json
+ Boomi JMX Monitoring - Forked: assets/dashboards/jmx_forked.json
+ Boomi JMX Monitoring - Management JVM: assets/dashboards/jmx_management_jvm.json
+ Boomi JMX Monitoring - Non-Forked: assets/dashboards/jmx_nonforked.json
+ integration:
+ auto_install: false
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: true
+ metrics:
+ check: kitepipe.atomwatch.integration_completed
+ metadata_path: metadata.csv
+ prefix: kitepipe.atomwatch.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 10355
+ source_type_name: AtomWatch
+ monitors:
+ API Gateway node CPU usage is high: assets/monitors/api_gw_node_cpu.json
+ API Gateway node Disk usage is high: assets/monitors/api_gw_node_disk.json
+ API Gateway node memory usage is high: assets/monitors/api_gw_node_ram.json
+ AtomWatch is down: assets/monitores/atomwatch_down.json
+ Boomi "View File" is missing: assets/monitors/cluster_view_file_missing.json
+ Boomi "view file" is too old: assets/monitors/cluster_view_file_too_old.json
+ Boomi "view file" reports a problem: assets/monitors/cluster_view_file_problem.json
+ Boomi API calls from more than one node: assets/monitors/multiple_node_api_calls.json
+ Boomi Molecule node is at high CPU usage: assets/monitors/molecule_node_cpu.json
+ Boomi Molecule node is running out of disk space: assets/monitors/molecule_node_disk.json
+ Boomi runtime is reported as offline: assets/monitors/boomi_online_status.json
+ Cannot call the Boomi Platform API: assets/monitors/failed_boomi_platform_api_call.json
+ Execution duration is anomalous: assets/monitors/execution_duration_anomaly.json
+ JVM Runtime low memory: assets/monitors/jmx_low_mem.json
+ JVM Runtime out of memory: assets/monitors/jmx_out_of_mem.json
+ Molecule node memory usage is high: assets/monitors/molecule_node_ram.json
+author:
+ homepage: https://www.kitepipe.com
+ name: Kitepipe
+ sales_email: AtomWatch.Sales@kitepipe.com
+ support_email: AtomWatch.Support@kitepipe.com
+ vendor_id: kitepipe
+categories:
+- alertas
+- aws
+- event management
+- recopilación de logs
+- marketplace
+- notificaciones
+custom_kind: integración
+dependencies: []
+display_on_public_website: true
+draft: false
+git_integration_title: kitepipe_atomwatch
+integration_id: kitepipe-atomwatch
+integration_title: Kitepipe AtomWatch
+integration_version: ''
+is_public: true
+legal_terms:
+ eula: assets/eula.pdf
+manifest_version: 2.0.0
+name: kitepipe_atomwatch
+pricing:
+- billing_type: tag_count
+ includes_assets: true
+ metric: datadog.marketplace.kitepipe.atomwatch
+ product_id: atomwatch
+ short_description: Precio unitario por Boomi Atom o Molecule Node
+ tag: billing_key
+ unit_label: Boomi Atom or Molecule Node
+ unit_price: 200
+public_title: Kitepipe AtomWatch
+short_description: Monitoriza los procesos y la infraestructura de Boomi
+supported_os:
+- linux
+- macos
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::macOS
+ - Category::Alerting
+ - Category::AWS
+ - Category::Event Management
+ - Category::Log Collection
+ - Category::Marketplace
+ - Category::Notifications
+ - Submitted Data Type::Metrics
+ - Submitted Data Type::Logs
+ - Submitted Data Type::Events
+ - Offering::Integration
+ configuration: README.md#Setup
+ description: Monitoriza los procesos y la infraestructura de Boomi
+ media:
+ - caption: Los informes mejorados del proceso te permiten retroceder más de 30 días
+ y filtrar por más campos, con comodines.
+ image_url: images/enhanced_process_reporting.png
+ media_type: imagen
+ - caption: Consulta procesos de larga duración de un vistazo y recibe alertas con
+ detección de anomalías.
+ image_url: images/execution_duration_anomalies.png
+ media_type: imagen
+ - caption: Amplia monitorización de infraestructuras, incluidas la CPU, RAM, disco,
+ red.
+ image_url: images/infrastructure_monitoring.png
+ media_type: imagen
+ - caption: Monitorización del clúster que supera las recomendaciones publicadas
+ de Boomi.
+ image_url: images/cluster_monitoring.png
+ media_type: imagen
+ - caption: Toplists y gráficos de procesos de Boomi con errores.
+ image_url: images/error_monitoring.png
+ media_type: imagen
+ - caption: Compatible con la monitorización de JMX.
+ image_url: images/jmx_monitoring.png
+ media_type: imagen
+ overview: README.md#Overview
+ resources:
+ - resource_type: documentación
+ url: https://atomwatch.refined.site/space/CS/11108353
+ - resource_type: Blog
+ url: https://www.datadoghq.com/blog/kitepipe-datadog-marketplace/
+ support: README.md#Support
+ title: Kitepipe AtomWatch
+ uninstallation: README.md#Uninstallation
+---
+
+
+
+
+## Información general
+
+AtomWatch de Kitepipe es una integración basada en el Agent que recopila métricas de procesos, nodos del clúster e infraestructuras relacionadas de Boomi para informar a clientes de Datadog y de Boomi sobre el estado de la integración.
+
+AtomWatch versión 1.2 contiene 7 dashboards, 17 métricas personalizadas y 16 monitores que informan sobre las estadísticas de ejecución de Boomi, el estado del clúster, la monitorización de JMX y el estado de la infraestructura. Estas métricas están disponibles para los clientes de Datadog y de Boomi para el análisis de tendencias de tiempo extendido (sobre el estándar de 30 días de la disponibilidad de informes de procesos de Boomi).
+
+Los clientes de Datadog que adquieran AtomWatch deben gestionar el Boomi Java Runtime en una configuración de Atom o de Molecule. Kitepipe incluye una sesión de configuración de una hora con la prueba gratuita inicial de 14 días.
+
+### Acerca de Kitepipe
+
+Kitepipe es un socio de implementación de Boomi Platinum y es el principal equipo de desarrollo de integración de Boomi en América del Norte. Kitepipe se fundó en 2011 en respuesta a la necesidad de un equipo de servicios centrado en Boomi que pudiera cumplir todas las promesas de esta potente plataforma de integración.
+
+En la actualidad, el equipo de Kitepipe de desarrolladores on-shore certificados de Boomi ayuda a docenas de clientes de Boomi a conseguir rápidamente el valor de negocios con la plataforma líder de la industria para la integración de Boomi.
+
+El servicio AtomWatch de Datadog es una nueva oferta de Kitepipe centrada en servicios gestionados por Boomi en AWS. Kitepipe es el líder en una serie de áreas de integración, verticales y dominios, incluidas migraciones a AWS de procesos de Boomi, Boomi gestionado en AWS, soluciones verticales de Biotech creadas en Boomi, NetSuite, SAP, Coupa, Workday y HRIS, Data Mart/BI y más endpoints.
+
+### Recopilación de logs
+
+Esta integración realiza llamadas de API a Boomi Platform en tu nombre, recupera registros de ejecución y los envía a Datadog como logs. También monitoriza opcionalmente ejecuciones en progreso y telemetría de JVM a través de JMX, envía esta información a Datadog como logs. Puedes ver qué procesos de Boomi se están ejecutando en cuál JVM, junto con métricas asociadas, como el uso de memoria, la recolección de basura, el count de conversaciones y más.
+
+### Eventos
+
+Esta integración recupera registros de AuditLog de la API Boomi y los envía a Datadog como eventos. Los eventos son visibles en forma filtrada en el dashboard de monitorización de la carga de trabajo de Boomi o en el [Explorer de eventos][1]. Puedes crear tus propios monitores para inspeccionar los registros de AuditLog sin filtrar.
+
+### Métricas
+
+Esta integración envía métricas. Puedes explorar una lista de métricas en la pestaña **Data Collected** (Datos recopilados).
+
+## Asistencia
+
+Para solicitar asistencia o funciones, ponte en contacto con AtomWatch a través del siguiente canal:
+
+- Correo electrónico: [AtomWatch.Support@kitepipe.com][11]
+
+El horario de asistencia de Kitepipe para AtomWatch es de 9 de la mañana a 3 de la tarde en las zonas horarias de EE. UU. y Canadá. Las solicitudes de solución de problemas de AtomWatch se responderán en un plazo de 24 a 48 horas desde la recepción de la notificación en el alias de correo electrónico de AtomWatch.
+
+Para obtener los mejores resultados de respuesta, incluye el nombre del cliente, la configuración de Boomi y una breve descripción del evento o la cuestión que se debe solucionar. Kitepipe pone a tu disposición programas de asistencia mejorados previa solicitud.
+
+### Referencias adicionales
+
+Más enlaces, artículos y documentación útiles:
+
+- [Documentación de AtomWatch][9]
+- [Monitoriza tus integraciones de Boomi con la oferta de Kitepipe en Datadog Marketplace][12]
+- [Activación de JMX en Boomi][13]
+
+[1]: https://app.datadoghq.com/event/explorer
+[2]: https://help.boomi.com/bundle/atomsphere_platform/page/int-Adding_API_tokens.html
+[3]: https://help.boomi.com/bundle/integration/page/t-atm-Attaching_a_role_to_an_Environment.html
+[4]: https://app.datadoghq.com/logs
+[5]: https://app.datadoghq.com/account/settings#agent/overview
+[6]: https://help.boomi.com/bundle/integration/page/r-atm-Startup_Properties_panel.html
+[7]: https://help.boomi.com/bundle/integration/page/r-atm-Cluster_Status_panel.html
+[8]: https://help.boomi.com/bundle/api_management/page/api-API_Gateway_settings.html
+[9]: https://atomwatch.kitepipe.com/space/CS/11108353
+[10]: https://www.kitepipe.com/
+[11]: mailto:AtomWatch.Support@kitepipe.com
+[12]: https://www.datadoghq.com/blog/kitepipe-datadog-marketplace/
+[13]: https://help.boomi.com/docs/Atomsphere/Integration/Integration%20management/t-atm-Enabling_remote_JMX_on_an_Atom_1a1625d0-330d-43c6-a765-42502d7768ec
+
+---
+Esta aplicación está disponible a través de Datadog Marketplace y cuenta con el apoyo de un socio tecnológico de Datadog. Para utilizarla, adquiere esta aplicación en el Marketplace.
\ No newline at end of file
diff --git a/content/es/integrations/linux_audit_logs.md b/content/es/integrations/linux_audit_logs.md
new file mode 100644
index 0000000000000..56e501c2bdbdc
--- /dev/null
+++ b/content/es/integrations/linux_audit_logs.md
@@ -0,0 +1,207 @@
+---
+app_id: linux-audit-logs
+app_uuid: 276c2367-72a9-4f50-95d6-998e4b2ca0df
+assets:
+ dashboards:
+ Linux Audit Logs - Overview: assets/dashboards/linux_audit_logs_overview.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ source_type_id: 42347665
+ source_type_name: Logs de auditoría de Linux
+ logs:
+ source: linux-audit-logs
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- recopilación de logs
+- seguridad
+- red
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/linux_audit_logs/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: logs_auditoría_linux
+integration_id: linux-audit-logs
+integration_title: Logs de auditoría de Linux
+integration_version: 1.0.0
+is_public: true
+manifest_version: 2.0.0
+name: logs_auditoría_linux
+public_title: Logs de auditoría de Linux
+short_description: Obtén información sobre logs de auditoría de Linux.
+supported_os:
+- linux
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Sistema operativo compatible::Linux
+ - Categoría::Recopilación de logs
+ - Categoría::Seguridad
+ - Categoría::Red
+ - Oferta::Integración
+ - Tipo de datos enviados::Logs
+ configuration: README.md#Configuración
+ description: Obtén información sobre logs de auditoría de Linux.
+ media:
+ - caption: Logs de auditoría de Linux - Información general
+ image_url: images/linux_audit_logs_overview_1.png
+ media_type: imagen
+ - caption: Logs de auditoría de Linux - Información general
+ image_url: images/linux_audit_logs_overview_2.png
+ media_type: imagen
+ - caption: Logs de auditoría de Linux - Información general
+ image_url: images/linux_audit_logs_overview_3.png
+ media_type: imagen
+ - caption: Logs de auditoría de Linux - Información general
+ image_url: images/linux_audit_logs_overview_4.png
+ media_type: imagen
+ overview: README.md#Información general
+ support: README.md#Soporte
+ title: Logs de auditoría de Linux
+---
+
+
+## Información general
+
+Los [logs de auditoría de Linux][1] registran información detallada sobre eventos del sistema, actividades de usuarios y acciones relacionadas con la seguridad. Son esenciales para controlar la integridad del sistema, detectar accesos no autorizados y garantizar el cumplimiento de las políticas y normativas de seguridad.
+
+Esta integración proporciona un enriquecimiento y una visualización de varios tipos de logs, incluidos:
+- Configuraciones y estado del **Control de acceso obligatorio (MAC)**
+- **Políticas de MAC**
+- **Roles**: asignación, supresión y cambio de roles de usuarios
+- **Auditorías**: cambios de configuración y eventos daemon de auditoría (como cancelaciones o cambios de configuración)
+- **Autenticación de usuarios**: eventos de autenticación de usuarios
+- **Cuentas de usuario**: modificaciones de credenciales de cuentas de usuarios
+- **Usuarios y grupos**: activades de gestión de usuarios y grupos
+- **Usuarios de SELinux**: errores de usuarios de SELinux
+- **Access Vector Cache (AVC)**: logs de Access Vector Cache (AVC)
+
+Es compatible con estos logs en los sistemas operativos **Red Hat**, **Ubuntu** y **CentOS** de Linux.
+
+Esta integración recopila logs de auditoría de Linux y los envía a Datadog para su análisis. Proporciona información visual a través de los dashboards y el Explorador de logs predefinidos, y ayuda a monitorizar y a responder a las amenazas de seguridad mediante reglas de detección de Cloud SIEM listas para usar.
+
+* [Explorador de logs][2]
+* [Cloud SIEM][3]
+
+## Configuración
+
+### Instalación
+
+Para instalar la integración de logs de auditoriía de Linux, ejecuta el siguiente comando de instalación del Agent. Para obtener más información, consulta [Gestión de integraciones][4].
+
+**Nota**: Este paso no es necesario para versiones >= 7.66.0. del Agent.
+
+Para Linux, ejecuta:
+ ```shell
+ sudo -u dd-agent -- datadog-agent integration install datadog-linux-audit-logs==1.0.0
+ ```
+
+### Configuración
+
+#### Instalar el daemon de auditoría (`auditd`)
+
+1. Instala `auditd` en Linux:
+ - **Debian/Ubuntu:**
+
+ ```shell
+ sudo apt-get update
+ sudo apt-get install auditd
+ ```
+
+ - **CentOS/RHEL:**
+
+ ```shell
+ sudo yum install audit
+ ```
+
+2. Inicia el daemon de auditoría:
+
+ ```shell
+ sudo systemctl start auditd
+ ```
+
+3. Activa el daemon de auditoría para que se inicie durante el arranque:
+ ```shell
+ sudo systemctl enable auditd
+ ```
+
+4. Comprueba el estado del daemon de auditoría:
+ ```shell
+ sudo systemctl status auditd
+ ```
+
+#### Configurar el daemon de auditoría (`auditd`)
+
+1. Concede al usuario `dd-agent` permiso de lectura de los archivos de los de auditoría rotados:
+ ```shell
+ sudo grep -q "^log_group=" /etc/audit/auditd.conf && sudo sed -i 's/^log_group=.*/log_group=dd-agent/' /etc/audit/auditd.conf || echo "log_group=dd-agent" | sudo tee -a /etc/audit/auditd.conf
+ ```
+
+2. Reinicia el daemon de auditoría:
+ ```shell
+ sudo systemctl restart auditd
+ ```
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][5] y busca `linux_audit_logs` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+
+La integración de logs de auditoría de Linux no incluye métricas.
+
+### Recopilación de logs
+
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en el archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. Concede al usuario `dd-agent` acceso de lectura al archivo `audit.log`:
+
+ ```shell
+ sudo chown -R dd-agent:dd-agent /var/log/audit/audit.log
+ ```
+
+3. Añade este bloque de configuración a tu archivo `linux_audit_logs.d/conf.yaml` para empezar a recopilar logs de auditoría de Linux:
+
+ Consulta el [ejemplo linux_audit_logs.d/conf.yaml][6] para conocer las opciones de configuración disponibles.
+
+ ```yaml
+ logs:
+ - type: file
+ path: /var/log/audit/audit.log
+ service: linux-audit-logs
+ source: linux-audit-logs
+ ```
+ **Nota**: No modifiques los valores `service` y `source`, ya que son esenciales para el correcto procesamiento de pipelines de logs.
+
+4. [Reinicia el Agent][7].
+
+### Eventos
+
+La integración de logs de auditoría de Linux no incluye eventos.
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8].
+
+[1]: https://linux.org/
+[2]: https://docs.datadoghq.com/es/logs/explorer/
+[3]: https://www.datadoghq.com/product/cloud-siem/
+[4]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=linux#install
+[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[6]: https://github.com/DataDog/integrations-core/blob/master/linux_audit_logs/datadog_checks/linux_audit_logs/data/conf.yaml.example
+[7]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[8]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/microsoft_sysmon.md b/content/es/integrations/microsoft_sysmon.md
new file mode 100644
index 0000000000000..cc89a010bbfd9
--- /dev/null
+++ b/content/es/integrations/microsoft_sysmon.md
@@ -0,0 +1,197 @@
+---
+app_id: microsoft-sysmon
+app_uuid: 76dd5a2d-68d8-4acf-b066-ba00c1524694
+assets:
+ dashboards:
+ Microsoft Sysmon - Overview: assets/dashboards/microsoft_sysmon_overview.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ source_type_id: 42258945
+ source_type_name: Microsoft Sysmon
+ logs:
+ source: microsoft-sysmon
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- recopilación de logs
+- seguridad
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/microsoft_sysmon/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: microsoft_sysmon
+integration_id: microsoft-sysmon
+integration_title: Microsoft Sysmon
+integration_version: 1.0.0
+is_public: true
+manifest_version: 2.0.0
+name: microsoft_sysmon
+public_title: Microsoft Sysmon
+short_description: Obtén información sobre eventos de actividad del sistema en Windows.
+supported_os:
+- windows
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Sistema operativo compatible::Windows
+ - Categoría::Recopilación de logs
+ - Categoría::Seguridad
+ - Oferta::Integración
+ - Tipo de datos enviados::Logs
+ configuration: README.md#Configuración
+ description: Obtén información sobre eventos de actividad del sistema en Windows.
+ media:
+ - caption: Microsoft Sysmon - Información general 1
+ image_url: images/microsoft_sysmon_overview_1.png
+ media_type: imagen
+ - caption: Microsoft Sysmon - Información general 2
+ image_url: images/microsoft_sysmon_overview_2.png
+ media_type: imagen
+ - caption: Microsoft Sysmon - Información general 3
+ image_url: images/microsoft_sysmon_overview_3.png
+ media_type: imagen
+ - caption: Microsoft Sysmon - Información general 4
+ image_url: images/microsoft_sysmon_overview_4.png
+ media_type: imagen
+ - caption: Microsoft Sysmon - Información general 5
+ image_url: images/microsoft_sysmon_overview_5.png
+ media_type: imagen
+ - caption: Microsoft Sysmon - Información general 6
+ image_url: images/microsoft_sysmon_overview_6.png
+ media_type: imagen
+ - caption: Microsoft Sysmon - Información general 7
+ image_url: images/microsoft_sysmon_overview_7.png
+ media_type: imagen
+ - caption: Microsoft Sysmon - Información general 8
+ image_url: images/microsoft_sysmon_overview_8.png
+ media_type: imagen
+ overview: README.md#Información general
+ support: README.md#Soporte
+ title: Microsoft Sysmon
+---
+
+
+
+
+## Información general
+
+[Microsoft Sysmon][1] es un servicio de sistema y un controlador de dispositivos de Windows que proporciona una generación de logs detallada de la actividad del sistema, incluida la creación de procesos, las conexiones de red, las modificaciones de archivos y los cambios en el registro.
+
+Esta integración enriquece e ingiere [logs de eventos Sysmon][2]. Utiliza el dashboard predefinido para obtener una vista clara de los eventos de Sysmon y ayudar a los equipos de seguridad a monitorizar la actividad del sistema.
+
+## Configuración
+
+### Instalación
+
+Para instalar la integración de Microsoft Sysmon, ejecuta el siguiente comando de instalación del Agent y los pasos que se indican a continuación. Para obtener más información, consulta la documentación [Gestión de integraciones][3].
+
+**Nota**: Este paso no es necesario para versiones >= 7.66.0. del Agent.
+
+Ejecuta powershell.exe como administrador y ejecuta el siguiente comando:
+ ```powershell
+ & "$env:ProgramFiles\Datadog\Datadog Agent\bin\agent.exe" integration install datadog-microsoft_sysmon==1.0.0
+ ```
+
+### Configuración
+
+#### Configurar la recopilación de logs
+
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Habilítalo en el archivo `datadog.yaml` con:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. Añade este bloque de configuración a tu archivo `microsoft_sysmon.d/conf.yaml` para empezar a recopilar logs de Microsoft Sysmon:
+
+ ```yaml
+ logs:
+ - type: windows_event
+ channel_path: "Microsoft-Windows-Sysmon/Operational"
+ source: microsoft-sysmon
+ service: microsoft-sysmon
+ sourcecategory: windowsevent
+ ```
+
+3. [Reinicia el Agent][4].
+
+#### Configurar Sysmon
+
+Sigue estos pasos para instalar Sysmon:
+1. Descarga el archivo zip desde la [página de descargas de Sysmon][1]. Extrae el contenido del archivo zip.
+2. Crea un archivo XML para configurar Sysmon. Por ejemplo, si quieres monitorizar procesos creados por aplicaciones desde carpetas AppData, el archivo de configuración tendrá el aspecto que se muestra a continuación. Puedes añadir más filtros de eventos bajo la etiqueta (tag) `EventFiltering` XML para otros eventos de la misma manera.
+
+ ```xml
+
+
+
+ C:\Users\*\AppData\Local\Temp\
+ C:\Users\*\AppData\Roaming\
+
+
+
+ ```
+
+3. Ejecuta el comando como administrador desde la carpeta extraída:
+
+ ```powershell
+ .\Sysmon -i []
+ ```
+
+**Nota:** Sysmon es altamente configurable utilizando el archivo de configuración (XML) que te permite:
+- Controlar qué eventos monitorizar
+- Filtrar eventos en función de procesos, rutas, etc.
+
+Habilitar demasiados tipos de eventos puede provocar una ingesta excesiva de datos. Solo los eventos de seguridad críticos deben ser habilitados en función del modelo de amenaza y las necesidades de monitorización.
+Estos eventos deben habilitarse de forma selectiva para directorios, procesos y usuarios críticos del sistema a fin de evitar el ruido innecesario de los logs.
+
+Para obtener más información sobre la configuración, consulta la [documentación de Sysmon][5].
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][6] y busca `microsoft_sysmon` en la sección Checks.
+
+## Datos recopilados
+
+### Logs
+
+La integración de Microsoft Sysmon recopila los siguientes [logs de eventos Sysmon][2]:
+- Logs de actividad de procesos
+- Logs de actividad de redes
+- Logs de actividad de archivos
+- Logs de actividad de registros
+- Logs de actividad de WMI
+- Logs de actividad de servicios Sysmon
+- Logs de actividad de canalizaciones y portapapeles nombrados
+
+### Métricas
+
+La integración Microsoft Sysmon no incluye métricas.
+
+### Eventos
+
+La integración Microsoft Sysmon no incluye eventos.
+
+### Checks de servicio
+
+La integración Microsoft Sysmon no incluye checks de servicios.
+
+## Soporte
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][7].
+
+[1]: https://learn.microsoft.com/en-us/sysinternals/downloads/sysmon
+[2]: https://learn.microsoft.com/en-us/sysinternals/downloads/sysmon#events
+[3]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=windowspowershell#install
+[4]: https://docs.datadoghq.com/es/agent/configuration/agent-commands/#restart-the-agent
+[5]: https://learn.microsoft.com/en-us/sysinternals/downloads/sysmon#configuration-files
+[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[7]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/okta_workflows.md b/content/es/integrations/okta_workflows.md
new file mode 100644
index 0000000000000..212a4b0e36506
--- /dev/null
+++ b/content/es/integrations/okta_workflows.md
@@ -0,0 +1,119 @@
+---
+app_id: okta-workflows
+app_uuid: e5e2a25d-aa66-41bc-9996-50f635dcc7a1
+assets:
+ dashboards:
+ Okta Workflows: assets/dashboards/okta_workflows.json
+ integration:
+ auto_install: false
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 33274584
+ source_type_name: Okta Workflows
+ logs:
+ source: okta-workflows
+ monitors:
+ High Number of Abandoned Outcome Events Detected: assets/monitors/high_number_of_abandoned_outcome_events_detected.json
+ High Number of Denied Outcome Events Detected: assets/monitors/high_number_of_denied_outcome_events_detected.json
+ High Number of Failure Outcome Events Detected: assets/monitors/high_number_of_failure_outcome_events_detected.json
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- recopilación de logs
+- automatización
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/okta_workflows/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: okta_workflows
+integration_id: okta-workflows
+integration_title: Okta Workflows
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: okta_workflows
+public_title: Okta Workflows
+short_description: Obtén información sobre los eventos de Okta Workflows.
+supported_os: []
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Category::Log Collection
+ - Submitted Data Type::Logs
+ - Offering::Integration
+ - Category::Automation
+ configuration: README.md#Setup
+ description: Obtén información sobre los eventos de Okta Workflows.
+ media:
+ - caption: Okta Workflows
+ image_url: images/okta_workflows_1.png
+ media_type: imagen
+ - caption: Okta Workflows
+ image_url: images/okta_workflows_2.png
+ media_type: imagen
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Okta Workflows
+---
+
+
+
+
+## Información general
+[Okta Workflows][1] es una plataforma de automatización sin código proporcionada por Okta, diseñada para simplificar y automatizar las tareas relacionadas con la identidad y procesos. Permite a las organizaciones crear flujos de trabajo personalizados que se integran perfectamente con las capacidades de gestión de identidad y acceso de Okta y las aplicaciones de terceros, mejorando la eficiencia operativa, la seguridad y la experiencia del usuario.
+
+La integración de Okta Workflows recopila los logs de evento de flujos de trabajo de Okta y los envía a Datadog para su análisis exhaustivo.
+
+## Configuración
+
+### Generar credenciales de API en Okta Workflows
+1. Ingresa a la [consola de administración de Okta][2] como **admin** (administrador) que tiene el rol [Read-only administrators][3] (Administradores de solo lectura).
+2. Sigue los pasos de [esta guía][4] para generar un token de API.
+
+### Obtener dominio de Okta Workflows
+1. Inicia sesión en tu organización de Okta con tu cuenta de administrador.
+2. Localiza el **Dominio** haciendo clic en tu nombre de usuario en la esquina superior derecha de la consola de administración. El dominio aparece en el menú desplegable. Tu dominio de Okta se parece a:
+ - example.oktapreview.com
+ - example.okta.com
+ - example.okta-emea.com
+
+### Conectar tu cuenta de Okta Workflows a Datadog
+1. Añade tu token de API y tu dominio de Okta:
+
+ | Parámetros | Descripción |
+ |--------------------- |-----------------------------------|
+ | Token de API | La clave de API de Okta Workflows |
+ | Dominio de Okta | El dominio de Okta Workflows |
+
+2. Haz clic en el botón **Save** (Guardar) para guardar la configuración.
+
+## Datos recopilados
+
+### Logs
+
+Los flujos de trabajo de la integración de Okta recopilan y reenvían los logs de evento de flujo de trabajo de Okta a Datadog.
+
+### Métricas
+
+La integración de Okta Workflows no recopila ninguna métrica.
+
+### Eventos
+
+La integración de Okta Workflows no incluye ningún evento.
+
+## Ayuda
+
+Para obtener más ayuda, ponte en contacto con el [soporte de Datadog][3].
+
+[1]: https://www.okta.com/products/workflows/
+[2]: https://login.okta.com/
+[3]: https://help.okta.com/en-us/content/topics/security/administrators-read-only-admin.htm
+[4]: https://help.okta.com/en-us/content/topics/security/api.htm?cshid=ext-create-api-token#create-okta-api-token
\ No newline at end of file
diff --git a/content/es/integrations/shopify.md b/content/es/integrations/shopify.md
new file mode 100644
index 0000000000000..8ce8a3682a259
--- /dev/null
+++ b/content/es/integrations/shopify.md
@@ -0,0 +1,140 @@
+---
+app_id: shopify
+app_uuid: 81c0f478-e722-454a-83d3-5e3f45e11ca8
+assets:
+ dashboards:
+ Shopify - Customer Overview: assets/dashboards/shopify_customer_overview.json
+ Shopify - Event Overview: assets/dashboards/shopify_event_overview.json
+ Shopify - Order Overview: assets/dashboards/shopify_order_overview.json
+ Shopify - Product Overview: assets/dashboards/shopify_product_overview.json
+ integration:
+ auto_install: false
+ events:
+ creates_events: false
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 622
+ source_type_name: Shopify
+ logs:
+ source: shopify
+ monitors:
+ Order Cancellation Rate is High: assets/monitors/order_cancellation_rate.json
+ Product Inventory is Out of Stock: assets/monitors/product_inventory_out_of_stock.json
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- recopilación de logs
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/shopify/README.md
+description: Monitoriza métricas empresariales de Shopify.
+display_on_public_website: true
+doc_link: https://docs.datadoghq.com/integrations/shopify/
+draft: false
+git_integration_title: shopify
+has_logo: false
+integration_id: shopify
+integration_title: Shopify
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: shopify
+public_title: Shopify
+short_description: Obtén información sobre logs de eventos, productos, clientes y
+ pedidos de Shopify.
+supported_os: []
+team: web-integrations
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Category::Log Collection
+ - Submitted Data Type::Logs
+ - Offering::Integration
+ configuration: README.md#Setup
+ description: Obtén información sobre logs de eventos, productos, clientes y pedidos
+ de Shopify.
+ media:
+ - caption: Shopify - Información general de eventos
+ image_url: images/shopify_event_overview.png
+ media_type: imagen
+ - caption: Shopify - Información general del producto
+ image_url: images/shopify_product_overview.png
+ media_type: imagen
+ - caption: Shopify - Información general del cliente
+ image_url: images/shopify_customer_overview.png
+ media_type: imagen
+ - caption: Shopify - Información general de pedidos
+ image_url: images/shopify_order_overview.png
+ media_type: imagen
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Shopify
+version: '1.0'
+---
+
+
+
+
+## Información general
+
+[Shopify][1] es una plataforma de comercio integral diseñada para ayudar a los particulares a crear, gestionar y desarrollar sus negocios. Proporciona herramientas para crear una tienda online, gestionar ventas, comercializar con clientes y aceptar pagos en localizaciones digitales y físicas.
+
+La integración Shopify recopila logs de eventos, productos, clientes y pedidos, y los envía a Datadog para su análisis detallado.
+
+Incluye dashboards que muestran y analizan logs, facilitando la monitorización y la comprensión de patrones.
+
+## Configuración
+
+### Generar credenciales API en Shopify
+1. Inicia sesión en tu cuenta de administrador de [Shopify][2].
+2. El nombre de la tienda Shopify es la parte `xxxx` de la URL de la tienda (`https://admin.shopify.com/store/xxxx`).
+3. Ve a **Settings > Apps and sales channels** (Configuración > Aplicaciones y canales de venta).
+4. Selecciona **Develop Apps** (Desarrollar aplicaciones) y haz clic en **Allow custom app development** (Permitir el desarrollo de aplicaciones personalizadas).
+5. Haz clic en **Create a custom app** (Crear una aplicación personalizada), proporciona los datos necesarios y haz clic en **Create app** (Crear aplicación).
+6. Haz clic en **Configure Admin API Scopes** (Configurar contextos de la API de administración) en la pestaña Información general.
+7. En la sección **Admin API access scopes section** (Sección de administración de contextos de acceso a la API), selecciona el siguiente contexto:
+ - **read_orders**
+ - **read_products**
+ - **read_customers**
+ - **read_content**
+ - **read_price_rules**
+8. Haz clic en **Save** (Guardar) para aplicar los cambios.
+9. Haz clic en **Install app** (Instalar aplicación) y obtén el **Token de acceso** de la sección **Admin API access token** (Administrar token de acceso a la API).
+
+### Conectar tu cuenta de Shopify a Datadog
+1. Añadir el nombre de tu tienda y el token de acceso
+ |Parámetros | Descripción
+ |--------------------|--------------------|
+ |Nombre de la tienda | Nombre de la tienda de tu cuenta de administrador de Shopify. |
+ |Token de acceso | Token de acceso para tu cuenta de administrador de Shopify. |
+2. Haz clic en el botón **Save** (Guardar) para guardar la configuración.
+
+## Datos recopilados
+
+### Logs
+
+La integración Shopify recopila y reenvía logs de eventos, productos, clientes y pedidos a Datadog.
+
+### Métricas
+
+La integración Shopify no incluye métricas.
+
+### Checks de servicio
+
+La integración Shopify no incluye checks de servicios.
+
+### Eventos
+
+La integración Shopify no incluye eventos.
+
+## Solucionar problemas
+
+Esta integración no es gestionada por Shopify. Para obtener ayuda, ponte en contacto con el
+[servicio de asistencia de Datadog][3].
+
+[1]: https://www.shopify.com/
+[2]: https://www.shopify.com/in/store-login
+[3]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/silverstripe_cms.md b/content/es/integrations/silverstripe_cms.md
new file mode 100644
index 0000000000000..761ea60f2d5e1
--- /dev/null
+++ b/content/es/integrations/silverstripe_cms.md
@@ -0,0 +1,174 @@
+---
+app_id: silverstripe-cms
+app_uuid: acd6d383-dfe8-4e70-8c68-e5f3b6da84af
+assets:
+ dashboards:
+ Silverstripe CMS - Overview: assets/dashboards/silverstripe_cms_overview.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ metrics:
+ check:
+ - silverstripe_cms.files.count
+ metadata_path: metadata.csv
+ prefix: silverstripe_cms.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 35271991
+ source_type_name: Silverstripe CMS
+ monitors:
+ Pages with broken files are higher: assets/monitors/pages_with_broken_files_are_higher.json
+ Pages with broken links are higher: assets/monitors/pages_with_broken_links_are_higher.json
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- métricas
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/silverstripe_cms/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: silverstripe_cms
+integration_id: silverstripe-cms
+integration_title: Silverstripe CMS
+integration_version: 1.0.0
+is_public: true
+manifest_version: 2.0.0
+name: silverstripe_cms
+public_title: Silverstripe CMS
+short_description: Monitoriza el contenido de Silverstripe CMS y la actividad de los
+ usuarios.
+supported_os:
+- linux
+- Windows
+- macOS
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::Windows
+ - Supported OS::macOS
+ - Category::Metrics
+ - Offering::Integration
+ - Submitted Data Type::Metrics
+ configuration: README.md#Setup
+ description: Monitoriza el contenido de Silverstripe CMS y la actividad de los usuarios.
+ media:
+ - caption: Silverstripe CMS - Información general
+ image_url: images/silverstripe_cms_overview.png
+ media_type: imagen
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Silverstripe CMS
+---
+
+
+
+
+## Información general
+
+Silverstripe CMS es una plataforma de código abierto para la creación y la gestión de sitios y aplicaciones web. Ofrece un panel de administración intuitivo que facilita la edición y personalización de contenidos sin necesidad de código. Su marco flexible lo hace ideal tanto para sitios sencillos como para proyectos complejos.
+
+La integración SilverStripe CMS recopila métricas de archivos, páginas e intentos fallidos de inicio de sesión, y los envía a Datadog para su análisis y monitorización.
+
+## Configuración
+
+### Instalación
+
+La integración de Silverstripe CMS está incluida en el [paquete del Datadog Agent][1]. No es necesaria ninguna instalación adicional.
+
+### Obtener credenciales de bases de datos Silverstripe CMS
+| **Parámetro** | **Descripción** |
+|----------------------|------------------------------------------------------------|
+| Tipo de base de datos | El tipo de servidor de base de datos, ya sea MySQL o PostgreSQL. |
+| Nombre de base de datos | El nombre de la base de datos configurada. |
+| Nombre de usuario de base de datos | El nombre de usuario utilizado para conectarse a la base de datos. |
+| Contraseña de base de datos | La contraseña asociada al usuario de la base de datos. |
+| IP de servidor de base de datos | La dirección IP del servidor de la base de datos. |
+| Puerto de base de datos | El número de puerto del servidor de la base de datos. |
+
+### Conectar tu cuenta de Silverstripe CMS al Agent
+
+1. Copia el archivo `conf.yaml.example`.
+ ```sh
+ cp /etc/datadog-agent/conf.d/silverstripe_cms.d/conf.yaml.example /etc/datadog-agent/conf.d/silverstripe_cms.d/conf.yaml
+ ```
+
+2. Añade este bloque de configuración a tu archivo `silverstripe_cms.d/conf.yaml` para empezar a recopilar tus métricas.
+ - Consulta el ejemplo de [silverstripe_cms.d/conf.yaml][2] para ver las opciones de configuración disponibles.
+ - Si necesitas configurar varias instancias de Silverstripe CMS en el archivo `conf.yaml`, consulta el siguiente ejemplo:
+ ```yaml
+ init_config:
+ instances:
+ - SILVERSTRIPE_DATABASE_TYPE: PostgreSQL
+ SILVERSTRIPE_DATABASE_NAME:
+ SILVERSTRIPE_DATABASE_SERVER_IP:
+ SILVERSTRIPE_DATABASE_PORT:
+ SILVERSTRIPE_DATABASE_USERNAME:
+ SILVERSTRIPE_DATABASE_PASSWORD:
+ min_collection_interval: 300
+ - SILVERSTRIPE_DATABASE_TYPE: MySQL
+ SILVERSTRIPE_DATABASE_NAME:
+ SILVERSTRIPE_DATABASE_SERVER_IP:
+ SILVERSTRIPE_DATABASE_PORT:
+ SILVERSTRIPE_DATABASE_USERNAME:
+ SILVERSTRIPE_DATABASE_PASSWORD:
+ min_collection_interval: 300
+ ```
+
+3. [Reinicia el Agent][3].
+
+### Validación
+
+- [Ejecuta el subcomando de estado del Agent][4] y busca `silverstripe_cms` en la sección **Checks**.
+
+- También puedes utilizar el siguiente comando para obtener información detallada sobre la integración:
+ ```sh
+ sudo datadog-agent check silverstripe_cms
+ ```
+
+ El check devuelve OK si todas las configuraciones son correctas y el Agent es capaz de comunicarse con Silverstripe CMS.
+
+## Datos recopilados
+
+### Log
+
+La integración Silverstripe CMS no incluye logs.
+
+### Métricas
+
+La integración Silverstripe CMS recopila y envía las siguientes métricas a Datadog.
+
+{{< get-metrics-from-git "silverstripe_cms" >}}
+
+### Checks de servicio
+
+La integración Silverstripe CMS incluye checks de servicios que se enumeran en el archivo [service_checks.json][5].
+
+### Eventos
+
+- `Silverstripe.CMS.silverstripe_cms_authentication` activada para la autenticación de los parámetros proporcionados.
+
+## Desinstalación
+
+Para integraciones que se ejecutan en el Agent:
+
+- Elimina totalmente la integración utilizando el comando `datadog-agent integration remove`. Para obtener más información, consulta [Gestión de integraciones][6].
+
+## Ayuda
+
+Para obtener más ayuda, ponte en contacto con el [soporte de Datadog][7].
+
+[1]: https://app.datadoghq.com/account/settings/agent/latest
+[2]: https://github.com/DataDog/integrations-core/blob/master/silverstripe_cms/datadog_checks/silverstripe_cms/data/conf.yaml.example
+[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[5]: https://github.com/DataDog/integrations-core/blob/master/silverstripe_cms/assets/service_checks.json
+[6]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=linux#remove
+[7]: https://docs.datadoghq.com/es/help
\ No newline at end of file
diff --git a/content/es/integrations/sonatype_nexus.md b/content/es/integrations/sonatype_nexus.md
new file mode 100644
index 0000000000000..a9fdea51ef708
--- /dev/null
+++ b/content/es/integrations/sonatype_nexus.md
@@ -0,0 +1,182 @@
+---
+app_id: sonatype-nexus
+app_uuid: 6cec5ac3-a686-4408-936d-26f19fa6763a
+assets:
+ dashboards:
+ Sonatype Nexus Instance Health: assets/dashboards/sonatype_nexus_instance_health.json
+ Sonatype Nexus Metrics: assets/dashboards/sonatype_nexus_metrics.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: true
+ metrics:
+ check:
+ - sonatype_nexus.analytics.available_cpus
+ - sonatype_nexus.status.available_cpus_health
+ metadata_path: metadata.csv
+ prefix: sonatype_nexus.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 34928997
+ source_type_name: sonatype_nexus
+ monitors:
+ High Number of Failed Unique User Authentication Detected: assets/monitors/high_number_of_failed_unique_user_authentication_detected.json
+ High Percentage of JVM Heap Memory Usage Detected: assets/monitors/high_percentage_of_jvm_heap_memory_usage_detected.json
+ Unhealthy Available CPUs Detected: assets/monitors/unhealthy_available_cpus_detected.json
+ Unhealthy Blob Stores Detected: assets/monitors/unhealthy_blob_stores_detected.json
+ Unhealthy Thread Deadlock Detected: assets/monitors/unhealthy_thread_deadlock_detected.json
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- métricas
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/sonatype_nexus/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: sonatype_nexus
+integration_id: sonatype-nexus
+integration_title: Sonatype Nexus
+integration_version: 1.1.0
+is_public: true
+manifest_version: 2.0.0
+name: sonatype_nexus
+public_title: Sonatype Nexus
+short_description: Obtén información sobre análisis y datos de salud de las instancias
+ Sonatype Nexus.
+supported_os:
+- linux
+- Windows
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::Windows
+ - Category::Metrics
+ - Offering::Integration
+ - Submitted Data Type::Metrics
+ configuration: README.md#Setup
+ description: Obtén información sobre análisis y datos de salud de las instancias
+ Sonatype Nexus.
+ media:
+ - caption: Salud de las instancias Sonatype Nexus
+ image_url: images/sonatype_nexus_instance_health.png
+ media_type: imagen
+ - caption: Métricas de Sonatype Nexus
+ image_url: images/sonatype_nexus_metrics_1.png
+ media_type: imagen
+ - caption: Métricas de Sonatype Nexus
+ image_url: images/sonatype_nexus_metrics_2.png
+ media_type: imagen
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Sonatype Nexus
+---
+
+
+## Información general
+
+Sonatype Nexus es una popular solución de gestión de repositorios diseñada para gestionar componentes y dependencias de software a lo largo de todo el ciclo de vida de desarrollo del software. Es compatible con una amplia gama de lenguajes y formatos de desarrollo, lo que lo convierte en un punto central para DevOps y pipelines de integración/entrega continua (CI/CD).
+
+La integración Sonatype Nexus recopila métricas de análisis y del estado de salud de las instancias Sonatype Nexus, y las envía a Datadog para su análisis exhaustivo.
+
+## Configuración
+
+### Instalación
+
+El check de Sonatype Nexus está incluido en el paquete del [Datadog Agent ][1]. No es necesaria ninguna instalación adicional.
+
+### Obtener credenciales de API de Sonatype Nexus
+
+1. `Username` y `Password` de la cuenta de **Administrador** o de un usuario con el privilegio **nx-metrics-all**.
+
+2. `Server URL` de la instancia del repositorio (por ejemplo, https://123.123.123.123:8081)
+
+### Conectar tu cuenta de Sonatype Nexus al Agent
+
+1. Copia el archivo `conf.yaml.example`.
+
+ ```sh
+ cp /etc/datadog-agent/conf.d/sonatype_nexus.d/conf.yaml.example /etc/datadog-agent/conf.d/sonatype_nexus.d/conf.yaml
+ ```
+
+2. Edita el archivo `/etc/datadog-agent/conf.d/sonatype_nexus.d/conf.yaml`. Añade las siguientes configuraciones.
+
+ ```yaml
+ instances:
+
+ ## @param username - string - required
+ ## Username of Sonatype Nexus instance
+ #
+ - username:
+
+ ## @param password - string - required
+ ## Password of Sonatype Nexus instance
+ #
+ password:
+
+ ## @param server_url - string - required
+ ## Sonatype Nexus server url
+ #
+ server_url:
+
+ ## @param min_collection_interval - number - required
+ ## This changes the collection interval of the check. For more information, see:
+ ## https://docs.datadoghq.com/developers/write_agent_check/#collection-interval
+ #
+ min_collection_interval: 600
+ ```
+* Ejemplo de `conf.yaml` cuando se configuran múltiples instancias Sonatype Nexus:
+
+ ```yaml
+ instances:
+ - min_collection_interval: 1800
+ username:
+ password:
+ server_url:
+ - min_collection_interval: 1800
+ username:
+ password:
+ server_url:
+ ```
+
+3. [Reinicia el Agent][2].
+
+### Validación
+
+- [Ejecuta el subcomando de estado del Agent][3] y busca `sonatype_nexus` en la sección Checks.
+
+## Datos recopilados
+
+### Logs
+La integración Sonatype Nexus no incluye logs.
+
+### Métricas
+
+La integración Sonatype Nexus recopila y envía análisis y métricas del estado de salud de las instancias a Datadog.
+
+{{< get-metrics-from-git "sonatype_nexus" >}}
+
+### Eventos
+
+La integración Sonatype Nexus reenvía el evento de `sonatype_nexus.authentication_validation` a Datadog.
+
+### Checks de servicio
+
+Para ver una lista de los checks de servicio proporcionados por esta integración, consulta [service_checks.json][4].
+
+## Ayuda
+
+Para obtener más ayuda, ponte en contacto con el [servicio de asistencia de Datadog][5].
+
+
+[1]: https://app.datadoghq.com/account/settings/agent/latest
+[2]: https://docs.datadoghq.com/es/agent/guide/agent-commands/?tab=agentv6v7#start-stop-and-restart-the-agent
+[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[4]: https://github.com/DataDog/integrations-core/blob/master/sonatype_nexus/assets/service_checks.json
+[5]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/streamnative.md b/content/es/integrations/streamnative.md
new file mode 100644
index 0000000000000..473f1aff7158a
--- /dev/null
+++ b/content/es/integrations/streamnative.md
@@ -0,0 +1,153 @@
+---
+app_id: streamnative
+app_uuid: e92fa53b-f620-4167-bdaa-31ac3bc6be35
+assets:
+ dashboards:
+ StreamNative - Health: assets/dashboards/streamnative_health.json
+ StreamNative - Kafka Connect: assets/dashboards/streamnative_kafka_connect.json
+ StreamNative - Pulsar Resource: assets/dashboards/streamnative_pulsar_resource.json
+ StreamNative - Sink Connector: assets/dashboards/streamnative_sink_connector.json
+ StreamNative - Source Connector: assets/dashboards/streamnative_source_connector.json
+ integration:
+ auto_install: false
+ events:
+ creates_events: false
+ metrics:
+ check:
+ - streamnative.pulsar_resource.pulsar_consumers_count
+ metadata_path: metadata.csv
+ prefix: streamnative.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 27153739
+ source_type_name: StreamNative
+ monitors:
+ Backlog size exceeding threshold: assets/monitors/backlog_size_exceeding_threshold.json
+ Messaging service is down: assets/monitors/messaging_service_down.json
+ Webservice is down: assets/monitors/webservice_down.json
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- métricas
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/streamnative/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: streamnative
+integration_id: streamnative
+integration_title: StreamNative
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: streamnative
+public_title: StreamNative
+short_description: Obtén información sobre los datos de métricas de StreamNative.
+supported_os: []
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Category::Metrics
+ - Submitted Data Type::Metrics
+ - Offering::Integration
+ configuration: README.md#Setup
+ description: Obtén información sobre los datos de métricas de StreamNative.
+ media:
+ - caption: StreamNative - Salud
+ image_url: images/streamnative_health.png
+ media_type: imagen
+ - caption: StreamNative - Kafka Connect
+ image_url: images/streamnative_kafka_connect.png
+ media_type: imagen
+ - caption: StreamNative - Recurso Pulsar
+ image_url: images/streamnative_pulsar_resource.png
+ media_type: imagen
+ - caption: StreamNative - Conector de sumideros
+ image_url: images/streamnative_sink_connector.png
+ media_type: imagen
+ - caption: StreamNative - Conector de fuentes
+ image_url: images/streamnative_source_connector.png
+ media_type: imagen
+ overview: README.md#Overview
+ support: README.md#Support
+ title: StreamNative
+---
+
+
+
+
+## Información general
+
+[StreamNative][1] proporciona una plataforma de mensajería y streaming de eventos de nivel empresarial basada en Apache Pulsar. Ofrece soluciones de streaming de datos escalables y en tiempo real con características como multiinquilino, replicación geográfica e integración continua con servicios de nube.
+
+La integración StreamNative recopila los siguientes tipos de [métricas][2]:
+
+1. Health
+2. Recurso Pulsar
+3. Conector de fuentes
+4. Conector de sumideros
+5. Kafka Connect
+
+## Configuración
+
+### Generar credenciales de API en StreamNative
+
+1. Inicia sesión en la [cuenta de la consola de StreamNative Cloud][3].
+2. Haz clic en el icono del perfil y ve a la pestaña **Cuentas y accesos**.
+3. Busca la cuenta de servicio con permisos de **Admin** o un enlace al rol `metrics-viewer`.
+ - Si no existe una cuenta de servicio, selecciona **New -> Service Account** (Nuevo -> Cuenta de servicio) para crear una, y asegúrate de activar la opción **Super Admin**.
+ - Para vincular una cuenta de servicio con el rol `metrics-viewer`, consulta la documentación [metrics-viewer rolebinding][4].
+4. En la parte derecha de la cuenta de servicio elegida, haz clic en el botón `...`.
+5. Selecciona **Download OAuth2 Key** (Descargar clave OAuth2) para obtener el **ID de cliente** y el **Secreto de cliente**.
+
+### Obtener el `Organization ID` y el `Instance Name`
+
+1. Haz clic en el icono del perfil y selecciona **Organizations** (Organizaciones).
+2. Selecciona la **Organización** de la que deben recopilarse datos.
+3. En el menú desplegable **Select an Instance** (Seleccionar una instancia), obtén el **Nombre de la instancia**.
+
+
+### Conectar tu cuenta de StreamNative a Datadog
+
+1. Añade tu ID de organización, nombre de instancia, ID de cliente y secreto de cliente.
+ |Parámetros |Descripción |
+ |--------------------|--------------------|
+ | ID de organización | ID de organización de tu cuenta de StreamNative.|
+ |Nombre de instancia |Nombre de instancia de la organización correspondiente.|
+ | ID de cliente | ID de cliente de tu cuenta de servicio.|
+ |Secreto de cliente |Secreto de cliente de tu cuenta de servicio.|
+2. Haz clic en el botón **Save** (Guardar) para guardar la configuración.
+
+
+## Datos recopilados
+
+### Logs
+
+La integración StreamNative no incluye logs.
+
+### Métricas
+
+La integración StreamNative recopila y envía las siguientes métricas a Datadog.
+
+{{< get-metrics-from-git "streamnative" >}}
+
+### Checks de servicio
+
+La integración StreamNative no incluye checks de servicios.
+
+### Eventos
+
+La integración StreamNative no incluye eventos.
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5].
+
+[1]: https://streamnative.io/
+[2]: https://docs.streamnative.io/docs/cloud-metrics-api#metrics-endpoint
+[3]: https://console.streamnative.cloud/
+[4]: https://docs.streamnative.io/docs/cloud-metrics-api#metrics-authorization
+[5]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/supabase.md b/content/es/integrations/supabase.md
new file mode 100644
index 0000000000000..f72b65d498c61
--- /dev/null
+++ b/content/es/integrations/supabase.md
@@ -0,0 +1,182 @@
+---
+app_id: supabase
+app_uuid: f22fec2a-ff0a-4380-8ddf-3348f1e7ff15
+assets:
+ dashboards:
+ Supabase Overview: assets/dashboards/supabase_overview.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ metrics:
+ check: supabase.pg.up
+ metadata_path: metadata.csv
+ prefix: supabase.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 34976974
+ source_type_name: Supabase
+ monitors:
+ High RAM Usage: assets/monitors/ram_usage.json
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- métricas
+- Kubernetes
+- seguridad
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/supabase/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: supabase
+integration_id: supabase
+integration_title: Supabase
+integration_version: 1.1.1
+is_public: true
+manifest_version: 2.0.0
+name: supabase
+public_title: Supabase
+short_description: Monitorizar la salud y el rendimiento de Supabase
+supported_os:
+- linux
+- Windows
+- macOS
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::Windows
+ - Supported OS::macOS
+ - Category::Metrics
+ - Category::Kubernetes
+ - Category::Security
+ - Submitted Data Type::Metrics
+ - Offering::Integration
+ configuration: README.md#Setup
+ description: Monitorizar la salud y el rendimiento de Supabase
+ media: []
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Supabase
+---
+
+
+
+
+## Información general
+
+Este check monitoriza [Supabase][1] a través del Datadog Agent.
+
+## Configuración
+
+Sigue las siguientes instrucciones para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones.
+
+### Instalación
+
+A partir de la versión 7.62.0 del Agent, el check de Supabase se incluye en el paquete del Datadog Agent. No es necesaria ninguna instalación adicional en tu entorno.
+
+Este check utiliza OpenMetrics para recopilar métricas del endpoint de OpenMetrics expuesto por Supabase, que requiere Python v3.
+
+### Configuración
+
+La plataforma Supabase viene con un endpoint de métricas compatible con Prometheus, fácilmente accesible en el endpoint de `metrics` de tu proyecto: `https://.supabase.co/customer/v1/privileged/metrics`. El acceso al endpoint está asegurado mediante HTTP Basic Auth. El `username` es `service_role`, mientras que el `password` es el token web JSON (JWT) del rol del servicio disponible en el dashboard de Supabase.
+
+```yaml
+## All options defined here are available to all instances.
+#
+init_config:
+
+instances:
+
+ # The endpoint exposing Supabase customer metrics
+ #
+ - privileged_metrics_endpoint: https://.supabase.co/customer/v1/privileged/metrics
+
+ ## @param username - string - optional
+ ## The username to use if services are behind basic or digest auth.
+ #
+ username: service_role
+
+ ## @param password - string - optional
+ ## The password to use if services are behind basic or NTLM auth.
+ #
+ password:
+```
+
+También viene con una base de datos Postgres alojada. Para una integración con el Agent, es necesario [preparar Postgres][3] y luego proporcionar la configuración de la base de datos a la configuración de la integración.
+```yaml
+## All options defined here are available to all instances.
+#
+init_config:
+
+instances:
+
+ ## @param host - string - required
+ ## The hostname to connect to.
+ #
+ - host:
+
+ ## @param port - integer - optional - default: 5432
+ ## The port to use when connecting to PostgreSQL.
+ #
+ port: 6543
+
+ ## @param username - string - required
+ ## The Datadog username created to connect to PostgreSQL.
+ #
+ username: datadog.
+
+ ## @param password - string - optional
+ ## The password associated with the Datadog user.
+ #
+ password:
+
+ ## @param dbname - string - optional - default: postgres
+ ## The name of the PostgreSQL database to monitor.
+ ## Note: If omitted, the default system Postgres database is queried.
+ #
+ dbname:
+```
+
+[Supabase Storage][4] viene con un endpoint de métricas compatible con Prometheus, fácilmente accesible en `/metrics` en el puerto `5000`. Para que el Agent comience a recopilar métricas, el contenedor Supabase Storage necesita ser anotado. Para obtener más información sobre las anotaciones, consulta las [plantillas de integración de Autodiscovery][2] como guía. Puedes encontrar opciones adicionales de configuración consultando el [supabase.d/conf.yaml de ejemplo][5].
+
+Nota: La integración con Supabase Storage solo está disponible en la arquitectura autoalojada. `storage_api_endpoint` debe configurarse en la localización donde se exponen las métricas con formato Prometheus. El puerto por defecto es `5000`. En entornos contenedorizados, se debe utilizar `%%host%%` para la [detección automática de hosts][2].
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][6] y busca `supabase` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "supabase" >}}
+
+
+### Eventos
+
+La integración Supabase no incluye eventos.
+
+### Checks de servicio
+{{< get-service-checks-from-git "supabase" >}}
+
+
+## Solucionar problemas
+
+¿Necesitas ayuda? [Consulta el servicio de asistencia de Datadog][9].
+
+
+[1]: https://supabase.com/docs
+[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/
+[3]: https://docs.datadoghq.com/es/integrations/postgres/?tab=host#prepare-postgres
+[4]: https://github.com/supabase/storage/tree/master
+[5]: https://github.com/DataDog/integrations-core/blob/master/supabase/datadog_checks/supabase/data/conf.yaml.example
+[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[7]: https://github.com/DataDog/integrations-core/blob/master/supabase/metadata.csv
+[8]: https://github.com/DataDog/integrations-core/blob/master/supabase/assets/service_checks.json
+[9]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/temporal.md b/content/es/integrations/temporal.md
new file mode 100644
index 0000000000000..59e15e9326b79
--- /dev/null
+++ b/content/es/integrations/temporal.md
@@ -0,0 +1,249 @@
+---
+app_id: temporal
+app_uuid: 6fbb6b85-e9f0-4d0e-af82-3c82871b857c
+assets:
+ dashboards:
+ Temporal Server Overview: assets/dashboards/server_overview.json
+ integration:
+ auto_install: true
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ metrics:
+ check: temporal.server.task.requests.count
+ metadata_path: metadata.csv
+ prefix: temporal.
+ process_signatures:
+ - temporal-server
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 10337
+ source_type_name: Temporal
+ monitors:
+ Frontend latency is elevated: assets/monitors/FrontendLatency.json
+ History Service latency is elevated: assets/monitors/HistoryLatency.json
+ Matching Service latency is elevated: assets/monitors/MatchingLatency.json
+ Persistence latency is elevated: assets/monitors/PersistenceLatency.json
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- recopilación de logs
+- herramientas de desarrollo
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/temporal/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: temporal
+integration_id: temporal
+integration_title: Temporal
+integration_version: 3.2.0
+is_public: true
+manifest_version: 2.0.0
+name: temporal
+public_title: Temporal
+short_description: Monitoriza la salud y el rendimiento del clúster de Temporal.
+supported_os:
+- linux
+- windows
+- macOS
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Sistema operativo compatible::Linux
+ - Sistema operativo compatible::Windows
+ - Sistema operativo compatible::macOS
+ - Categoría::Recopilación de logs
+ - Categoría::Herramientas de desarrollo
+ - Tipo de datos enviados::Métricas
+ - Tipo de datos enviados::Logs
+ - Oferta::Integración
+ configuration: README.md#Configuración
+ description: Monitoriza la salud y el rendimiento del clúster de Temporal.
+ media: []
+ overview: README.md#Información general
+ resources:
+ - resource_type: Blog
+ url: https://www.datadoghq.com/blog/temporal-server-integration/
+ support: README.md#Soporte
+ title: Temporal
+---
+
+
+
+
+## Información general
+
+Este check monitoriza [Temporal][1] a través del Datadog Agent.
+
+**Nota**: Este check solo puede instalarse si autoalojas Temporal. **Para monitorizar tu instancia de Temporal Cloud**, consulta la [documentación de la integración Datadog Temporal Cloud][2].
+
+## Configuración
+
+Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][3] para obtener orientación sobre la aplicación de estas instrucciones.
+
+### Instalación
+
+El check de Temporal está incluido en el paquete del [Datadog Agent][4].
+No es necesaria ninguna instalación adicional en tu servidor.
+
+### Configuración
+
+{{< tabs >}}
+{{% tab "Host" %}}
+
+#### Host
+
+##### Recopilación de métricas
+
+1. Configura tus servicios Temporal para exponer métricas a través de un endpoint `prometheus` siguiendo la [documentación oficial de Temporal][1].
+
+2. Edita el archivo `temporal.d/conf.yaml` en la carpeta `conf.d/` en la raíz de tu directorio de configuración del Agent para comenzar a recopilar tus datos de rendimiento de Temporal.
+
+ Configura la opción `openmetrics_endpoint` para que coincida con las opciones `listenAddress` y `handlerPath` de configuración de tu servidor Temporal.
+
+ ```yaml
+ init_config:
+ instances:
+ - openmetrics_endpoint: /
+ ```
+
+ Ten en cuenta que cuando los servicios Temporal de un clúster se despliegan de forma independiente, cada servicio expone sus propias métricas. Como resultado, es necesario configurar el endpoint `prometheus` para cada servicio que quieras monitorizar y definir una `instance` separada en la configuración de la integración para cada uno de ellos.
+
+##### Recopilación de logs
+
+1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en tu archivo `datadog.yaml`:
+
+ ```yaml
+ logs_enabled: true
+ ```
+
+2. Configura tu clúster de Temporal para que envíe logs a un archivo. Para ello consulta la [documentación oficial][2].
+
+3. Descomenta y edita el bloque de configuración de logs en tu archivo `temporal.d/conf.yaml` y configura la `path` para que apunte al archivo que configuraste en tu clúster de Temporal:
+
+ ```yaml
+ logs:
+ - type: file
+ path: /var/log/temporal/temporal-server.log
+ source: temporal
+ ```
+
+4. [Reinicia el Agent][3].
+
+[1]: https://docs.temporal.io/references/configuration#prometheus
+[2]: https://docs.temporal.io/references/configuration#log
+[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+{{% /tab %}}
+
+{{% tab "Contenedorizado" %}}
+
+#### Contenedores
+
+##### Recopilación de métricas
+
+Para entornos contenedorizados, consulta [Configurar integraciones con Autodiscovery en Kubernetes][1] o [Configurar integraciones con Autodiscovery en Docker][2] para obtener instrucciones sobre el uso de los parámetros a continuación. Consulta el [temporal.d/conf.yaml de ejemplo][3] para ver todas las opciones de configuración disponibles.
+
+| Parámetro | Valor |
+| -------------------- | ------------------------------------ |
+| `` | `temporal` |
+| `` | en blanco o `{}` |
+| `` | `{"openmetrics_endpoint": "/"}`, donde `` y `` se sustituyen por `listenAddress` y `handlerPath` de la configuración de tu servidor Temporal. |
+
+Ten en cuenta que cuando los servicios Temporal de un clúster se despliegan de forma independiente, cada servicio expone sus propias métricas. Como resultado, es necesario configurar el endpoint `prometheus` para cada servicio que quieras monitorizar y definir una `instance` separada en la configuración de la integración para cada uno de ellos.
+
+**Ejemplo**
+
+La siguiente anotación Kubernetes se aplica a un pod en `metadata`, donde `` es el nombre de tu contenedor Temporal (o un [identificador personalizado][4]):
+
+```
+ad.datadoghq.com/.checks: |
+ {
+ "temporal": {
+ "init_config": {},
+ "instances": [{"openmetrics_endpoint": "/"}]
+ }
+ }
+```
+
+##### Recopilación de logs
+
+La recopilación de logs está deshabilitada por defecto en el Datadog Agent. Para habilitarla, consulta [Recopilación de logs de Docker][5] o [Recopilación de logs de Kubernetes][6].
+
+Aplica el siguiente parámetro de configuración a `logs`:
+
+| Parámetro | Valor |
+| -------------- | --------------------------------------------------- |
+| `` | `{"source": "temporal", "type": "file", "path": "/var/log/temporal/temporal-server.log"}` |
+
+**Ejemplo**
+
+La siguiente anotación Kubernetes se aplica a un pod en `metadata`, donde `` es el nombre de tu contenedor Temporal (o un [identificador personalizado][4]):
+
+```
+ad.datadoghq.com/.logs: |
+ [
+ {
+ "source": "temporal",
+ "type": "file",
+ "path": "/var/log/temporal/temporal-server.log"
+ }
+ ]
+```
+
+[1]: https://docs.datadoghq.com/es/containers/kubernetes/integrations/
+[2]: https://docs.datadoghq.com/es/containers/docker/integrations/
+[3]: https://github.com/DataDog/integrations-core/blob/master/temporal/datadog_checks/temporal/data/conf.yaml.example
+[4]: https://docs.datadoghq.com/es/containers/guide/ad_identifiers/
+[5]: https://docs.datadoghq.com/es/containers/docker/log/
+[6]: https://docs.datadoghq.com/es/agent/kubernetes/log/
+{{% /tab %}}
+
+{{< /tabs >}}
+
+
+### Validación
+
+[Ejecuta el subcomando de estado del Agent][5] y busca `temporal` en la sección Checks.
+
+## Datos recopilados
+
+### Métricas
+{{< get-metrics-from-git "temporal" >}}
+
+
+### Eventos
+
+La integración Temporal no incluye eventos.
+
+### Checks de servicio
+{{< get-service-checks-from-git "temporal" >}}
+
+
+### Logs
+
+La integración Temporal puede recopilar logs del clúster de Temporal y reenviarlos a Datadog.
+
+## Solucionar problemas
+
+¿Necesitas ayuda? Ponte en contacto con [soporte técnico de Datadog][6].
+
+## Referencias adicionales
+
+Documentación útil adicional, enlaces y artículos:
+
+- [Monitorizar la salud de tu servidor Temporal con Datadog][7]
+
+
+
+[1]: https://temporal.io/
+[2]: https://docs.datadoghq.com/es/integrations/temporal_cloud/
+[3]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/
+[4]: https://app.datadoghq.com/account/settings/agent/latest
+[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information
+[6]: https://docs.datadoghq.com/es/help/
+[7]: https://www.datadoghq.com/blog/temporal-server-integration/
\ No newline at end of file
diff --git a/content/es/integrations/trend_micro_vision_one_endpoint_security.md b/content/es/integrations/trend_micro_vision_one_endpoint_security.md
new file mode 100644
index 0000000000000..bc1c8b9dd2201
--- /dev/null
+++ b/content/es/integrations/trend_micro_vision_one_endpoint_security.md
@@ -0,0 +1,150 @@
+---
+app_id: trend-micro-vision-one-endpoint-security
+app_uuid: 107091d5-4e2d-4592-b197-af848e5abf67
+assets:
+ dashboards:
+ Trend Micro Vision One Endpoint Security - Data Loss Prevention: assets/dashboards/trend_micro_vision_one_endpoint_security_data_loss_prevention.json
+ Trend Micro Vision One Endpoint Security - Network Events: assets/dashboards/trend_micro_vision_one_endpoint_security_network_events.json
+ Trend Micro Vision One Endpoint Security - Overview: assets/dashboards/trend_micro_vision_one_endpoint_security_overview.json
+ Trend Micro Vision One Endpoint Security - System Events: assets/dashboards/trend_micro_vision_one_endpoint_security_system_events.json
+ integration:
+ auto_install: false
+ events:
+ creates_events: false
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 22213943
+ source_type_name: Trend Micro Vision One Endpoint Security
+ logs:
+ source: trend-micro-vision-one-endpoint-security
+author:
+ homepage: https://www.datadoghq.com
+ name: Datadog
+ sales_email: info@datadoghq.com
+ support_email: help@datadoghq.com
+categories:
+- recopilación de logs
+- seguridad
+custom_kind: integración
+dependencies:
+- https://github.com/DataDog/integrations-core/blob/master/trend_micro_vision_one_endpoint_security/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: trend_micro_vision_one_endpoint_security
+integration_id: trend-micro-vision-one-endpoint-security
+integration_title: Trend Micro Vision One Endpoint Security
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: trend_micro_vision_one_endpoint_security
+public_title: Trend Micro Vision One Endpoint Security
+short_description: Obtener información sobre logs de Trend Micro Vision One Endpoint
+ Security
+supported_os: []
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Category::Log Collection
+ - Category::Security
+ - Offering::Integration
+ - Submitted Data Type::Logs
+ configuration: README.md#Setup
+ description: Obtener información sobre logs de Trend Micro Vision One Endpoint Security
+ media:
+ - caption: Trend Micro Vision One Endpoint Security - Información general
+ image_url: images/trend_micro_vision_one_endpoint_security_overview.png
+ media_type: imagen
+ - caption: Trend Micro Vision One Endpoint Security - Eventos de sistema
+ image_url: images/trend_micro_vision_one_endpoint_security_system_events.png
+ media_type: imagen
+ - caption: Trend Micro Vision One Endpoint Security - Eventos de red
+ image_url: images/trend_micro_vision_one_endpoint_security_network_events.png
+ media_type: imagen
+ - caption: Trend Micro Vision One Endpoint Security - Prevención de la pérdida de
+ datos
+ image_url: images/trend_micro_vision_one_endpoint_security_data_loss_prevention.png
+ media_type: imagen
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Trend Micro Vision One Endpoint Security
+---
+
+
+## Información general
+
+[Trend Micro Vision One Endpoint Security][1] es una solución basada en la nube diseñada específicamente para endpoints, servidores y cargas de trabajo en la nube.
+
+Esta integración ingiere los siguientes logs:
+
+- Application Control: Los logs de Application Control proporcionan información sobre las infracciones de control de las aplicaciones de tu red, como las infracciones de la política y los criterios de Security Agent
+- Attack Discovery: Los logs de detección de ataques proporcionan información sobre las amenazas detectadas por Attack Discovery
+- Behavior Monitoring: Los logs de Behavior Monitoring proporcionan información sobre eventos de monitorización de comportamientos en tu red
+- C&C Callback: Los logs de C&C callback proporcionan información sobre eventos de llamadas C&C detectados en tu red
+- Content Violation: Los logs de Content Violation proporcionan información sobre los mensajes de correo electrónico con infracciones del contenido, como el producto gestionado que detectó la infracción del contenido, el/los remitente(s) y el/los destinatario(s) del mensaje de correo electrónico, el nombre de la política de infracción del contenido y el número total de infracciones detectadas
+- Data Loss Prevention: Los logs de Data Loss Prevention proporcionan información sobre las incidencias detectadas por Data Loss Prevention
+- Device Control: Los logs de Device Control proporcionan información sobre eventos de control del acceso a dispositivos en tu red
+- Intrusion Prevention: Los logs de Intrusion Prevention proporcionan información para ayudarte a lograr una protección oportuna contra ataques conocidos y de día cero, defenderte contra las vulnerabilidades de las aplicaciones web e identificar el software malicioso que accede a la red
+- Network Content Inspection: Los logs de Network Content Inspection proporcionan información sobre infracciones del contenido de red en tu red
+- Predictive Machine Learning: Los logs de Predictive Machine Learning proporcionan información sobre amenazas desconocidas avanzadas detectadas por Predictive Machine Learning
+- Spyware/Grayware: Los logs de Spyware/Grayware proporcionan información sobre detecciones de spyware/grayware en tu red, como el producto gestionado que detectó el spyware/grayware, el nombre del spyware/grayware y el nombre del endpoint infectado
+- Suspicious File Information: Los logs de Suspicious File Information proporcionan información sobre archivos sospechosos detectados en tu red
+- Virtual Analyzer Detections: Los logs de Virtual Analyzer Detections proporcionan información sobre amenazas desconocidas avanzadas detectadas por Virtual Analyzer
+- Virus/Malware: Los logs de Virus/Malware proporcionan información sobre las detecciones de virus/malware en tu red, como el producto gestionado que detectó los virus/malwares, el nombre del virus/malware y el endpoint infectado
+- Web Violation: Los logs de Web Violation proporcionan información sobre infracciones web en tu red
+
+Utiliza dashboards predefinidos para obtener información detallada sobre los eventos del sistema, eventos de red y eventos de prevención de pérdida de datos, sobre la detección y observación de la seguridad y sobre la monitorización del cumplimiento.
+
+## Configuración
+
+### Generar credentiales API en Trend Micro Vision One Endpoint Security
+
+1. Inicia sesión en la consola de Trend Micro Vision One.
+2. Ve a **Endpoint Security** (barra lateral) > **Standard Endpoint Protection** > **Administration** > **Settings** > **Automation API Access Settings** (Seguridad del endpoint > Protección de endpoints estándar > Administración > Configuración > Configuración de la automatización de acceso a la API).
+3. Haz clic en **Add** (Añadir).
Aparece la sección Application Access Settings (Configuración de acceso a la aplicación), que muestra la siguiente información:
+ 1. **API URL** (URL DE LA API): Host de la API de la consola de Trend Micro Vision One Endpoint Security.
+ 2. **Application ID** (ID de aplicación): ID de aplicación de la consola de Trend Micro Vision One Endpoint Security.
+ 3. **API key** (Clave de API): Clave de API de la consola de Trend Micro Vision One Endpoint Security.
+4. Marca la casilla **Enable application integration using Apex Central Automation APIs** (Habilitar la integración de aplicaciones mediante las API de Apex Central Automation).
+5. Configura los siguientes parámetros.
+ 1. **Application name** (Nombre de la aplicación): Especifica un nombre fácilmente identificable para la aplicación.
+ 2. **Communication time-out** (Tiempo de espera de la comunicación): Selecciona 120 segundos para que una solicitud llegue a Apex Central después de que la aplicación genere la solicitud.
+6. Haz clic en **Save** (Guardar).
+
+### Obtener la zona horaria de la consola de Trend Micro Vision One
+
+1. Inicia sesión en la consola de Trend Micro Vision One.
+2. Ve a **Administration** (barra lateral) > **Console Settings** > **Time Zone** (Administración > Configuración de la consola > Zona horaria).
+3. Marca la **zona horaria** a partir de la **hora actual de la consola**.
+
+### Conecta tu cuenta de Trend Micro Vision One Endpoint Security a Datadog.
+
+1. Añade tu host de API, ID de aplicación y clave de API, y selecciona la zona horaria en el menú desplegable.
+ | Parámetros | Descripción |
+ | -------------- | ----------------------------------------------------------------------- |
+ | Host de API | Host de API de la consola de Trend Micro Vision One Endpoint Security. |
+ | ID de aplicación | ID de aplicación de la consola de Trend Micro Vision One Endpoint Security. |
+ | Clave de API | Clave API de la consola de Trend Micro Vision One Endpoint Security. |
+ | Zona horaria | Zona horaria de la consola Trend Micro Vision One. |
+
+2. Haz clic en el botón **Save** (Guardar) para guardar la configuración.
+
+## Datos recopilados
+
+### Logs
+
+La integración Trend Micro Vision One Endpoint Security recopila y reenvía eventos de seguridad, incluyendo eventos de sistema, eventos de red y eventos de prevención de pérdida de datos a Datadog.
+
+### Métricas
+
+La integración Trend Micro Vision One Endpoint Security no incluye métricas.
+
+### Eventos
+
+La integración Trend Micro Vision One Endpoint Security no incluye eventos.
+
+## Ayuda
+
+Si necesitas más ayuda, ponte en contacto con el [servicio de asistencia de Datadog][2].
+
+[1]: https://www.trendmicro.com/en_in/business/products/endpoint-security.html
+[2]: https://docs.datadoghq.com/es/help/
\ No newline at end of file
diff --git a/content/es/integrations/wiz.md b/content/es/integrations/wiz.md
index 7ae8528663360..a43b9c482cc6d 100644
--- a/content/es/integrations/wiz.md
+++ b/content/es/integrations/wiz.md
@@ -61,32 +61,32 @@ tile:
## Información general
-Datadog's integración con Wiz le permite ingestar tanto la auditoría log como los problemas (incluyendo amenazas y combinaciones tóxicas) en Datadog [Cloud SIEM][1] utilizando la API de Wiz.
+La integración de Datadog con Wiz te permite ingerir tanto logs de auditoría como los problemas (incluyendo amenazas y combinaciones tóxicas) en Datadog [Cloud SIEM][1] utilizando la API de Wiz.
-## loguear Tipos recogidos
+## Tipos de logs recopilados
### Logs de auditoría
-Acciones realizadas por los miembros del equipo, actividad de los informes y actualizaciones de las emisiones. Útil para detectar actividades inusuales y apoyar las investigaciones.
+Acciones realizadas por los miembros del equipo, actividad de los informes y actualizaciones de los problemas. Útil para detectar actividades inusuales y apoyar las investigaciones.
### Problemas
-log de combinaciones tóxicas y desconfiguraciones en su nube infraestructura.
+Logs de combinaciones tóxicas y errores de configuración en tu infraestructura en la nube.
## Configuración
## Configuración
-### Auditoría log (basada en Pull utilizando Wiz API)
+### Logs de auditoría (basados en Pull utilizando la API de Wiz)
#### Requisitos previos
-- Acceso a un inquilino Wiz con permiso para crear cuentas servicio.
+- Acceso a un inquilino de Wiz con permiso para crear cuentas de servicio.
#### Paso 1: Añadir una nueva cuenta en Datadog
-1. En la siguiente tabla, haga clic en **Añadir nuevo**.
-2. Introduzca un único **Datadog Nombre de cuenta**.
+1. En la siguiente tabla, haz clic en **Add New** (Añadir nuevo).
+2. Introduce un único **Datadog Account Name** (Nombre de cuenta de Datadog).
3. Pega la URL del token de Wiz:
```
https://auth.app.wiz.io/oauth/token
@@ -94,61 +94,61 @@ log de combinaciones tóxicas y desconfiguraciones en su nube infraestructura.
#### Paso 2: Introducir la URL de consulta
-Wiz utiliza un punto final GraphQL unificado:
+Wiz utiliza un endpoint de GraphQL unificado:
```
https://api..app.wiz.io/graphql
```
-Sustituya `` por su región real (por ejemplo, us1, eu1, etc.).
+Sustituye `` por tu región real (por ejemplo, us1, eu1, etc.).
-Para encontrar tu punto final:
+Para encontrar tu endpoint:
-1. [loguear en][2] a Wiz.
-2. Vaya a **Configuración del usuario**.
-3. Haga clic en **Inquilino** en el menú de la izquierda.
-4. Copie su punto final de API.
+1. [Inicia sesión en][2] a Wiz.
+2. Ve a **User Settings** (Configuración del usuario).
+3. Haz clic en **Tenant** (Inquilino) en el menú de la izquierda.
+4. Copia tu endpoint de API.
#### Paso 3: Crear una cuenta servicio en Wiz
-1. Vaya a **Configuración** > **Gestión de acceso** > **servicio Cuentas**.
-2. Haga clic en **Añadir cuenta servicio **.
+1. Ve a **Settings** > **Access Management** > **Service Accounts** (Configuración > Gestión de acceso > Cuentas de servicio).
+2. Haz clic en **Add Service Account** (Añadir cuenta de servicio).
3. Rellena:
- - **Nombre**: Por ejemplo, `Datadog integración`
- - **Tipo**: Personalizado integración (GraphQL API)
- - **API contexto**: `admin:audit`, `read:issues`
-4. Guarde la cuenta y copie el **ID de cliente** y el **Secreto de cliente** en la tabla siguiente.
+ - **Name** (Nombre): por ejemplo, `Datadog Integration`
+ - **Type** (Tipo): integración personalizada (API de GraphQL)
+ - **API Scopes** (Contextos de API): `admin:audit`, `read:issues`
+4. Guarda la cuenta y copia el **Client ID** y **Client Secret** (ID de cliente y Secreto de cliente) en la tabla siguiente.
-**NOTA**: Auditoría log se extraen en cada 12 horas por Wiz requisitos de la API.
+**NOTA**: Los logs de auditoría se extraen cada 12 horas por requisitos de la API de Wiz.
-### Emisiones (basadas en Push mediante webhooks)
+### Problemass (basados en Push mediante webhooks)
-Wiz envía datos de incidencias a Datadog mediante webhooks basados en push.
+Wiz envía datos de problemas a Datadog mediante webhooks basados en push.
-#### Paso 1: Genere su URL de entrada
+#### Paso 1: Generar tu URL de entrada
-1. En Datadog, genere una URL de admisión utilizando una clave API existente o nueva.
-2. Haga clic en **Copiar URL de admisión**.
+1. En Datadog, genera una URL de entrada utilizando una clave de API existente o nueva.
+2. Haz clic en **Copy Intake URL** (Copiar URL de entrada).
#### Paso 2: Configurar el webhook en Wiz
-1. Vaya a **Configuración** > **integraciones** > **Webhooks** en Wiz.
-2. Cree un nuevo webhook para Datadog.
-3. Pegue la URL de entrada de Datadog en el webhook Configuración.
+1. Ve a **Settings** > **Integrations** > **Webhooks** (Configuración > Integraciones > Webhooks) en Wiz.
+2. Crea un nuevo webhook para Datadog.
+3. Pega la URL de entrada de Datadog en la configuración del webhook.
-Para más información sobre los formatos webhook de Wiz, véase:
+Para más información sobre los formatos de webhook de Wiz, consulta:
-- [Wiz Issues Webhook Docs][3]
-- [Panorama de los problemas del mago][4]
+- [Documentos de problemas del webhook en Wiz][3]
+- [Información general de los problemas de Wiz][4]
## Validación
Después de la configuración:
-1. Vaya a **log Explorer** en Datadog.
-2. Búsqueda con `source:wiz`.
-3. Si tiene éxito, aparece Wiz log.
-4. Si no es así, vaya a **log** > **Indexes** y verifique que tiene un loguear índice para `source:wiz*`.
+1. Ve al **Log Explorer** en Datadog.
+2. Busca `source:wiz`.
+3. Si tienes éxito, aparece el log de Wiz.
+4. Si no es así, ve a **Logs** > **Indexes** (Logs > Índices) y verifica que tienes un índice de log para `source:wiz*`.
### Datos recopilados
@@ -170,7 +170,7 @@ La integración Wiz recopila logs y problemas de auditoría.
## Solucionar problemas
-¿Necesita ayuda? Ponte en contacto con [Datadog support][5] o [Wiz support][6].
+¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][5] o el [soporte de Wiz][6].
[1]: https://app.datadoghq.com/security/home
[2]: https://app.wiz.io/login
diff --git a/content/es/metrics/composite_metrics_queries.md b/content/es/metrics/composite_metrics_queries.md
index 29e5b246e904e..3138a8cceb916 100644
--- a/content/es/metrics/composite_metrics_queries.md
+++ b/content/es/metrics/composite_metrics_queries.md
@@ -8,10 +8,6 @@ title: Consultas de métricas compuestas
## Información general
-{{< callout url="#" btn_hidden="true" >}}
-Esta función está en vista previa. Para activar esta función, ponte en contacto con tu asesor de clientes.
-{{< /callout >}}
-
Las consultas de métricas compuestas aumentan las capacidades de monitorización y de análisis, ya que permiten el etiquetado dinámico de métricas en el momento de la consulta. Esto simplifica el proceso de añadir nuevas etiquetas (tags) a tus métricas y no requiere cambios en el código. Utiliza las consultas de métricas compuestas para obtener información más significativa y práctica de tus datos de métricas.
Con el uso de las consultas de métricas compuestas puedes lograr lo siguiente:
@@ -20,7 +16,7 @@ Con el uso de las consultas de métricas compuestas puedes lograr lo siguiente:
- **Simplificar la resolución de problemas**. Los alias adaptan los valores de las etiquetas (por ejemplo, ID o códigos) y los vuelven legibles por humanos, lo que reduce el esfuerzo cognitivo y el tiempo de resolución.
{{< img src="metrics/nested_queries/composite_metrics_queries/composite_metric_query_example.mp4" alt="Configurar consultas de métricas compuestas en la interfaz de usuario" video=true style="width:100%" >}}
-## Configuración
+## Configuración
1. Crea cualquier consulta de métrica con [agregación espacial][2] (se seleccionan una o más etiquetas con las que agrupar).
2. Selecciona el botón **Join** (Unir) (junto al botón **Formulas** (Fórmulas)), como se muestra a continuación:
diff --git a/content/es/observability_pipelines/set_up_pipelines/archive_logs/splunk_tcp.md b/content/es/observability_pipelines/set_up_pipelines/archive_logs/splunk_tcp.md
index 7056365819a29..ba365369072ff 100644
--- a/content/es/observability_pipelines/set_up_pipelines/archive_logs/splunk_tcp.md
+++ b/content/es/observability_pipelines/set_up_pipelines/archive_logs/splunk_tcp.md
@@ -7,7 +7,7 @@ title: Archivar logs para Splunk Heavy o Universal Forwarders (TCP)
## Información general
-Configura tu Splunk Heavy y Universal Forwarder para que el worker de Observability Pipelines formatee los logs recopilados en un formato rehidratable de Datadog antes de enrutarlos a los archivos de logs de Datadog.
+Configura tu Splunk Heavy y Universal Forwarder para que el Observability Pipelines Worker formatee los logs recopilados en un formato rehidratable de Datadog antes de enrutarlos a los archivos de logs de Datadog.
{{% observability_pipelines/use_case_images/archive_logs %}}
@@ -15,7 +15,7 @@ Este documento te guiará a través de los siguientes pasos:
1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines
1. [Configuración de un archivo de logs](#configure-a-log-archive)
1. [Configuración de Observability Pipelines](#set-up-observability-pipelines)
-1. [Conectar Splunk Forwarder al worker de Observability Pipelines](#connect-splunk-forwarder-to-the-observability-pipelines-worker)
+1. [Conectar Splunk Forwarder al Observability Pipelines Worker](#connect-splunk-forwarder-to-the-observability-pipelines-worker)
## Requisitos previos
@@ -72,7 +72,7 @@ Selecciona el proveedor de la nube que utilizas para archivar tus logs.
## Configurar Observability Pipelines
-1. Navega hasta [Observability Pipelines][4].
+1. Ve a [Observability Pipelines][4].
1. Selecciona la plantilla **Archive Logs** (Archivar logs) para crear un nuevo pipeline.
1. Selecciona **Splunk TCP** como el origen.
@@ -82,10 +82,41 @@ Selecciona el proveedor de la nube que utilizas para archivar tus logs.
### Configurar los destinos
-Introduce la siguiente información en función del destino de logs seleccionado.
+Introduce la siguiente información en función de los destinos de logs seleccionados.
{{< tabs >}}
-{{% tab "Archivos de Datadog" %}}
+{{% tab "Amazon OpenSearch" %}}
+
+{{% observability_pipelines/destination_settings/amazon_opensearch %}}
+
+{{% /tab %}}
+{{% tab "Amazon Security Lake" %}}
+
+##### Requisitos previos
+
+{{% observability_pipelines/prerequisites/amazon_security_lake %}}
+
+##### Configurar el destino
+
+{{% observability_pipelines/destination_settings/amazon_security_lake %}}
+
+{{% /tab %}}
+{{% tab "Chronicle" %}}
+
+{{% observability_pipelines/destination_settings/chronicle %}}
+
+{{% /tab %}}
+{{% tab "CrowdStrike NG-SIEM" %}}
+
+{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}}
+
+{{% /tab %}}
+{{% tab "Datadog" %}}
+
+{{% observability_pipelines/destination_settings/datadog %}}
+
+{{% /tab %}}
+{{% tab "Datadog Archives" %}}
{{% observability_pipelines/destination_settings/datadog_archives_note %}}
@@ -108,53 +139,57 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs.
{{% /collapse-content %}}
{{% /tab %}}
-{{% tab "Datadog" %}}
+{{% tab "Elasticsearch" %}}
-{{% observability_pipelines/destination_settings/datadog %}}
+{{% observability_pipelines/destination_settings/elasticsearch %}}
{{% /tab %}}
-{{% tab "Splunk HEC" %}}
+{{% tab "Microsoft Sentinel" %}}
-{{% observability_pipelines/destination_settings/splunk_hec %}}
+{{% observability_pipelines/destination_settings/microsoft_sentinel %}}
{{% /tab %}}
-{{% tab "Sumo Logic" %}}
+{{% tab "New Relic" %}}
-{{% observability_pipelines/destination_settings/sumo_logic %}}
+{{% observability_pipelines/destination_settings/new_relic %}}
{{% /tab %}}
-{{% tab "Syslog" %}}
+{{% tab "OpenSearch" %}}
-{{% observability_pipelines/destination_settings/syslog %}}
+{{% observability_pipelines/destination_settings/opensearch %}}
{{% /tab %}}
-{{% tab "Chronicle" %}}
+{{% tab "SentinelOne" %}}
-{{% observability_pipelines/destination_settings/chronicle %}}
+{{% observability_pipelines/destination_settings/sentinelone %}}
{{% /tab %}}
-{{% tab "Elasticsearch" %}}
+{{% tab "Socket" %}}
-{{% observability_pipelines/destination_settings/elasticsearch %}}
+{{% observability_pipelines/destination_settings/socket %}}
{{% /tab %}}
-{{% tab "OpenSearch" %}}
+{{% tab "Splunk HEC" %}}
-{{% observability_pipelines/destination_settings/opensearch %}}
+{{% observability_pipelines/destination_settings/splunk_hec %}}
{{% /tab %}}
-{{% tab "Amazon OpenSearch" %}}
+{{% tab "Sumo Logic" %}}
-{{% observability_pipelines/destination_settings/amazon_opensearch %}}
+{{% observability_pipelines/destination_settings/sumo_logic %}}
{{% /tab %}}
-{{% tab "New Relic" %}}
+{{% tab "Syslog" %}}
-{{% observability_pipelines/destination_settings/new_relic %}}
+{{% observability_pipelines/destination_settings/syslog %}}
{{% /tab %}}
{{< /tabs >}}
+#### Añadir destinos adicionales
+
+{{% observability_pipelines/multiple_destinations %}}
+
### Configurar procesadores
{{% observability_pipelines/processors/intro %}}
@@ -164,79 +199,165 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs.
{{% observability_pipelines/processors/add_processors %}}
{{< tabs >}}
-{{% tab "Filtro" %}}
+{{% tab "Añadir variables de entorno" %}}
-{{% observability_pipelines/processors/filter %}}
+{{% observability_pipelines/processors/add_env_vars %}}
{{% /tab %}}
-{{% tab "Editar campos" %}}
+{{% tab "Add hostname" %}}
+
+{{% observability_pipelines/processors/add_hostname %}}
+
+{{% /tab %}}
+{{% tab "Procesador personalizado" %}}
+
+{{% observability_pipelines/processors/custom_processor %}}
+
+{{% /tab %}}
+{{% tab "Dedupe" %}}
+
+{{% observability_pipelines/processors/dedupe %}}
+
+{{% /pestaña %}}
+{{% pestaña "Editar campos" %}}
{{% observability_pipelines/processors/remap %}}
{{% /tab %}}
-{{% tab "Muestra" %}}
+{{% tab "Tabla de enriquecimiento" %}}
-{{% observability_pipelines/processors/sample %}}
+{{% observability_pipelines/processors/enrichment_table %}}
+
+{{% /tab %}}
+{{% tab "Filtro" %}}
+
+{{% observability_pipelines/processors/filter %}}
+
+{{% /tab %}}
+{{% tab "Generar métricas" %}}
+
+{{% observability_pipelines/processors/generate_metrics %}}
{{% /tab %}}
{{% tab "Grok Parser" %}}
{{% observability_pipelines/processors/grok_parser %}}
+{{% /tab %}}
+{{% tab "Parse JSON" %}}
+
+{{% observability_pipelines/processors/parse_json %}}
+
+{{% /tab %}}
+{{% tab "Analizar XML" %}}
+
+{{% observability_pipelines/processors/parse_xml %}}
+
{{% /tab %}}
{{% tab "Cuota" %}}
{{% observability_pipelines/processors/quota %}}
{{% /tab %}}
-{{% tab "Reducir" %}}
+{{% tab "Reduce" %}}
{{% observability_pipelines/processors/reduce %}}
{{% /tab %}}
-{{% tab "Dedupe" %}}
+{{% tab "Reasignar a OCSF" %}}
-{{% observability_pipelines/processors/dedupe %}}
+{{% observability_pipelines/processors/remap_ocsf %}}
+
+{{% collapse-content title="Asignación de bibliotecas" level="h5" expanded=false id="library_mapping" %}}
+
+{{% observability_pipelines/processors/remap_ocsf_library_mapping %}}
+
+{{% /collapse-content %}}
+
+{{% collapse-content title="Asignación personalizada" level="h5" expanded=false id="custom_mapping" %}}
+
+{{% observability_pipelines/processors/remap_ocsf_custom_mapping %}}
+
+{{% /collapse-content %}}
+
+{{% observability_pipelines/processors/filter_syntax %}}
+
+{{% /tab %}}
+{{% tab "Muestra" %}}
+
+{{% observability_pipelines/processors/sample %}}
{{% /tab %}}
{{% tab "Sensitive Data Scanner" %}}
{{% observability_pipelines/processors/sensitive_data_scanner %}}
-{{% /tab %}}
-{{% tab "Añadir nombre de host" %}}
+{{% collapse-content title="Añadir reglas de la biblioteca" level="h5" %}}
-{{% observability_pipelines/processors/add_hostname %}}
+{{% observability_pipelines/processors/sds_library_rules %}}
-{{% /tab %}}
-{{% tab "Parse JSON" %}}
+{{% /collapse-content %}}
+{{% collapse-content title="Añadir una regla personalizada" level="h5" %}}
-{{% observability_pipelines/processors/parse_json %}}
+{{% observability_pipelines/processors/sds_custom_rules %}}
+
+{{% /collapse-content %}}
{{% /tab %}}
-{{% tab "Tabla de enriquecimiento" %}}
+{{% tab "Dividir matriz" %}}
-{{% observability_pipelines/processors/enrichment_table %}}
+{{% observability_pipelines/processors/split_array %}}
{{% /tab %}}
-{{% tab "Generar métricas" %}}
+{{% tab "Procesador de etiquetas" %}}
-{{% observability_pipelines/processors/generate_metrics %}}
+{{% observability_pipelines/processors/tags_processor %}}
{{% /tab %}}
-{{% tab "Añadir variables de entorno" %}}
+{{% tab "Limitar" %}}
-{{% observability_pipelines/processors/add_env_vars %}}
+{{% observability_pipelines/processors/throttle %}}
{{% /tab %}}
{{< /tabs >}}
-### Instalar el worker de Observability Pipelines
-1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación).
-1. Introduce la dirección Splunk TCP. Esta es la dirección y el puerto donde tus aplicaciones están enviando sus datos de registro. El worker de Observability Pipelines escucha esta dirección para los logs entrantes.
-1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta los [requisitos previos](#prerequisites).
+#### Añadir otro conjunto de procesadores y destinos
+
+{{% observability_pipelines/multiple_processors %}}
+
+### Instalar el Observability Pipelines Worker
+1. Selecciona tu plataforma en el menú desplegable **Elige tu plataforma de instalación**.
+1. Introduce la dirección Splunk TCP. Esta es la dirección y el puerto donde tus aplicaciones están enviando sus datos de registro. El Observability Pipelines Worker escucha esta dirección para los logs entrantes.
+1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta [Requisitos previos](#prerequisites).
{{< tabs >}}
-{{% tab "Archivos de Datadog" %}}
+{{% tab "Amazon OpenSearch" %}}
+
+{{% observability_pipelines/destination_env_vars/amazon_opensearch %}}
+
+{{% /tab %}}
+{{% tab "Amazon Security Lake" %}}
+
+{{% observability_pipelines/destination_env_vars/amazon_security_lake %}}
+
+{{% /tab %}}
+{{% tab "Chronicle" %}}
+
+{{% observability_pipelines/destination_env_vars/chronicle %}}
+
+{{% /tab %}}
+{{% tab "CrowdStrike NG-SIEM" %}}
+
+{{% observability_pipelines/destination_env_vars/crowdstrike_ng_siem %}}
+
+{{% /tab %}}
+{{% tab "Datadog" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog %}}
+
+{{% /tab %}}
+{{% tab "Datadog Archives" %}}
+
+Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de la nube que utilices para archivar tus logs.
{{% collapse-content title="Amazon S3" level="h5" %}}
@@ -255,53 +376,53 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs.
{{% /collapse-content %}}
{{% /tab %}}
-{{% tab "Datadog" %}}
+{{% tab "Elasticsearch" %}}
-{{% observability_pipelines/destination_env_vars/datadog %}}
+{{% observability_pipelines/destination_env_vars/elasticsearch %}}
{{% /tab %}}
-{{% tab "Splunk HEC" %}}
+{{% tab "Microsoft Sentinel" %}}
-{{% observability_pipelines/destination_env_vars/splunk_hec %}}
+{{% observability_pipelines/destination_env_vars/microsoft_sentinel %}}
{{% /tab %}}
-{{% tab "Sumo Logic" %}}
+{{% tab "New Relic" %}}
-{{% observability_pipelines/destination_env_vars/sumo_logic %}}
+{{% observability_pipelines/destination_env_vars/new_relic %}}
{{% /tab %}}
-{{% tab "Syslog" %}}
+{{% tab "OpenSearch" %}}
-{{% observability_pipelines/destination_env_vars/syslog %}}
+{{% observability_pipelines/destination_env_vars/opensearch %}}
{{% /tab %}}
-{{% tab "Chronicle" %}}
+{{% tab "SentinelOne" %}}
-{{% observability_pipelines/destination_env_vars/chronicle %}}
+{{% observability_pipelines/destination_env_vars/sentinelone %}}
{{% /tab %}}
-{{% tab "Elasticsearch" %}}
+{{% tab "Socket" %}}
-{{% observability_pipelines/destination_env_vars/elasticsearch %}}
+{{% observability_pipelines/destination_env_vars/socket %}}
{{% /tab %}}
-{{% tab "OpenSearch" %}}
+{{% tab "Splunk HEC" %}}
-{{% observability_pipelines/destination_env_vars/opensearch %}}
+{{% observability_pipelines/destination_env_vars/splunk_hec %}}
{{% /tab %}}
-{{% tab "Amazon OpenSearch" %}}
+{{% tab "Sumo Logic" %}}
-{{% observability_pipelines/destination_env_vars/amazon_opensearch %}}
+{{% observability_pipelines/destination_env_vars/sumo_logic %}}
{{% /tab %}}
-{{% tab "New Relic" %}}
+{{% tab "Syslog" %}}
-{{% observability_pipelines/destination_env_vars/new_relic %}}
+{{% observability_pipelines/destination_env_vars/syslog %}}
{{% /tab %}}
{{< /tabs >}}
-1. Sigue las instrucciones de tu entorno para instalar el worker.
+1. Sigue las instrucciones de tu entorno para instalar el Worker.
{{< tabs >}}
{{% tab "Docker" %}}
diff --git a/content/es/observability_pipelines/set_up_pipelines/dual_ship_logs/socket.md b/content/es/observability_pipelines/set_up_pipelines/dual_ship_logs/socket.md
new file mode 100644
index 0000000000000..9492ea0354d87
--- /dev/null
+++ b/content/es/observability_pipelines/set_up_pipelines/dual_ship_logs/socket.md
@@ -0,0 +1,384 @@
+---
+disable_toc: false
+title: Logs de doble envío para la fuente del socket (TCP o UDP)
+---
+
+## Información general
+
+Envía logs a través de una conexión de socket al Observability Pipelines Worker para agregarlos, procesarlos y enrutarlos a diferentes destinos.
+
+{{% observability_pipelines/use_case_images/dual_ship_logs %}}
+
+Esta guía aborda lo siguiente:
+1. [Requisitos previos](#prerequisites) para configurar Observability Pipelines
+1. [Configuración de Observability Pipelines](#set-up-observability-pipelines)
+
+## Requisitos previos
+
+{{% observability_pipelines/prerequisites/socket %}}
+
+## Configurar Observability Pipelines
+
+1. Ve a [Observability Pipelines][1].
+1. Selecciona la plantilla **Dual Ship Logs** (Envío doble de logs) para crear un pipeline nuevo.
+1. Selecciona la fuente del **Socket**.
+
+### Configurar el origen
+
+{{% observability_pipelines/source_settings/socket %}}
+
+### Configurar los destinos
+
+Introduce la siguiente información en función de los destinos de logs seleccionados.
+
+{{< tabs >}}
+{{% tab "Amazon OpenSearch" %}}
+
+{{% observability_pipelines/destination_settings/amazon_opensearch %}}
+
+{{% /tab %}}
+{{% tab "Chronicle" %}}
+
+{{% observability_pipelines/destination_settings/chronicle %}}
+
+{{% /tab %}}
+{{% tab "CrowdStrike NG-SIEM" %}}
+
+{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}}
+
+{{% /tab %}}
+{{% tab "Datadog" %}}
+
+{{% observability_pipelines/destination_settings/datadog %}}
+
+{{% /tab %}}
+{{% tab "Datadog Archives" %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_note %}}
+
+Sigue las instrucciones del proveedor de nube que usas para archivar tus logs.
+
+{{% collapse-content title="Amazon S3" level="h5" %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_amazon_s3 %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Google Cloud Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_google_cloud_storage %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Azure Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_azure_storage %}}
+
+{{% /collapse-content %}}
+
+{{% /tab %}}
+{{% tab "Elasticsearch" %}}
+
+{{% observability_pipelines/destination_settings/elasticsearch %}}
+
+{{% /tab %}}
+{{% tab "Microsoft Sentinel" %}}
+
+{{% observability_pipelines/destination_settings/microsoft_sentinel %}}
+
+{{% /tab %}}
+{{% tab "New Relic" %}}
+
+{{% observability_pipelines/destination_settings/new_relic %}}
+
+{{% /tab %}}
+{{% tab "OpenSearch" %}}
+
+{{% observability_pipelines/destination_settings/opensearch %}}
+
+{{% /tab %}}
+{{% tab "SentinelOne" %}}
+
+{{% observability_pipelines/destination_settings/sentinelone %}}
+
+{{% /tab %}}
+{{% tab "Socket" %}}
+
+{{% observability_pipelines/destination_settings/socket %}}
+
+{{% /tab %}}
+{{% tab "Splunk HEC" %}}
+
+{{% observability_pipelines/destination_settings/splunk_hec %}}
+
+{{% /tab %}}
+{{% tab "Sumo Logic" %}}
+
+{{% observability_pipelines/destination_settings/sumo_logic %}}
+
+{{% /tab %}}
+{{% tab "Syslog" %}}
+
+{{% observability_pipelines/destination_settings/syslog %}}
+
+{{% /tab %}}
+{{< /tabs >}}
+
+#### Añadir destinos adicionales
+
+{{% observability_pipelines/multiple_destinations %}}
+
+### Configurar procesadores
+
+{{% observability_pipelines/processors/intro %}}
+
+{{% observability_pipelines/processors/filter_syntax %}}
+
+{{% observability_pipelines/processors/add_processors %}}
+
+{{< tabs >}}
+{{% tab "Añadir variables de entorno" %}}
+
+{{% observability_pipelines/processors/add_env_vars %}}
+
+{{% /tab %}}
+{{% tab "Añadir nombre de host" %}}
+
+{{% observability_pipelines/processors/add_hostname %}}
+
+{{% /tab %}}
+{{% tab "Procesador personalizado" %}}
+
+{{% observability_pipelines/processors/custom_processor %}}
+
+{{% /tab %}}
+{{% tab "Deduplicar" %}}
+
+{{% observability_pipelines/processors/dedupe %}}
+
+{{% /tab %}}
+{{% tab "Editar campos" %}}
+
+{{% observability_pipelines/processors/remap %}}
+
+{{% /tab %}}
+{{% tab "Tabla de enriquecimiento" %}}
+
+{{% observability_pipelines/processors/enrichment_table %}}
+
+{{% /tab %}}
+{{% tab "Filtrar" %}}
+
+{{% observability_pipelines/processors/filter %}}
+
+{{% /tab %}}
+{{% tab "Generar métricas" %}}
+
+{{% observability_pipelines/processors/generate_metrics %}}
+
+{{% /tab %}}
+{{% tab "Grok Parser" %}}
+
+{{% observability_pipelines/processors/grok_parser %}}
+
+{{% /tab %}}
+{{% tab "Analizar JSON" %}}
+
+{{% observability_pipelines/processors/parse_json %}}
+
+{{% /tab %}}
+{{% tab "Analizar XML" %}}
+
+{{% observability_pipelines/processors/parse_xml %}}
+
+{{% /tab %}}
+{{% tab "Cuota" %}}
+
+{{% observability_pipelines/processors/quota %}}
+
+{{% /tab %}}
+{{% tab "Reducir" %}}
+
+{{% observability_pipelines/processors/reduce %}}
+
+{{% /tab %}}
+{{% tab "Reasignar a OCSF" %}}
+
+{{% observability_pipelines/processors/remap_ocsf %}}
+
+{{% collapse-content title="Asignación de bibliotecas" level="h5" expanded=false id="library_mapping" %}}
+
+{{% observability_pipelines/processors/remap_ocsf_library_mapping %}}
+
+{{% /collapse-content %}}
+
+{{% collapse-content title="Asignación personalizada" level="h5" expanded=false id="custom_mapping" %}}
+
+{{% observability_pipelines/processors/remap_ocsf_custom_mapping %}}
+
+{{% /collapse-content %}}
+
+{{% /tab %}}
+{{% tab "Muestrear" %}}
+
+{{% observability_pipelines/processors/sample %}}
+
+{{% /tab %}}
+{{% tab "Sensitive Data Scanner" %}}
+
+{{% observability_pipelines/processors/sensitive_data_scanner %}}
+
+{{% collapse-content title="Añadir reglas de la biblioteca" level="h5" %}}
+
+{{% observability_pipelines/processors/sds_library_rules %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Añadir una regla personalizada" level="h5" %}}
+
+{{% observability_pipelines/processors/sds_custom_rules %}}
+
+{{% /collapse-content %}}
+
+{{% /tab %}}
+{{% tab "Dividir matriz" %}}
+
+{{% observability_pipelines/processors/split_array %}}
+
+{{% /tab %}}
+{{% tab "Procesador de etiquetas" %}}
+
+{{% observability_pipelines/processors/tags_processor %}}
+
+{{% /tab %}}
+{{% tab "Limitar" %}}
+
+{{% observability_pipelines/processors/throttle %}}
+
+{{% /tab %}}
+{{< /tabs >}}
+
+#### Añadir otro conjunto de procesadores y destinos
+
+{{% observability_pipelines/multiple_processors %}}
+
+### Instalar el worker de Observability Pipelines
+1. Selecciona tu plataforma en el menú desplegable **Elige tu plataforma de instalación**.
+1. Introduce la dirección y el puerto del socket, por ejemplo `0.0.0.0:9000`. Esta es la dirección y el puerto en los que el Observability Pipelines Worker escucha los logs entrantes. La dirección del socket debe incluir un puerto.
+1. Si has activado TLS, introduce la frase de contraseña TLS.
+1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta [Requisitos previos](#prerequisites).
+{{< tabs >}}
+{{% tab "Amazon OpenSearch" %}}
+
+{{% observability_pipelines/destination_env_vars/amazon_opensearch %}}
+
+{{% /tab %}}
+{{% tab "Chronicle" %}}
+
+{{% observability_pipelines/destination_env_vars/chronicle %}}
+
+{{% /tab %}}
+{{% tab "CrowdStrike NG-SIEM" %}}
+
+{{% observability_pipelines/destination_env_vars/crowdstrike_ng_siem %}}
+
+{{% /tab %}}
+{{% tab "Datadog" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog %}}
+
+{{% /tab %}}
+{{% tab "Datadog Archives" %}}
+
+Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de la nube que utilices para archivar tus logs.
+
+{{% collapse-content title="Amazon S3" level="h5" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog_archives_amazon_s3 %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Google Cloud Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog_archives_google_cloud_storage %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Azure Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog_archives_azure_storage %}}
+
+{{% /collapse-content %}}
+
+{{% /tab %}}
+{{% tab "Elasticsearch" %}}
+
+{{% observability_pipelines/destination_env_vars/elasticsearch %}}
+
+{{% /tab %}}
+{{% tab "Microsoft Sentinel" %}}
+
+{{% observability_pipelines/destination_env_vars/microsoft_sentinel %}}
+
+{{% /tab %}}
+{{% tab "New Relic" %}}
+
+{{% observability_pipelines/destination_env_vars/new_relic %}}
+
+{{% /tab %}}
+{{% tab "OpenSearch" %}}
+
+{{% observability_pipelines/destination_env_vars/opensearch %}}
+
+{{% /tab %}}
+{{% tab "SentinelOne" %}}
+
+{{% observability_pipelines/destination_env_vars/sentinelone %}}
+
+{{% /tab %}}
+{{% tab "Socket" %}}
+
+{{% observability_pipelines/destination_env_vars/socket %}}
+
+{{% /tab %}}
+{{% tab "Splunk HEC" %}}
+
+{{% observability_pipelines/destination_env_vars/splunk_hec %}}
+
+{{% /tab %}}
+{{% tab "Sumo Logic" %}}
+
+{{% observability_pipelines/destination_env_vars/sumo_logic %}}
+
+{{% /tab %}}
+{{% tab "Syslog" %}}
+
+{{% observability_pipelines/destination_env_vars/syslog %}}
+
+{{% /tab %}}
+{{< /tabs >}}
+1. Sigue las instrucciones de tu entorno para instalar el Worker.
+{{< tabs >}}
+{{% tab "Docker" %}}
+
+{{% observability_pipelines/install_worker/docker %}}
+
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+
+{{% observability_pipelines/install_worker/kubernetes %}}
+
+{{% /tab %}}
+{{% tab "Linux (APT)" %}}
+
+{{% observability_pipelines/install_worker/linux_apt %}}
+
+{{% /tab %}}
+{{% tab "Linux (RPM)" %}}
+
+{{% observability_pipelines/install_worker/linux_rpm %}}
+
+{{% /tab %}}
+{{% tab "CloudFormation" %}}
+
+{{% observability_pipelines/install_worker/cloudformation %}}
+
+{{% /tab %}}
+{{< /tabs >}}
+
+[1]: https://app.datadoghq.com/observability-pipelines
\ No newline at end of file
diff --git a/content/es/observability_pipelines/set_up_pipelines/generate_metrics/google_pubsub.md b/content/es/observability_pipelines/set_up_pipelines/generate_metrics/google_pubsub.md
index f2ac671fd3e27..0becb620eca4d 100644
--- a/content/es/observability_pipelines/set_up_pipelines/generate_metrics/google_pubsub.md
+++ b/content/es/observability_pipelines/set_up_pipelines/generate_metrics/google_pubsub.md
@@ -5,7 +5,7 @@ title: Generar métricas para Google Pub/Sub
## Información general
-Envía logs de Google Pub/Sub al worker de Observability Pipelines para que puedas generar métricas a partir de esos logs.
+Envía logs de Google Pub/Sub al Observability Pipelines Worker para que puedas generar métricas a partir de esos logs.
{{% observability_pipelines/use_case_images/generate_metrics %}}
@@ -19,7 +19,7 @@ Este documento te guiará a través de los siguientes pasos:
## Configurar Observability Pipelines
-1. Navega hasta [Observability Pipelines][1].
+1. Ve a [Observability Pipelines][1].
1. Selecciona la plantilla **Generate Metrics** (Generar métricas) para crear un pipeline nuevo.
1. Selecciona el origen **Google Pub/Sub**.
@@ -29,56 +29,116 @@ Este documento te guiará a través de los siguientes pasos:
### Configurar los destinos
-Introduce la siguiente información en función del destino de logs seleccionado.
+Introduce la siguiente información en función de los destinos de logs seleccionados.
{{< tabs >}}
-{{% tab "Datadog" %}}
+{{% tab "Amazon OpenSearch" %}}
-{{% observability_pipelines/destination_settings/datadog %}}
+{{% observability_pipelines/destination_settings/amazon_opensearch %}}
{{% /tab %}}
-{{% tab "Splunk HEC" %}}
+{{% tab "Amazon Security Lake" %}}
-{{% observability_pipelines/destination_settings/splunk_hec %}}
+##### Requisitos previos
+
+{{% observability_pipelines/prerequisites/amazon_security_lake %}}
+
+##### Configurar el destino
+
+{{% observability_pipelines/destination_settings/amazon_security_lake %}}
+
+{{% /tab %}}
+{{% tab "Chronicle" %}}
+
+{{% observability_pipelines/destination_settings/chronicle %}}
{{% /tab %}}
-{{% tab "Sumo Logic" %}}
+{{% tab "CrowdStrike NG-SIEM" %}}
-{{% observability_pipelines/destination_settings/sumo_logic %}}
+{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}}
{{% /tab %}}
-{{% tab "Syslog" %}}
+{{% tab "Datadog" %}}
-{{% observability_pipelines/destination_settings/syslog %}}
+{{% observability_pipelines/destination_settings/datadog %}}
{{% /tab %}}
-{{% tab "Chronicle" %}}
+{{% tab "Datadog Archives" %}}
-{{% observability_pipelines/destination_settings/chronicle %}}
+{{% observability_pipelines/destination_settings/datadog_archives_note %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_prerequisites %}}
+
+Para configurar el destino, sigue las instrucciones del proveedor de nube que utilizas para archivar tus logs.
+
+{{% collapse-content title="Amazon S3" level="h5" %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_amazon_s3 %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Google Cloud Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_google_cloud_storage %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Azure Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_azure_storage %}}
+
+{{% /collapse-content %}}
{{% /tab %}}
{{% tab "Elasticsearch" %}}
{{% observability_pipelines/destination_settings/elasticsearch %}}
+{{% /tab %}}
+{{% tab "Microsoft Sentinel" %}}
+
+{{% observability_pipelines/destination_settings/microsoft_sentinel %}}
+
+{{% /tab %}}
+{{% tab "New Relic" %}}
+
+{{% observability_pipelines/destination_settings/new_relic %}}
+
{{% /tab %}}
{{% tab "OpenSearch" %}}
{{% observability_pipelines/destination_settings/opensearch %}}
{{% /tab %}}
-{{% tab "Amazon OpenSearch" %}}
+{{% tab "SentinelOne" %}}
-{{% observability_pipelines/destination_settings/amazon_opensearch %}}
+{{% observability_pipelines/destination_settings/sentinelone %}}
{{% /tab %}}
-{{% tab "New Relic" %}}
+{{% tab "Socket" %}}
-{{% observability_pipelines/destination_settings/new_relic %}}
+{{% observability_pipelines/destination_settings/socket %}}
+
+{{% /tab %}}
+{{% tab "Splunk HEC" %}}
+
+{{% observability_pipelines/destination_settings/splunk_hec %}}
+
+{{% /tab %}}
+{{% tab "Sumo Logic" %}}
+
+{{% observability_pipelines/destination_settings/sumo_logic %}}
+
+{{% /tab %}}
+{{% tab "Syslog" %}}
+
+{{% observability_pipelines/destination_settings/syslog %}}
{{% /tab %}}
{{< /tabs >}}
+#### Añadir destinos adicionales
+
+{{% observability_pipelines/multiple_destinations %}}
+
### Configurar procesadores
{{% observability_pipelines/processors/intro %}}
@@ -88,124 +148,229 @@ Introduce la siguiente información en función del destino de logs seleccionado
{{% observability_pipelines/processors/add_processors %}}
{{< tabs >}}
-{{% tab "Filtro" %}}
+{{% tab "Añadir variables de entorno" %}}
-{{% observability_pipelines/processors/filter %}}
+{{% observability_pipelines/processors/add_env_vars %}}
+
+{{% /tab %}}
+{{% tab "Add hostname" %}}
+
+{{% observability_pipelines/processors/add_hostname %}}
{{% /tab %}}
-{{% tab "Editar campos" %}}
+{{% tab "Procesador personalizado" %}}
+
+{{% observability_pipelines/processors/custom_processor %}}
+
+{{% /tab %}}
+{{% tab "Dedupe" %}}
+
+{{% observability_pipelines/processors/dedupe %}}
+
+{{% /pestaña %}}
+{{% pestaña "Editar campos" %}}
{{% observability_pipelines/processors/remap %}}
{{% /tab %}}
-{{% tab "Muestra" %}}
+{{% tab "Tabla de enriquecimiento" %}}
-{{% observability_pipelines/processors/sample %}}
+{{% observability_pipelines/processors/enrichment_table %}}
+
+{{% /tab %}}
+{{% tab "Filtro" %}}
+
+{{% observability_pipelines/processors/filter %}}
+
+{{% /tab %}}
+{{% tab "Generar métricas" %}}
+
+{{% observability_pipelines/processors/generate_metrics %}}
{{% /tab %}}
{{% tab "Grok Parser" %}}
{{% observability_pipelines/processors/grok_parser %}}
+{{% /tab %}}
+{{% tab "Parse JSON" %}}
+
+{{% observability_pipelines/processors/parse_json %}}
+
+{{% /tab %}}
+{{% tab "Analizar XML" %}}
+
+{{% observability_pipelines/processors/parse_xml %}}
+
{{% /tab %}}
{{% tab "Cuota" %}}
{{% observability_pipelines/processors/quota %}}
{{% /tab %}}
-{{% tab "Reducir" %}}
+{{% tab "Reduce" %}}
{{% observability_pipelines/processors/reduce %}}
{{% /tab %}}
-{{% tab "Dedupe" %}}
+{{% tab "Reasignar a OCSF" %}}
-{{% observability_pipelines/processors/dedupe %}}
+{{% observability_pipelines/processors/remap_ocsf %}}
+
+{{% collapse-content title="Asignación de bibliotecas" level="h5" expanded=false id="library_mapping" %}}
+
+{{% observability_pipelines/processors/remap_ocsf_library_mapping %}}
+
+{{% /collapse-content %}}
+
+{{% collapse-content title="Asignación personalizada" level="h5" expanded=false id="custom_mapping" %}}
+
+{{% observability_pipelines/processors/remap_ocsf_custom_mapping %}}
+
+{{% /collapse-content %}}
+
+{{% observability_pipelines/processors/filter_syntax %}}
+
+{{% /tab %}}
+{{% tab "Muestra" %}}
+
+{{% observability_pipelines/processors/sample %}}
{{% /tab %}}
{{% tab "Sensitive Data Scanner" %}}
{{% observability_pipelines/processors/sensitive_data_scanner %}}
-{{% /tab %}}
-{{% tab "Añadir nombre de host" %}}
+{{% collapse-content title="Añadir reglas de la biblioteca" level="h5" %}}
-{{% observability_pipelines/processors/add_hostname %}}
+{{% observability_pipelines/processors/sds_library_rules %}}
-{{% /tab %}}
-{{% tab "Parse JSON" %}}
+{{% /collapse-content %}}
+{{% collapse-content title="Añadir una regla personalizada" level="h5" %}}
-{{% observability_pipelines/processors/parse_json %}}
+{{% observability_pipelines/processors/sds_custom_rules %}}
+
+{{% /collapse-content %}}
{{% /tab %}}
-{{% tab "Tabla de enriquecimiento" %}}
+{{% tab "Dividir matriz" %}}
-{{% observability_pipelines/processors/enrichment_table %}}
+{{% observability_pipelines/processors/split_array %}}
{{% /tab %}}
-{{% tab "Generar métricas" %}}
+{{% tab "Procesador de etiquetas" %}}
-{{% observability_pipelines/processors/generate_metrics %}}
+{{% observability_pipelines/processors/tags_processor %}}
{{% /tab %}}
-{{% tab "Añadir variables de entorno" %}}
+{{% tab "Limitar" %}}
-{{% observability_pipelines/processors/add_env_vars %}}
+{{% observability_pipelines/processors/throttle %}}
{{% /tab %}}
{{< /tabs >}}
-### Instalar el worker de Observability Pipelines
-1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación).
+#### Añadir otro conjunto de procesadores y destinos
+
+{{% observability_pipelines/multiple_processors %}}
+
+### Instalar el Observability Pipelines Worker
+1. Selecciona tu plataforma en el menú desplegable **Elige tu plataforma de instalación**.
1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta los [requisitos previos](#prerequisites).
{{< tabs >}}
-{{% tab "Datadog" %}}
+{{% tab "Amazon OpenSearch" %}}
-{{% observability_pipelines/destination_env_vars/datadog %}}
+{{% observability_pipelines/destination_env_vars/amazon_opensearch %}}
{{% /tab %}}
-{{% tab "Splunk HEC" %}}
+{{% tab "Amazon Security Lake" %}}
-{{% observability_pipelines/destination_env_vars/splunk_hec %}}
+{{% observability_pipelines/destination_env_vars/amazon_security_lake %}}
{{% /tab %}}
-{{% tab "Sumo Logic" %}}
+{{% tab "Chronicle" %}}
-{{% observability_pipelines/destination_env_vars/sumo_logic %}}
+{{% observability_pipelines/destination_env_vars/chronicle %}}
{{% /tab %}}
-{{% tab "Syslog" %}}
+{{% tab "CrowdStrike NG-SIEM" %}}
-{{% observability_pipelines/destination_env_vars/syslog %}}
+{{% observability_pipelines/destination_env_vars/crowdstrike_ng_siem %}}
{{% /tab %}}
-{{% tab "Chronicle" %}}
+{{% tab "Datadog" %}}
-{{% observability_pipelines/destination_env_vars/chronicle %}}
+{{% observability_pipelines/destination_env_vars/datadog %}}
+
+{{% /tab %}}
+{{% tab "Datadog Archives" %}}
+
+Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de la nube que utilices para archivar tus logs.
+
+{{% collapse-content title="Amazon S3" level="h5" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog_archives_amazon_s3 %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Google Cloud Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog_archives_google_cloud_storage %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Azure Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog_archives_azure_storage %}}
+
+{{% /collapse-content %}}
{{% /tab %}}
{{% tab "Elasticsearch" %}}
{{% observability_pipelines/destination_env_vars/elasticsearch %}}
+{{% /tab %}}
+{{% tab "Microsoft Sentinel" %}}
+
+{{% observability_pipelines/destination_env_vars/microsoft_sentinel %}}
+
+{{% /tab %}}
+{{% tab "New Relic" %}}
+
+{{% observability_pipelines/destination_env_vars/new_relic %}}
+
{{% /tab %}}
{{% tab "OpenSearch" %}}
{{% observability_pipelines/destination_env_vars/opensearch %}}
{{% /tab %}}
-{{% tab "Amazon OpenSearch" %}}
+{{% tab "SentinelOne" %}}
-{{% observability_pipelines/destination_env_vars/amazon_opensearch %}}
+{{% observability_pipelines/destination_env_vars/sentinelone %}}
{{% /tab %}}
-{{% tab "New Relic" %}}
+{{% tab "Socket" %}}
-{{% observability_pipelines/destination_env_vars/new_relic %}}
+{{% observability_pipelines/destination_env_vars/socket %}}
+
+{{% /tab %}}
+{{% tab "Splunk HEC" %}}
+
+{{% observability_pipelines/destination_env_vars/splunk_hec %}}
+
+{{% /tab %}}
+{{% tab "Sumo Logic" %}}
+
+{{% observability_pipelines/destination_env_vars/sumo_logic %}}
+
+{{% /tab %}}
+{{% tab "Syslog" %}}
+
+{{% observability_pipelines/destination_env_vars/syslog %}}
{{% /tab %}}
{{< /tabs >}}
-1. Sigue las instrucciones de tu entorno para instalar el worker.
+1. Sigue las instrucciones de tu entorno para instalar el Worker.
{{< tabs >}}
{{% tab "Docker" %}}
diff --git a/content/es/observability_pipelines/set_up_pipelines/log_volume_control/http_client.md b/content/es/observability_pipelines/set_up_pipelines/log_volume_control/http_client.md
index fed503957d966..b7502a8676745 100644
--- a/content/es/observability_pipelines/set_up_pipelines/log_volume_control/http_client.md
+++ b/content/es/observability_pipelines/set_up_pipelines/log_volume_control/http_client.md
@@ -39,23 +39,39 @@ Introduce la siguiente información en función de los destinos de logs seleccio
{{% observability_pipelines/destination_settings/amazon_opensearch %}}
{{% /tab %}}
+{{% tab "Amazon Security Lake" %}}
+
+##### Requisitos previos
+
+{{% observability_pipelines/prerequisites/amazon_security_lake %}}
+
+##### Configurar el destino
+
+{{% observability_pipelines/destination_settings/amazon_security_lake %}}
+
+{{% /tab %}}
{{% tab "Chronicle" %}}
{{% observability_pipelines/destination_settings/chronicle %}}
+{{% /tab %}}
+{{% tab "CrowdStrike NG-SIEM" %}}
+
+{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}}
+
{{% /tab %}}
{{% tab "Datadog" %}}
{{% observability_pipelines/destination_settings/datadog %}}
{{% /tab %}}
-{{% tab "Datadog Archivos" %}}
+{{% tab "Datadog Archives" %}}
{{% observability_pipelines/destination_settings/datadog_archives_note %}}
{{% observability_pipelines/destination_settings/datadog_archives_prerequisites %}}
-Para configurar el destino, siga las instrucciones del proveedor de la nube que utilice para archivar su Logs.
+Para configurar el destino, sigue las instrucciones del proveedor de nube que utilizas para archivar tus logs.
{{% collapse-content title="Amazon S3" level="h5" %}}
@@ -98,6 +114,11 @@ Para configurar el destino, siga las instrucciones del proveedor de la nube que
{{% observability_pipelines/destination_settings/sentinelone %}}
+{{% /tab %}}
+{{% tab "Socket" %}}
+
+{{% observability_pipelines/destination_settings/socket %}}
+
{{% /tab %}}
{{% tab "Splunk HEC" %}}
@@ -129,7 +150,7 @@ Para configurar el destino, siga las instrucciones del proveedor de la nube que
{{% observability_pipelines/processors/add_processors %}}
{{< tabs >}}
-{{% tab "Add env vars" %}}
+{{% tab "Añadir variables de entorno" %}}
{{% observability_pipelines/processors/add_env_vars %}}
@@ -138,13 +159,18 @@ Para configurar el destino, siga las instrucciones del proveedor de la nube que
{{% observability_pipelines/processors/add_hostname %}}
+{{% /tab %}}
+{{% tab "Procesador personalizado" %}}
+
+{{% observability_pipelines/processors/custom_processor %}}
+
{{% /tab %}}
{{% tab "Dedupe" %}}
{{% observability_pipelines/processors/dedupe %}}
-{{% /tab %}}
-{{% tab "Editar campos" %}}
+{{% /pestaña %}}
+{{% pestaña "Editar campos" %}}
{{% observability_pipelines/processors/remap %}}
@@ -173,6 +199,11 @@ Para configurar el destino, siga las instrucciones del proveedor de la nube que
{{% observability_pipelines/processors/parse_json %}}
+{{% /tab %}}
+{{% tab "Analizar XML" %}}
+
+{{% observability_pipelines/processors/parse_xml %}}
+
{{% /tab %}}
{{% tab "Cuota" %}}
@@ -188,6 +219,20 @@ Para configurar el destino, siga las instrucciones del proveedor de la nube que
{{% observability_pipelines/processors/remap_ocsf %}}
+{{% collapse-content title="Asignación de bibliotecas" level="h5" expanded=false id="library_mapping" %}}
+
+{{% observability_pipelines/processors/remap_ocsf_library_mapping %}}
+
+{{% /collapse-content %}}
+
+{{% collapse-content title="Asignación personalizada" level="h5" expanded=false id="custom_mapping" %}}
+
+{{% observability_pipelines/processors/remap_ocsf_custom_mapping %}}
+
+{{% /collapse-content %}}
+
+{{% observability_pipelines/processors/filter_syntax %}}
+
{{% /tab %}}
{{% tab "Muestra" %}}
@@ -198,16 +243,31 @@ Para configurar el destino, siga las instrucciones del proveedor de la nube que
{{% observability_pipelines/processors/sensitive_data_scanner %}}
-
+{{% /collapse-content %}}
+
+{{% /tab %}}
+{{% tab "Dividir matriz" %}}
+
+{{% observability_pipelines/processors/split_array %}}
+
+{{% /tab %}}
+{{% tab "Procesador de etiquetas" %}}
+
+{{% observability_pipelines/processors/tags_processor %}}
+
+{{% /tab %}}
+{{% tab "Limitar" %}}
+
+{{% observability_pipelines/processors/throttle %}}
{{% /tab %}}
{{< /tabs >}}
@@ -217,27 +277,37 @@ Para configurar el destino, siga las instrucciones del proveedor de la nube que
{{% observability_pipelines/multiple_processors %}}
### Instalar el worker de Observability Pipelines
-1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación).
+1. Selecciona tu plataforma en el menú desplegable **Elige tu plataforma de instalación**.
1. Ingresa la ruta completa de la URL del endpoint HTTP/S, como `https://127.0.0.8/logs`. El worker de Observability Pipelines recopila eventos de logs de este endpoint.
-1. Proporcione las variables entorno para cada uno de los destinos seleccionados. Consulte [Prerrequisitos](#prerrequisitos) para obtener más información.
+1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta [Requisitos previos](#prerequisites).
{{< tabs >}}
{{% tab "Amazon OpenSearch" %}}
{{% observability_pipelines/destination_env_vars/amazon_opensearch %}}
+{{% /tab %}}
+{{% tab "Amazon Security Lake" %}}
+
+{{% observability_pipelines/destination_env_vars/amazon_security_lake %}}
+
{{% /tab %}}
{{% tab "Chronicle" %}}
{{% observability_pipelines/destination_env_vars/chronicle %}}
+{{% /tab %}}
+{{% tab "CrowdStrike NG-SIEM" %}}
+
+{{% observability_pipelines/destination_env_vars/crowdstrike_ng_siem %}}
+
{{% /tab %}}
{{% tab "Datadog" %}}
{{% observability_pipelines/destination_env_vars/datadog %}}
{{% /tab %}}
-{{% tab "Datadog Archivos" %}}
+{{% tab "Datadog Archives" %}}
Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de la nube que utilices para archivar tus logs.
@@ -282,6 +352,11 @@ Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de
{{% observability_pipelines/destination_env_vars/sentinelone %}}
+{{% /tab %}}
+{{% tab "Socket" %}}
+
+{{% observability_pipelines/destination_env_vars/socket %}}
+
{{% /tab %}}
{{% tab "Splunk HEC" %}}
diff --git a/content/es/observability_pipelines/set_up_pipelines/log_volume_control/syslog.md b/content/es/observability_pipelines/set_up_pipelines/log_volume_control/syslog.md
index 95c675a83a133..ede0996297b13 100644
--- a/content/es/observability_pipelines/set_up_pipelines/log_volume_control/syslog.md
+++ b/content/es/observability_pipelines/set_up_pipelines/log_volume_control/syslog.md
@@ -7,14 +7,14 @@ title: Control del volumen de logs para Syslog
## Información general
-Configura el worker de Observability Pipelines con el origen Rsyslog o Syslog-ng para que sólo enrute logs útiles a tus destinos.
+Configura el Observability Pipelines Worker con el origen Rsyslog o Syslog-ng para que solo enrute logs útiles a tus destinos.
{{% observability_pipelines/use_case_images/log_volume_control %}}
Este documento te guiará a través de los siguientes pasos:
1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines
1. [Configuración de Observability Pipelines](#set-up-observability-pipelines)
-1. [Envío de logs al worker de Observability Pipelines](#send-logs-to-the-observability-pipelines-worker-over-syslog)
+1. [Envío de logs al Observability Pipelines Worker](#send-logs-to-the-observability-pipelines-worker-over-syslog)
## Requisitos previos
@@ -22,7 +22,7 @@ Este documento te guiará a través de los siguientes pasos:
## Configurar Observability Pipelines
-1. Navega hasta [Observability Pipelines][1].
+1. Ve a [Observability Pipelines][1].
1. Selecciona la plantilla **Log Volume Control** (Control del volumen de logs) para crear un pipeline nuevo.
1. Selecciona **rsyslog** o **syslog-ng** como el origen.
@@ -32,56 +32,116 @@ Este documento te guiará a través de los siguientes pasos:
### Configurar los destinos
-Introduce la siguiente información en función del destino de logs seleccionado.
+Introduce la siguiente información en función de los destinos de logs seleccionados.
{{< tabs >}}
-{{% tab "Datadog" %}}
+{{% tab "Amazon OpenSearch" %}}
-{{% observability_pipelines/destination_settings/datadog %}}
+{{% observability_pipelines/destination_settings/amazon_opensearch %}}
{{% /tab %}}
-{{% tab "Splunk HEC" %}}
+{{% tab "Amazon Security Lake" %}}
-{{% observability_pipelines/destination_settings/splunk_hec %}}
+##### Requisitos previos
+
+{{% observability_pipelines/prerequisites/amazon_security_lake %}}
+
+##### Configurar el destino
+
+{{% observability_pipelines/destination_settings/amazon_security_lake %}}
+
+{{% /tab %}}
+{{% tab "Chronicle" %}}
+
+{{% observability_pipelines/destination_settings/chronicle %}}
{{% /tab %}}
-{{% tab "Sumo Logic" %}}
+{{% tab "CrowdStrike NG-SIEM" %}}
-{{% observability_pipelines/destination_settings/sumo_logic %}}
+{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}}
{{% /tab %}}
-{{% tab "Syslog" %}}
+{{% tab "Datadog" %}}
-{{% observability_pipelines/destination_settings/syslog %}}
+{{% observability_pipelines/destination_settings/datadog %}}
{{% /tab %}}
-{{% tab "Chronicle" %}}
+{{% tab "Datadog Archives" %}}
-{{% observability_pipelines/destination_settings/chronicle %}}
+{{% observability_pipelines/destination_settings/datadog_archives_note %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_prerequisites %}}
+
+Para configurar el destino, sigue las instrucciones del proveedor de nube que utilizas para archivar tus logs.
+
+{{% collapse-content title="Amazon S3" level="h5" %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_amazon_s3 %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Google Cloud Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_google_cloud_storage %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Azure Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_azure_storage %}}
+
+{{% /collapse-content %}}
{{% /tab %}}
{{% tab "Elasticsearch" %}}
{{% observability_pipelines/destination_settings/elasticsearch %}}
+{{% /tab %}}
+{{% tab "Microsoft Sentinel" %}}
+
+{{% observability_pipelines/destination_settings/microsoft_sentinel %}}
+
+{{% /tab %}}
+{{% tab "New Relic" %}}
+
+{{% observability_pipelines/destination_settings/new_relic %}}
+
{{% /tab %}}
{{% tab "OpenSearch" %}}
{{% observability_pipelines/destination_settings/opensearch %}}
{{% /tab %}}
-{{% tab "Amazon OpenSearch" %}}
+{{% tab "SentinelOne" %}}
-{{% observability_pipelines/destination_settings/amazon_opensearch %}}
+{{% observability_pipelines/destination_settings/sentinelone %}}
{{% /tab %}}
-{{% tab "New Relic" %}}
+{{% tab "Socket" %}}
-{{% observability_pipelines/destination_settings/new_relic %}}
+{{% observability_pipelines/destination_settings/socket %}}
+
+{{% /tab %}}
+{{% tab "Splunk HEC" %}}
+
+{{% observability_pipelines/destination_settings/splunk_hec %}}
+
+{{% /tab %}}
+{{% tab "Sumo Logic" %}}
+
+{{% observability_pipelines/destination_settings/sumo_logic %}}
+
+{{% /tab %}}
+{{% tab "Syslog" %}}
+
+{{% observability_pipelines/destination_settings/syslog %}}
{{% /tab %}}
{{< /tabs >}}
+#### Añadir destinos adicionales
+
+{{% observability_pipelines/multiple_destinations %}}
+
### Configurar procesadores
{{% observability_pipelines/processors/intro %}}
@@ -91,126 +151,231 @@ Introduce la siguiente información en función del destino de logs seleccionado
{{% observability_pipelines/processors/add_processors %}}
{{< tabs >}}
-{{% tab "Filtro" %}}
+{{% tab "Añadir variables de entorno" %}}
-{{% observability_pipelines/processors/filter %}}
+{{% observability_pipelines/processors/add_env_vars %}}
+
+{{% /tab %}}
+{{% tab "Add hostname" %}}
+
+{{% observability_pipelines/processors/add_hostname %}}
{{% /tab %}}
-{{% tab "Editar campos" %}}
+{{% tab "Procesador personalizado" %}}
+
+{{% observability_pipelines/processors/custom_processor %}}
+
+{{% /tab %}}
+{{% tab "Dedupe" %}}
+
+{{% observability_pipelines/processors/dedupe %}}
+
+{{% /pestaña %}}
+{{% pestaña "Editar campos" %}}
{{% observability_pipelines/processors/remap %}}
{{% /tab %}}
-{{% tab "Muestra" %}}
+{{% tab "Tabla de enriquecimiento" %}}
-{{% observability_pipelines/processors/sample %}}
+{{% observability_pipelines/processors/enrichment_table %}}
+
+{{% /tab %}}
+{{% tab "Filtro" %}}
+
+{{% observability_pipelines/processors/filter %}}
+
+{{% /tab %}}
+{{% tab "Generar métricas" %}}
+
+{{% observability_pipelines/processors/generate_metrics %}}
{{% /tab %}}
{{% tab "Grok Parser" %}}
{{% observability_pipelines/processors/grok_parser %}}
+{{% /tab %}}
+{{% tab "Parse JSON" %}}
+
+{{% observability_pipelines/processors/parse_json %}}
+
+{{% /tab %}}
+{{% tab "Analizar XML" %}}
+
+{{% observability_pipelines/processors/parse_xml %}}
+
{{% /tab %}}
{{% tab "Cuota" %}}
{{% observability_pipelines/processors/quota %}}
{{% /tab %}}
-{{% tab "Reducir" %}}
+{{% tab "Reduce" %}}
{{% observability_pipelines/processors/reduce %}}
{{% /tab %}}
-{{% tab "Dedupe" %}}
+{{% tab "Reasignar a OCSF" %}}
-{{% observability_pipelines/processors/dedupe %}}
+{{% observability_pipelines/processors/remap_ocsf %}}
+
+{{% collapse-content title="Asignación de bibliotecas" level="h5" expanded=false id="library_mapping" %}}
+
+{{% observability_pipelines/processors/remap_ocsf_library_mapping %}}
+
+{{% /collapse-content %}}
+
+{{% collapse-content title="Asignación personalizada" level="h5" expanded=false id="custom_mapping" %}}
+
+{{% observability_pipelines/processors/remap_ocsf_custom_mapping %}}
+
+{{% /collapse-content %}}
+
+{{% observability_pipelines/processors/filter_syntax %}}
+
+{{% /tab %}}
+{{% tab "Muestra" %}}
+
+{{% observability_pipelines/processors/sample %}}
{{% /tab %}}
{{% tab "Sensitive Data Scanner" %}}
{{% observability_pipelines/processors/sensitive_data_scanner %}}
-{{% /tab %}}
-{{% tab "Añadir nombre de host" %}}
+{{% collapse-content title="Añadir reglas de la biblioteca" level="h5" %}}
-{{% observability_pipelines/processors/add_hostname %}}
+{{% observability_pipelines/processors/sds_library_rules %}}
-{{% /tab %}}
-{{% tab "Parse JSON" %}}
+{{% /collapse-content %}}
+{{% collapse-content title="Añadir una regla personalizada" level="h5" %}}
-{{% observability_pipelines/processors/parse_json %}}
+{{% observability_pipelines/processors/sds_custom_rules %}}
+
+{{% /collapse-content %}}
{{% /tab %}}
-{{% tab "Tabla de enriquecimiento" %}}
+{{% tab "Dividir matriz" %}}
-{{% observability_pipelines/processors/enrichment_table %}}
+{{% observability_pipelines/processors/split_array %}}
{{% /tab %}}
-{{% tab "Generar métricas" %}}
+{{% tab "Procesador de etiquetas" %}}
-{{% observability_pipelines/processors/generate_metrics %}}
+{{% observability_pipelines/processors/tags_processor %}}
{{% /tab %}}
-{{% tab "Añadir variables de entorno" %}}
+{{% tab "Limitar" %}}
-{{% observability_pipelines/processors/add_env_vars %}}
+{{% observability_pipelines/processors/throttle %}}
{{% /tab %}}
{{< /tabs >}}
-### Instalar el worker de Observability Pipelines
-1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación).
-1. Ingresa la dirección de Syslog. Este es un endpoint compatible con Syslog, expuesto por el worker, al que tus aplicaciones envían logs. El worker de Observability Pipelines escucha en esta dirección los logs entrantes.
+#### Añadir otro conjunto de procesadores y destinos
-1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Consulta [prerrequisitos](#prerequisites) para obtener más información.
+{{% observability_pipelines/multiple_processors %}}
+
+### Instalar el Observability Pipelines Worker
+1. Selecciona tu plataforma en el menú desplegable **Elige tu plataforma de instalación**.
+1. Ingresa la dirección de Syslog. Este es un endpoint compatible con Syslog, expuesto por el Worker, al que tus aplicaciones envían logs. El Observability Pipelines Worker escucha en esta dirección los logs entrantes.
+
+1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta [Requisitos previos](#prerequisites).
{{< tabs >}}
-{{% tab "Datadog" %}}
+{{% tab "Amazon OpenSearch" %}}
-{{% observability_pipelines/destination_env_vars/datadog %}}
+{{% observability_pipelines/destination_env_vars/amazon_opensearch %}}
{{% /tab %}}
-{{% tab "Splunk HEC" %}}
+{{% tab "Amazon Security Lake" %}}
-{{% observability_pipelines/destination_env_vars/splunk_hec %}}
+{{% observability_pipelines/destination_env_vars/amazon_security_lake %}}
{{% /tab %}}
-{{% tab "Sumo Logic" %}}
+{{% tab "Chronicle" %}}
-{{% observability_pipelines/destination_env_vars/sumo_logic %}}
+{{% observability_pipelines/destination_env_vars/chronicle %}}
{{% /tab %}}
-{{% tab "Syslog" %}}
+{{% tab "CrowdStrike NG-SIEM" %}}
-{{% observability_pipelines/destination_env_vars/syslog %}}
+{{% observability_pipelines/destination_env_vars/crowdstrike_ng_siem %}}
{{% /tab %}}
-{{% tab "Chronicle" %}}
+{{% tab "Datadog" %}}
-{{% observability_pipelines/destination_env_vars/chronicle %}}
+{{% observability_pipelines/destination_env_vars/datadog %}}
+
+{{% /tab %}}
+{{% tab "Datadog Archives" %}}
+
+Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de la nube que utilices para archivar tus logs.
+
+{{% collapse-content title="Amazon S3" level="h5" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog_archives_amazon_s3 %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Google Cloud Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog_archives_google_cloud_storage %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Azure Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog_archives_azure_storage %}}
+
+{{% /collapse-content %}}
{{% /tab %}}
{{% tab "Elasticsearch" %}}
{{% observability_pipelines/destination_env_vars/elasticsearch %}}
+{{% /tab %}}
+{{% tab "Microsoft Sentinel" %}}
+
+{{% observability_pipelines/destination_env_vars/microsoft_sentinel %}}
+
+{{% /tab %}}
+{{% tab "New Relic" %}}
+
+{{% observability_pipelines/destination_env_vars/new_relic %}}
+
{{% /tab %}}
{{% tab "OpenSearch" %}}
{{% observability_pipelines/destination_env_vars/opensearch %}}
{{% /tab %}}
-{{% tab "Amazon OpenSearch" %}}
+{{% tab "SentinelOne" %}}
-{{% observability_pipelines/destination_env_vars/amazon_opensearch %}}
+{{% observability_pipelines/destination_env_vars/sentinelone %}}
{{% /tab %}}
-{{% tab "New Relic" %}}
+{{% tab "Socket" %}}
-{{% observability_pipelines/destination_env_vars/new_relic %}}
+{{% observability_pipelines/destination_env_vars/socket %}}
+
+{{% /tab %}}
+{{% tab "Splunk HEC" %}}
+
+{{% observability_pipelines/destination_env_vars/splunk_hec %}}
+
+{{% /tab %}}
+{{% tab "Sumo Logic" %}}
+
+{{% observability_pipelines/destination_env_vars/sumo_logic %}}
+
+{{% /tab %}}
+{{% tab "Syslog" %}}
+
+{{% observability_pipelines/destination_env_vars/syslog %}}
{{% /tab %}}
{{< /tabs >}}
-1. Sigue las instrucciones de tu entorno para instalar el worker.
+1. Sigue las instrucciones de tu entorno para instalar el Worker.
{{< tabs >}}
{{% tab "Docker" %}}
@@ -239,7 +404,7 @@ Introduce la siguiente información en función del destino de logs seleccionado
{{% /tab %}}
{{< /tabs >}}
-## Enviar logs al worker de Observability Pipelines a través de Syslog
+## Enviar logs al Observability Pipelines Worker a través de Syslog
{{% observability_pipelines/log_source_configuration/syslog %}}
diff --git a/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/amazon_s3.md b/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/amazon_s3.md
index 0d8735a5dcab2..3edfeeb0ed8d8 100644
--- a/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/amazon_s3.md
+++ b/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/amazon_s3.md
@@ -21,7 +21,7 @@ Este documento te guiará a través de los siguientes pasos:
## Configurar Observability Pipelines
-1. Navega hasta [Observability Pipelines][1].
+1. Ve a [Observability Pipelines][1].
1. Selecciona la plantilla **Sensitive Data Redactions** (Redacciones de datos confidenciales) para crear un nuevo pipeline.
1. Selecciona la fuente **Amazon S3**.
@@ -39,21 +39,39 @@ Introduce la siguiente información en función de los destinos de logs seleccio
{{% observability_pipelines/destination_settings/amazon_opensearch %}}
{{% /tab %}}
+{{% tab "Amazon Security Lake" %}}
+
+##### Requisitos previos
+
+{{% observability_pipelines/prerequisites/amazon_security_lake %}}
+
+##### Configurar el destino
+
+{{% observability_pipelines/destination_settings/amazon_security_lake %}}
+
+{{% /tab %}}
{{% tab "Chronicle" %}}
{{% observability_pipelines/destination_settings/chronicle %}}
+{{% /tab %}}
+{{% tab "CrowdStrike NG-SIEM" %}}
+
+{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}}
+
{{% /tab %}}
{{% tab "Datadog" %}}
{{% observability_pipelines/destination_settings/datadog %}}
{{% /tab %}}
-{{% tab "Archivos de Datadog" %}}
+{{% tab "Datadog Archives" %}}
{{% observability_pipelines/destination_settings/datadog_archives_note %}}
-Sigue las instrucciones del proveedor de nube que usas para archivar tus logs.
+{{% observability_pipelines/destination_settings/datadog_archives_prerequisites %}}
+
+Para configurar el destino, sigue las instrucciones del proveedor de nube que utilizas para archivar tus logs.
{{% collapse-content title="Amazon S3" level="h5" %}}
@@ -96,6 +114,11 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs.
{{% observability_pipelines/destination_settings/sentinelone %}}
+{{% /tab %}}
+{{% tab "Socket" %}}
+
+{{% observability_pipelines/destination_settings/socket %}}
+
{{% /tab %}}
{{% tab "Splunk HEC" %}}
@@ -127,7 +150,7 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs.
{{% observability_pipelines/processors/add_processors_sds %}}
{{< tabs >}}
-{{% tab "Añadir variables de entorno" %}}
+{{% tab "Add env vars" %}}
{{% observability_pipelines/processors/add_env_vars %}}
@@ -136,13 +159,18 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs.
{{% observability_pipelines/processors/add_hostname %}}
+{{% /tab %}}
+{{% tab "Procesador personalizado" %}}
+
+{{% observability_pipelines/processors/custom_processor %}}
+
{{% /tab %}}
{{% tab "Dedupe" %}}
{{% observability_pipelines/processors/dedupe %}}
-{{< /tab >}}
-{{% tab "Editar campos" %}}
+{{% /pestaña %}}
+{{% pestaña "Editar campos" %}}
{{% observability_pipelines/processors/remap %}}
@@ -152,7 +180,7 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs.
{{% observability_pipelines/processors/enrichment_table %}}
{{% /tab %}}
-{{% tab "Filtrar" %}}
+{{% tab "Filtro" %}}
{{% observability_pipelines/processors/filter %}}
@@ -171,6 +199,11 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs.
{{% observability_pipelines/processors/parse_json %}}
+{{% /tab %}}
+{{% tab "Analizar XML" %}}
+
+{{% observability_pipelines/processors/parse_xml %}}
+
{{% /tab %}}
{{% tab "Cuota" %}}
@@ -186,6 +219,20 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs.
{{% observability_pipelines/processors/remap_ocsf %}}
+{{% collapse-content title="Asignación de bibliotecas" level="h5" expanded=false id="library_mapping" %}}
+
+{{% observability_pipelines/processors/remap_ocsf_library_mapping %}}
+
+{{% /collapse-content %}}
+
+{{% collapse-content title="Asignación personalizada" level="h5" expanded=false id="custom_mapping" %}}
+
+{{% observability_pipelines/processors/remap_ocsf_custom_mapping %}}
+
+{{% /collapse-content %}}
+
+{{% observability_pipelines/processors/filter_syntax %}}
+
{{% /tab %}}
{{% tab "Muestra" %}}
@@ -196,7 +243,7 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs.
{{% observability_pipelines/processors/sensitive_data_scanner %}}
-
+{{% /collapse-content %}}
+
+{{% /tab %}}
+{{% tab "Dividir matriz" %}}
+
+{{% observability_pipelines/processors/split_array %}}
+
+{{% /tab %}}
+{{% tab "Procesador de etiquetas" %}}
+
+{{% observability_pipelines/processors/tags_processor %}}
+
+{{% /tab %}}
+{{% tab "Limitar" %}}
+
+{{% observability_pipelines/processors/throttle %}}
{{% /tab %}}
{{< /tabs >}}
@@ -214,8 +276,8 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs.
{{% observability_pipelines/multiple_processors %}}
-### Instalar el worker de Observability Pipelines
-1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación).
+### Instalar el Observability Pipelines Worker
+1. Selecciona tu plataforma en el menú desplegable **Elige tu plataforma de instalación**.
1. En el campo **AWS S3 SQS URL**, introduce la URL de la cola SQS a la que el bucket S3 envía eventos de notificación.
1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta [Requisitos previos](#prerequisites).
{{< tabs >}}
@@ -223,18 +285,28 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs.
{{% observability_pipelines/destination_env_vars/amazon_opensearch %}}
+{{% /tab %}}
+{{% tab "Amazon Security Lake" %}}
+
+{{% observability_pipelines/destination_env_vars/amazon_security_lake %}}
+
{{% /tab %}}
{{% tab "Chronicle" %}}
{{% observability_pipelines/destination_env_vars/chronicle %}}
+{{% /tab %}}
+{{% tab "CrowdStrike NG-SIEM" %}}
+
+{{% observability_pipelines/destination_env_vars/crowdstrike_ng_siem %}}
+
{{% /tab %}}
{{% tab "Datadog" %}}
{{% observability_pipelines/destination_env_vars/datadog %}}
{{% /tab %}}
-{{% tab "Archivos de Datadog" %}}
+{{% tab "Datadog Archives" %}}
Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de la nube que utilices para archivar tus logs.
@@ -279,6 +351,11 @@ Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de
{{% observability_pipelines/destination_env_vars/sentinelone %}}
+{{% /tab %}}
+{{% tab "Socket" %}}
+
+{{% observability_pipelines/destination_env_vars/socket %}}
+
{{% /tab %}}
{{% tab "Splunk HEC" %}}
@@ -296,26 +373,16 @@ Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de
{{% /tab %}}
{{< /tabs >}}
-1. Sigue las instrucciones de tu entorno para instalar el worker.
+1. Sigue las instrucciones de tu entorno para instalar el Worker.
{{< tabs >}}
{{% tab "Docker" %}}
{{% observability_pipelines/install_worker/docker %}}
{{% /tab %}}
-{{% tab "Amazon EKS" %}}
-
-{{% observability_pipelines/install_worker/amazon_eks %}}
-
-{{% /tab %}}
-{{% tab "Azure AKS" %}}
-
-{{% observability_pipelines/install_worker/azure_aks %}}
-
-{{% /tab %}}
-{{% tab "Google GKE" %}}
+{{% tab "Kubernetes" %}}
-{{% observability_pipelines/install_worker/google_gke %}}
+{{% observability_pipelines/install_worker/kubernetes %}}
{{% /tab %}}
{{% tab "Linux (APT)" %}}
@@ -335,4 +402,4 @@ Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de
{{% /tab %}}
{{< /tabs >}}
-[1]: https://app.datadoghq.com/observability-pipelines
+[1]: https://app.datadoghq.com/observability-pipelines
\ No newline at end of file
diff --git a/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/splunk_hec.md b/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/splunk_hec.md
index 3ee42abd83c91..d6fa59e0593b6 100644
--- a/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/splunk_hec.md
+++ b/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/splunk_hec.md
@@ -16,7 +16,7 @@ Utiliza Observability Pipelines para identificar, etiquetar y, opcionalmente, re
Este documento describe los siguientes pasos:
1. Los [prerrequisitos](#prerequisites) necesarios para configurar Observability Pipelines
1. [Configuración de Observability Pipelines](#set-up-observability-pipelines)
-1. [Envío de logs al worker mediante Splunk HEC](#send-logs-to-the-observability-pipelines-worker-over-splunk-hec)
+1. [Envío de logs al Worker mediante Splunk HEC](#send-logs-to-the-observability-pipelines-worker-over-splunk-hec)
## Requisitos previos
@@ -24,7 +24,7 @@ Este documento describe los siguientes pasos:
## Configurar Observability Pipelines
-1. Navega hasta [Observability Pipelines][1].
+1. Ve a [Observability Pipelines][1].
1. Selecciona la plantilla **Sensitive Data Redaction** (Redacción de datos confidenciales) para crear un pipeline nuevo.
1. Selecciona **Splunk HEC** como origen.
@@ -34,56 +34,116 @@ Este documento describe los siguientes pasos:
### Configurar el destino
-Introduce la siguiente información en función del destino de logs seleccionado.
+Introduce la siguiente información en función de los destinos de logs seleccionados.
{{< tabs >}}
-{{% tab "Datadog" %}}
+{{% tab "Amazon OpenSearch" %}}
-{{% observability_pipelines/destination_settings/datadog %}}
+{{% observability_pipelines/destination_settings/amazon_opensearch %}}
{{% /tab %}}
-{{% tab "Splunk HEC" %}}
+{{% tab "Amazon Security Lake" %}}
-{{% observability_pipelines/destination_settings/splunk_hec %}}
+##### Requisitos previos
+
+{{% observability_pipelines/prerequisites/amazon_security_lake %}}
+
+##### Configurar el destino
+
+{{% observability_pipelines/destination_settings/amazon_security_lake %}}
+
+{{% /tab %}}
+{{% tab "Chronicle" %}}
+
+{{% observability_pipelines/destination_settings/chronicle %}}
{{% /tab %}}
-{{% tab "Sumo Logic" %}}
+{{% tab "CrowdStrike NG-SIEM" %}}
-{{% observability_pipelines/destination_settings/sumo_logic %}}
+{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}}
{{% /tab %}}
-{{% tab "Syslog" %}}
+{{% tab "Datadog" %}}
-{{% observability_pipelines/destination_settings/syslog %}}
+{{% observability_pipelines/destination_settings/datadog %}}
{{% /tab %}}
-{{% tab "Chronicle" %}}
+{{% tab "Datadog Archives" %}}
-{{% observability_pipelines/destination_settings/chronicle %}}
+{{% observability_pipelines/destination_settings/datadog_archives_note %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_prerequisites %}}
+
+Para configurar el destino, sigue las instrucciones del proveedor de nube que utilizas para archivar tus logs.
+
+{{% collapse-content title="Amazon S3" level="h5" %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_amazon_s3 %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Google Cloud Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_google_cloud_storage %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Azure Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_azure_storage %}}
+
+{{% /collapse-content %}}
{{% /tab %}}
{{% tab "Elasticsearch" %}}
{{% observability_pipelines/destination_settings/elasticsearch %}}
+{{% /tab %}}
+{{% tab "Microsoft Sentinel" %}}
+
+{{% observability_pipelines/destination_settings/microsoft_sentinel %}}
+
+{{% /tab %}}
+{{% tab "New Relic" %}}
+
+{{% observability_pipelines/destination_settings/new_relic %}}
+
{{% /tab %}}
{{% tab "OpenSearch" %}}
{{% observability_pipelines/destination_settings/opensearch %}}
{{% /tab %}}
-{{% tab "Amazon OpenSearch" %}}
+{{% tab "SentinelOne" %}}
-{{% observability_pipelines/destination_settings/amazon_opensearch %}}
+{{% observability_pipelines/destination_settings/sentinelone %}}
{{% /tab %}}
-{{% tab "New Relic" %}}
+{{% tab "Socket" %}}
-{{% observability_pipelines/destination_settings/new_relic %}}
+{{% observability_pipelines/destination_settings/socket %}}
+
+{{% /tab %}}
+{{% tab "Splunk HEC" %}}
+
+{{% observability_pipelines/destination_settings/splunk_hec %}}
+
+{{% /tab %}}
+{{% tab "Sumo Logic" %}}
+
+{{% observability_pipelines/destination_settings/sumo_logic %}}
+
+{{% /tab %}}
+{{% tab "Syslog" %}}
+
+{{% observability_pipelines/destination_settings/syslog %}}
{{% /tab %}}
{{< /tabs >}}
+#### Añadir destinos adicionales
+
+{{% observability_pipelines/multiple_destinations %}}
+
### Configurar procesadores
{{% observability_pipelines/processors/intro %}}
@@ -93,126 +153,231 @@ Introduce la siguiente información en función del destino de logs seleccionado
{{% observability_pipelines/processors/add_processors_sds %}}
{{< tabs >}}
-{{% tab "Filtro" %}}
+{{% tab "Añadir variables de entorno" %}}
-{{% observability_pipelines/processors/filter %}}
+{{% observability_pipelines/processors/add_env_vars %}}
+
+{{% /tab %}}
+{{% tab "Add hostname" %}}
+
+{{% observability_pipelines/processors/add_hostname %}}
{{% /tab %}}
-{{% tab "Editar campos" %}}
+{{% tab "Procesador personalizado" %}}
+
+{{% observability_pipelines/processors/custom_processor %}}
+
+{{% /tab %}}
+{{% tab "Dedupe" %}}
+
+{{% observability_pipelines/processors/dedupe %}}
+
+{{% /pestaña %}}
+{{% pestaña "Editar campos" %}}
{{% observability_pipelines/processors/remap %}}
{{% /tab %}}
-{{% tab "Muestra" %}}
+{{% tab "Tabla de enriquecimiento" %}}
-{{% observability_pipelines/processors/sample %}}
+{{% observability_pipelines/processors/enrichment_table %}}
+
+{{% /tab %}}
+{{% tab "Filtro" %}}
+
+{{% observability_pipelines/processors/filter %}}
+
+{{% /tab %}}
+{{% tab "Generar métricas" %}}
+
+{{% observability_pipelines/processors/generate_metrics %}}
{{% /tab %}}
{{% tab "Grok Parser" %}}
{{% observability_pipelines/processors/grok_parser %}}
+{{% /tab %}}
+{{% tab "Parse JSON" %}}
+
+{{% observability_pipelines/processors/parse_json %}}
+
+{{% /tab %}}
+{{% tab "Analizar XML" %}}
+
+{{% observability_pipelines/processors/parse_xml %}}
+
{{% /tab %}}
{{% tab "Cuota" %}}
{{% observability_pipelines/processors/quota %}}
{{% /tab %}}
-{{% tab "Reducir" %}}
+{{% tab "Reduce" %}}
{{% observability_pipelines/processors/reduce %}}
{{% /tab %}}
-{{% tab "Dedupe" %}}
+{{% tab "Reasignar a OCSF" %}}
-{{% observability_pipelines/processors/dedupe %}}
+{{% observability_pipelines/processors/remap_ocsf %}}
+
+{{% collapse-content title="Asignación de bibliotecas" level="h5" expanded=false id="library_mapping" %}}
+
+{{% observability_pipelines/processors/remap_ocsf_library_mapping %}}
+
+{{% /collapse-content %}}
+
+{{% collapse-content title="Asignación personalizada" level="h5" expanded=false id="custom_mapping" %}}
+
+{{% observability_pipelines/processors/remap_ocsf_custom_mapping %}}
+
+{{% /collapse-content %}}
+
+{{% observability_pipelines/processors/filter_syntax %}}
+
+{{% /tab %}}
+{{% tab "Muestra" %}}
+
+{{% observability_pipelines/processors/sample %}}
{{% /tab %}}
{{% tab "Sensitive Data Scanner" %}}
{{% observability_pipelines/processors/sensitive_data_scanner %}}
-{{% /tab %}}
-{{% tab "Añadir nombre de host" %}}
+{{% collapse-content title="Añadir reglas de la biblioteca" level="h5" %}}
-{{% observability_pipelines/processors/add_hostname %}}
+{{% observability_pipelines/processors/sds_library_rules %}}
-{{% /tab %}}
-{{% tab "Parse JSON" %}}
+{{% /collapse-content %}}
+{{% collapse-content title="Añadir una regla personalizada" level="h5" %}}
-{{% observability_pipelines/processors/parse_json %}}
+{{% observability_pipelines/processors/sds_custom_rules %}}
+
+{{% /collapse-content %}}
{{% /tab %}}
-{{% tab "Tabla de enriquecimiento" %}}
+{{% tab "Dividir matriz" %}}
-{{% observability_pipelines/processors/enrichment_table %}}
+{{% observability_pipelines/processors/split_array %}}
{{% /tab %}}
-{{% tab "Generar métricas" %}}
+{{% tab "Procesador de etiquetas" %}}
-{{% observability_pipelines/processors/generate_metrics %}}
+{{% observability_pipelines/processors/tags_processor %}}
{{% /tab %}}
-{{% tab "Añadir variables de entorno" %}}
+{{% tab "Limitar" %}}
-{{% observability_pipelines/processors/add_env_vars %}}
+{{% observability_pipelines/processors/throttle %}}
{{% /tab %}}
{{< /tabs >}}
-### Instalar el worker de Observability Pipelines
-1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación).
-1. Introduce la dirección Splunk HEC. Esta es la dirección y el puerto donde tus aplicaciones están enviando sus datos de registro. El worker de Observability Pipelines escucha esta dirección para los logs entrantes.
-1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Consulta [prerrequisitos](#prerequisites) para obtener más información.
+#### Añadir otro conjunto de procesadores y destinos
+
+{{% observability_pipelines/multiple_processors %}}
+
+### Instalar el Observability Pipelines Worker
+1. Selecciona tu plataforma en el menú desplegable **Elige tu plataforma de instalación**.
+1. Introduce la dirección Splunk HEC. Esta es la dirección y el puerto donde tus aplicaciones están enviando sus datos de registro. El Observability Pipelines Worker escucha esta dirección para los logs entrantes.
+1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta [Requisitos previos](#prerequisites).
{{< tabs >}}
-{{% tab "Datadog" %}}
+{{% tab "Amazon OpenSearch" %}}
-{{% observability_pipelines/destination_env_vars/datadog %}}
+{{% observability_pipelines/destination_env_vars/amazon_opensearch %}}
{{% /tab %}}
-{{% tab "Splunk HEC" %}}
+{{% tab "Amazon Security Lake" %}}
-{{% observability_pipelines/destination_env_vars/splunk_hec %}}
+{{% observability_pipelines/destination_env_vars/amazon_security_lake %}}
{{% /tab %}}
-{{% tab "Sumo Logic" %}}
+{{% tab "Chronicle" %}}
-{{% observability_pipelines/destination_env_vars/sumo_logic %}}
+{{% observability_pipelines/destination_env_vars/chronicle %}}
{{% /tab %}}
-{{% tab "Syslog" %}}
+{{% tab "CrowdStrike NG-SIEM" %}}
-{{% observability_pipelines/destination_env_vars/syslog %}}
+{{% observability_pipelines/destination_env_vars/crowdstrike_ng_siem %}}
{{% /tab %}}
-{{% tab "Chronicle" %}}
+{{% tab "Datadog" %}}
-{{% observability_pipelines/destination_env_vars/chronicle %}}
+{{% observability_pipelines/destination_env_vars/datadog %}}
+
+{{% /tab %}}
+{{% tab "Datadog Archives" %}}
+
+Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de la nube que utilices para archivar tus logs.
+
+{{% collapse-content title="Amazon S3" level="h5" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog_archives_amazon_s3 %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Google Cloud Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog_archives_google_cloud_storage %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Azure Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog_archives_azure_storage %}}
+
+{{% /collapse-content %}}
{{% /tab %}}
{{% tab "Elasticsearch" %}}
{{% observability_pipelines/destination_env_vars/elasticsearch %}}
+{{% /tab %}}
+{{% tab "Microsoft Sentinel" %}}
+
+{{% observability_pipelines/destination_env_vars/microsoft_sentinel %}}
+
+{{% /tab %}}
+{{% tab "New Relic" %}}
+
+{{% observability_pipelines/destination_env_vars/new_relic %}}
+
{{% /tab %}}
{{% tab "OpenSearch" %}}
{{% observability_pipelines/destination_env_vars/opensearch %}}
{{% /tab %}}
-{{% tab "Amazon OpenSearch" %}}
+{{% tab "SentinelOne" %}}
-{{% observability_pipelines/destination_env_vars/amazon_opensearch %}}
+{{% observability_pipelines/destination_env_vars/sentinelone %}}
{{% /tab %}}
-{{% tab "New Relic" %}}
+{{% tab "Socket" %}}
-{{% observability_pipelines/destination_env_vars/new_relic %}}
+{{% observability_pipelines/destination_env_vars/socket %}}
+
+{{% /tab %}}
+{{% tab "Splunk HEC" %}}
+
+{{% observability_pipelines/destination_env_vars/splunk_hec %}}
+
+{{% /tab %}}
+{{% tab "Sumo Logic" %}}
+
+{{% observability_pipelines/destination_env_vars/sumo_logic %}}
+
+{{% /tab %}}
+{{% tab "Syslog" %}}
+
+{{% observability_pipelines/destination_env_vars/syslog %}}
{{% /tab %}}
{{< /tabs >}}
-1. Sigue las instrucciones de tu entorno para instalar el worker.
+1. Sigue las instrucciones de tu entorno para instalar el Worker.
{{< tabs >}}
{{% tab "Docker" %}}
diff --git a/content/es/observability_pipelines/set_up_pipelines/split_logs/sumo_logic_hosted_collector.md b/content/es/observability_pipelines/set_up_pipelines/split_logs/sumo_logic_hosted_collector.md
index 94be92f66232f..21a9c34f001fa 100644
--- a/content/es/observability_pipelines/set_up_pipelines/split_logs/sumo_logic_hosted_collector.md
+++ b/content/es/observability_pipelines/set_up_pipelines/split_logs/sumo_logic_hosted_collector.md
@@ -7,14 +7,14 @@ title: Dividir logs para el origen de logs HTTP del recopilador alojado de Sumo
## Información general
-Configura tu origen de logs HTTP del recopilador alojado de Sumo Logic para enviar logs al worker de Observability Pipelines y, a continuación, a diferentes destinos en función de tu caso de uso.
+Configura tu origen de logs HTTP del recopilador alojado de Sumo Logic para enviar logs al Observability Pipelines Worker y, a continuación, a diferentes destinos en función de tu caso de uso.
{{% observability_pipelines/use_case_images/split_logs %}}
Este documento te guiará a través de los siguientes pasos:
1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines
1. [Configuración de Observability Pipelines](#set-up-observability-pipelines)
-1. [Envío de logs al worker de Observability Pipelines a través del origen HTTP de Sumo Logic](#send-logs-to-the-observability-pipelines-worker-over-sumo-logic-http-source)
+1. [Envío de logs al Observability Pipelines Worker a través del origen HTTP de Sumo Logic](#send-logs-to-the-observability-pipelines-worker-over-sumo-logic-http-source)
## Requisitos previos
@@ -28,7 +28,7 @@ Este documento te guiará a través de los siguientes pasos:
## Configurar Observability Pipelines
-1. Navega hasta [Observability Pipelines][1].
+1. Ve a [Observability Pipelines][1].
1. Selecciona la plantilla **Split Logs** (Dividir logs) para crear un nuevo pipeline.
1. Selecciona **Sumo Logic** como el origen.
@@ -38,56 +38,116 @@ Este documento te guiará a través de los siguientes pasos:
### Configurar los destinos
-Introduce la siguiente información en función del destino de logs seleccionado.
+Introduce la siguiente información en función de los destinos de logs seleccionados.
{{< tabs >}}
-{{% tab "Datadog" %}}
+{{% tab "Amazon OpenSearch" %}}
-{{% observability_pipelines/destination_settings/datadog %}}
+{{% observability_pipelines/destination_settings/amazon_opensearch %}}
{{% /tab %}}
-{{% tab "Splunk HEC" %}}
+{{% tab "Amazon Security Lake" %}}
-{{% observability_pipelines/destination_settings/splunk_hec %}}
+##### Requisitos previos
+
+{{% observability_pipelines/prerequisites/amazon_security_lake %}}
+
+##### Configurar el destino
+
+{{% observability_pipelines/destination_settings/amazon_security_lake %}}
+
+{{% /tab %}}
+{{% tab "Chronicle" %}}
+
+{{% observability_pipelines/destination_settings/chronicle %}}
{{% /tab %}}
-{{% tab "Sumo Logic" %}}
+{{% tab "CrowdStrike NG-SIEM" %}}
-{{% observability_pipelines/destination_settings/sumo_logic %}}
+{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}}
{{% /tab %}}
-{{% tab "Syslog" %}}
+{{% tab "Datadog" %}}
-{{% observability_pipelines/destination_settings/syslog %}}
+{{% observability_pipelines/destination_settings/datadog %}}
{{% /tab %}}
-{{% tab "Chronicle" %}}
+{{% tab "Datadog Archives" %}}
-{{% observability_pipelines/destination_settings/chronicle %}}
+{{% observability_pipelines/destination_settings/datadog_archives_note %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_prerequisites %}}
+
+Para configurar el destino, sigue las instrucciones del proveedor de nube que utilizas para archivar tus logs.
+
+{{% collapse-content title="Amazon S3" level="h5" %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_amazon_s3 %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Google Cloud Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_google_cloud_storage %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Azure Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_settings/datadog_archives_azure_storage %}}
+
+{{% /collapse-content %}}
{{% /tab %}}
{{% tab "Elasticsearch" %}}
{{% observability_pipelines/destination_settings/elasticsearch %}}
+{{% /tab %}}
+{{% tab "Microsoft Sentinel" %}}
+
+{{% observability_pipelines/destination_settings/microsoft_sentinel %}}
+
+{{% /tab %}}
+{{% tab "New Relic" %}}
+
+{{% observability_pipelines/destination_settings/new_relic %}}
+
{{% /tab %}}
{{% tab "OpenSearch" %}}
{{% observability_pipelines/destination_settings/opensearch %}}
{{% /tab %}}
-{{% tab "Amazon OpenSearch" %}}
+{{% tab "SentinelOne" %}}
-{{% observability_pipelines/destination_settings/amazon_opensearch %}}
+{{% observability_pipelines/destination_settings/sentinelone %}}
{{% /tab %}}
-{{% tab "New Relic" %}}
+{{% tab "Socket" %}}
-{{% observability_pipelines/destination_settings/new_relic %}}
+{{% observability_pipelines/destination_settings/socket %}}
+
+{{% /tab %}}
+{{% tab "Splunk HEC" %}}
+
+{{% observability_pipelines/destination_settings/splunk_hec %}}
+
+{{% /tab %}}
+{{% tab "Sumo Logic" %}}
+
+{{% observability_pipelines/destination_settings/sumo_logic %}}
+
+{{% /tab %}}
+{{% tab "Syslog" %}}
+
+{{% observability_pipelines/destination_settings/syslog %}}
{{% /tab %}}
{{< /tabs >}}
+#### Añadir destinos adicionales
+
+{{% observability_pipelines/multiple_destinations %}}
+
### Configurar procesadores
{{% observability_pipelines/processors/intro %}}
@@ -97,125 +157,230 @@ Introduce la siguiente información en función del destino de logs seleccionado
{{% observability_pipelines/processors/add_processors %}}
{{< tabs >}}
-{{% tab "Filtro" %}}
+{{% tab "Añadir variables de entorno" %}}
-{{% observability_pipelines/processors/filter %}}
+{{% observability_pipelines/processors/add_env_vars %}}
+
+{{% /tab %}}
+{{% tab "Add hostname" %}}
+
+{{% observability_pipelines/processors/add_hostname %}}
{{% /tab %}}
-{{% tab "Editar campos" %}}
+{{% tab "Procesador personalizado" %}}
+
+{{% observability_pipelines/processors/custom_processor %}}
+
+{{% /tab %}}
+{{% tab "Dedupe" %}}
+
+{{% observability_pipelines/processors/dedupe %}}
+
+{{% /pestaña %}}
+{{% pestaña "Editar campos" %}}
{{% observability_pipelines/processors/remap %}}
{{% /tab %}}
-{{% tab "Muestra" %}}
+{{% tab "Tabla de enriquecimiento" %}}
-{{% observability_pipelines/processors/sample %}}
+{{% observability_pipelines/processors/enrichment_table %}}
+
+{{% /tab %}}
+{{% tab "Filtro" %}}
+
+{{% observability_pipelines/processors/filter %}}
+
+{{% /tab %}}
+{{% tab "Generar métricas" %}}
+
+{{% observability_pipelines/processors/generate_metrics %}}
{{% /tab %}}
{{% tab "Grok Parser" %}}
{{% observability_pipelines/processors/grok_parser %}}
+{{% /tab %}}
+{{% tab "Parse JSON" %}}
+
+{{% observability_pipelines/processors/parse_json %}}
+
+{{% /tab %}}
+{{% tab "Analizar XML" %}}
+
+{{% observability_pipelines/processors/parse_xml %}}
+
{{% /tab %}}
{{% tab "Cuota" %}}
{{% observability_pipelines/processors/quota %}}
{{% /tab %}}
-{{% tab "Reducir" %}}
+{{% tab "Reduce" %}}
{{% observability_pipelines/processors/reduce %}}
{{% /tab %}}
-{{% tab "Dedupe" %}}
+{{% tab "Reasignar a OCSF" %}}
-{{% observability_pipelines/processors/dedupe %}}
+{{% observability_pipelines/processors/remap_ocsf %}}
+
+{{% collapse-content title="Asignación de bibliotecas" level="h5" expanded=false id="library_mapping" %}}
+
+{{% observability_pipelines/processors/remap_ocsf_library_mapping %}}
+
+{{% /collapse-content %}}
+
+{{% collapse-content title="Asignación personalizada" level="h5" expanded=false id="custom_mapping" %}}
+
+{{% observability_pipelines/processors/remap_ocsf_custom_mapping %}}
+
+{{% /collapse-content %}}
+
+{{% observability_pipelines/processors/filter_syntax %}}
+
+{{% /tab %}}
+{{% tab "Muestra" %}}
+
+{{% observability_pipelines/processors/sample %}}
{{% /tab %}}
{{% tab "Sensitive Data Scanner" %}}
{{% observability_pipelines/processors/sensitive_data_scanner %}}
-{{% /tab %}}
-{{% tab "Añadir nombre de host" %}}
+{{% collapse-content title="Añadir reglas de la biblioteca" level="h5" %}}
-{{% observability_pipelines/processors/add_hostname %}}
+{{% observability_pipelines/processors/sds_library_rules %}}
-{{% /tab %}}
-{{% tab "Parse JSON" %}}
+{{% /collapse-content %}}
+{{% collapse-content title="Añadir una regla personalizada" level="h5" %}}
-{{% observability_pipelines/processors/parse_json %}}
+{{% observability_pipelines/processors/sds_custom_rules %}}
+
+{{% /collapse-content %}}
{{% /tab %}}
-{{% tab "Tabla de enriquecimiento" %}}
+{{% tab "Dividir matriz" %}}
-{{% observability_pipelines/processors/enrichment_table %}}
+{{% observability_pipelines/processors/split_array %}}
{{% /tab %}}
-{{% tab "Generar métricas" %}}
+{{% tab "Procesador de etiquetas" %}}
-{{% observability_pipelines/processors/generate_metrics %}}
+{{% observability_pipelines/processors/tags_processor %}}
{{% /tab %}}
-{{% tab "Añadir variables de entorno" %}}
+{{% tab "Limitar" %}}
-{{% observability_pipelines/processors/add_env_vars %}}
+{{% observability_pipelines/processors/throttle %}}
{{% /tab %}}
{{< /tabs >}}
-### Instalar el worker de Observability Pipelines
-1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación).
-1. Introduce la dirección Sumo Logic. Esta es la dirección y el puerto donde tus aplicaciones están enviando sus datos de registro. El worker de Observability Pipelines escucha esta dirección para los logs entrantes.
-1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Consulta [prerrequisitos](#prerequisites) para obtener más información.
+#### Añadir otro conjunto de procesadores y destinos
+
+{{% observability_pipelines/multiple_processors %}}
+
+### Instalar el Observability Pipelines Worker
+1. Selecciona tu plataforma en el menú desplegable **Elige tu plataforma de instalación**.
+1. Introduce la dirección Sumo Logic. Esta es la dirección y el puerto donde tus aplicaciones están enviando sus datos de logs. El Observability Pipelines Worker escucha esta dirección para detectar logs entrantes.
+1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta [Requisitos previos](#prerequisites).
{{< tabs >}}
-{{% tab "Datadog" %}}
+{{% tab "Amazon OpenSearch" %}}
-{{% observability_pipelines/destination_env_vars/datadog %}}
+{{% observability_pipelines/destination_env_vars/amazon_opensearch %}}
{{% /tab %}}
-{{% tab "Splunk HEC" %}}
+{{% tab "Amazon Security Lake" %}}
-{{% observability_pipelines/destination_env_vars/splunk_hec %}}
+{{% observability_pipelines/destination_env_vars/amazon_security_lake %}}
{{% /tab %}}
-{{% tab "Sumo Logic" %}}
+{{% tab "Chronicle" %}}
-{{% observability_pipelines/destination_env_vars/sumo_logic %}}
+{{% observability_pipelines/destination_env_vars/chronicle %}}
{{% /tab %}}
-{{% tab "Syslog" %}}
+{{% tab "CrowdStrike NG-SIEM" %}}
-{{% observability_pipelines/destination_env_vars/syslog %}}
+{{% observability_pipelines/destination_env_vars/crowdstrike_ng_siem %}}
{{% /tab %}}
-{{% tab "Chronicle" %}}
+{{% tab "Datadog" %}}
-{{% observability_pipelines/destination_env_vars/chronicle %}}
+{{% observability_pipelines/destination_env_vars/datadog %}}
+
+{{% /tab %}}
+{{% tab "Datadog Archives" %}}
+
+Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de la nube que utilices para archivar tus logs.
+
+{{% collapse-content title="Amazon S3" level="h5" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog_archives_amazon_s3 %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Google Cloud Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog_archives_google_cloud_storage %}}
+
+{{% /collapse-content %}}
+{{% collapse-content title="Azure Storage" level="h5" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog_archives_azure_storage %}}
+
+{{% /collapse-content %}}
{{% /tab %}}
{{% tab "Elasticsearch" %}}
{{% observability_pipelines/destination_env_vars/elasticsearch %}}
+{{% /tab %}}
+{{% tab "Microsoft Sentinel" %}}
+
+{{% observability_pipelines/destination_env_vars/microsoft_sentinel %}}
+
+{{% /tab %}}
+{{% tab "New Relic" %}}
+
+{{% observability_pipelines/destination_env_vars/new_relic %}}
+
{{% /tab %}}
{{% tab "OpenSearch" %}}
{{% observability_pipelines/destination_env_vars/opensearch %}}
{{% /tab %}}
-{{% tab "Amazon OpenSearch" %}}
+{{% tab "SentinelOne" %}}
-{{% observability_pipelines/destination_env_vars/amazon_opensearch %}}
+{{% observability_pipelines/destination_env_vars/sentinelone %}}
{{% /tab %}}
-{{% tab "New Relic" %}}
+{{% tab "Socket" %}}
-{{% observability_pipelines/destination_env_vars/new_relic %}}
+{{% observability_pipelines/destination_env_vars/socket %}}
+
+{{% /tab %}}
+{{% tab "Splunk HEC" %}}
+
+{{% observability_pipelines/destination_env_vars/splunk_hec %}}
+
+{{% /tab %}}
+{{% tab "Sumo Logic" %}}
+
+{{% observability_pipelines/destination_env_vars/sumo_logic %}}
+
+{{% /tab %}}
+{{% tab "Syslog" %}}
+
+{{% observability_pipelines/destination_env_vars/syslog %}}
{{% /tab %}}
{{< /tabs >}}
-1. Sigue las instrucciones de tu entorno para instalar el worker.
+1. Sigue las instrucciones de tu entorno para instalar el Worker.
{{< tabs >}}
{{% tab "Docker" %}}
diff --git a/content/es/opentelemetry/integrations/spark_metrics.md b/content/es/opentelemetry/integrations/spark_metrics.md
new file mode 100644
index 0000000000000..83cad192894e4
--- /dev/null
+++ b/content/es/opentelemetry/integrations/spark_metrics.md
@@ -0,0 +1,39 @@
+---
+further_reading:
+- link: /opentelemetry/setup/collector_exporter/
+ tag: Documentación
+ text: Configuración de OpenTelemetry Collector
+title: Métricas de Apache Spark
+---
+
+## Información general
+
+{{< img src="/opentelemetry/collector_exporter/spark_metrics.png" alt="Métricas de OpenTelemetry Apache Spark en un dashboard de Spark" style="width:100%;" >}}
+
+El [receptor de Apache Spark][1] permite recopilar métricas de Apache Spark y acceder al dashboard de [Información general de Spark][4]. Configura el receptor según las especificaciones de la última versión del `apachesparkreceiver`.
+
+Para más información, consulta la documentación del proyecto de OpenTelemetry para el [receptor de Apache Spark][1].
+
+## Configuración
+
+Para recopilar métricas de Apache Spark con OpenTelemetry para su uso con Datadog:
+
+1. Configura el [receptor de Apache Spark][1] en tu configuración de OpenTelemetry Collector.
+2. Asegúrate de que el OpenTelemetry Collector está [configurado para exportar a Datadog][3].
+
+Consulta la [documentación del receptor de Apache Spark][1] para obtener información detallada sobre las opciones y requisitos de configuración.
+
+## Datos recopilados
+
+{{< mapping-table resource="apachespark.csv">}}
+
+Consulta [Asignación de métricas de OpenTelemetry][2] para obtener más información.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/receiver/apachesparkreceiver
+[2]: /es/opentelemetry/guide/metrics_mapping/
+[3]: /es/opentelemetry/setup/collector_exporter/
+[4]: https://app.datadoghq.com/screen/integration/95/spark---overview
\ No newline at end of file
diff --git a/content/es/opentelemetry/mapping/metrics_mapping.md b/content/es/opentelemetry/mapping/metrics_mapping.md
new file mode 100644
index 0000000000000..01fbd6000e74e
--- /dev/null
+++ b/content/es/opentelemetry/mapping/metrics_mapping.md
@@ -0,0 +1,51 @@
+---
+aliases:
+- /es/opentelemetry/guide/metrics_mapping/
+- /es/opentelemetry/schema_semantics/metrics_mapping/
+disable_sidebar: true
+further_reading:
+- link: /metrics/open_telemetry/otlp_metric_types
+ tag: Documentación
+ text: Tipos de métricas OTLP
+- link: /opentelemetry/guide/semantic_mapping
+ tag: Documentación
+ text: Asignación de atributos de recursos de OpenTelemetry a Datadog
+title: Asignación de métricas de OpenTelemetry
+---
+
+## Información general
+
+Datadog se basa en métricas y etiquetas que siguen patrones de nomenclatura específicos. Por lo tanto, Datadog asigna las métricas entrantes de OpenTelemetry al formato de métrica apropiado de Datadog. Este proceso de asignación puede crear métricas adicionales, pero éstas no afectan a la facturación de Datadog.
+
+
+
+## Cómo aparecen las métricas de OpenTelemetry en Datadog
+
+Para diferenciar las métricas del receptor de las [métricas de host][12] del OpenTelemetry Collector y el Datadog Agent, Datadog antepone `otel.` a cualquier métrica recibida que empiece por `system.` o `process.`. Datadog no recomienda supervisar la misma infraestructura tanto con el Datadog Agent como con el OpenTelemetry Collector.
+
+Datadog está evaluando formas de mejorar la experiencia de métricas de OpenTelemetry Protocol, incluida la posible eliminación de este prefijo otel
.
+
+## Asignación de métricas
+
+La siguiente tabla muestra las asignaciones de métricas para varias integraciones. Utiliza los controles de búsqueda y filtrado para encontrar las correspondencias de una integración específica.
+
+Para más información, consulta [integraciones de OpenTelemetry][11].
+
+{{< multifilter-search resource="_data/semantic-core/unified_semantic_core.json">}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/receiver/hostmetricsreceiver
+[2]: /es/opentelemetry/otel_collector_datadog_exporter/
+[3]: /es/universal_service_monitoring/setup/
+[4]: /es/opentelemetry/guide/semantic_mapping/
+[5]: https://app.datadoghq.com/infrastructure/map?fillby=avg%3Acpuutilization&groupby=availability-zone
+[6]: https://app.datadoghq.com/infrastructure
+[7]: /es/opentelemetry/collector_exporter/#out-of-the-box-dashboards
+[8]: /es/tracing/trace_explorer/trace_view/?tab=hostinfo
+[9]: /es/opentelemetry/otel_collector_datadog_exporter/?tab=onahost#containers-overview-dashboard
+[10]: /es/tracing/trace_explorer/trace_view/
+[11]: /es/opentelemetry/integrations/
+[12]: /es/opentelemetry/integrations/host_metrics/
\ No newline at end of file
diff --git a/content/es/opentelemetry/reference/concepts.md b/content/es/opentelemetry/reference/concepts.md
new file mode 100644
index 0000000000000..c7edc59365f9e
--- /dev/null
+++ b/content/es/opentelemetry/reference/concepts.md
@@ -0,0 +1,37 @@
+---
+aliases:
+- /es/opentelemetry/otel_terms/
+further_reading:
+- link: https://opentelemetry.io/docs/concepts/
+ tag: Sitio externo
+ text: Conceptos de OpenTelemetry
+- link: https://opentelemetry.io/docs/concepts/glossary/
+ tag: Sitio externo
+ text: Glosario de OpenTelemetry
+- link: https://docs.datadoghq.com/glossary/
+ tag: Documentación
+ text: Glosario de Datadog
+title: Términos y conceptos de OpenTelemetry
+---
+
+Esta página describe términos y conceptos esenciales de OpenTelemetry y Datadog. Para ver definiciones y descripciones adicionales, consulta el [glosario de OpenTelemetry][6].
+
+| Concepto | Descripción |
+|------------------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
+| Telemetría | Recopilación de métricas, logs, trazas (traces) y perfiles que proporcionan observaciones sobre los comportamientos y el rendimiento de las aplicaciones y la infraestructura. |
+| [OpenTelemetry Collector][1] | Implementación independiente del proveedor para recopilar y exportar datos de telemetría emitidos por varios procesos. Puede configurarse para recibir, procesar y exportar telemetría a uno o varios destinos, incluidos los backends de almacenamiento y las herramientas de análisis. |
+| [Datadog Exporter][2] | Componente OTel Collector que te permite reenviar datos de trazas, métricas y logs desde los SDK de OpenTelemetry a Datadog. |
+| [OTLP Receiver][3] | Componente dentro de OpenTelemetry Collector responsable de aceptar datos de telemetría en el formato OpenTelemetry Protocol (OTLP). OTLP es el protocolo nativo de OpenTelemetry, diseñado para transferir datos de telemetría entre los SDK y el Collector. |
+| [Propagación del contexto][4] | Mecanismo utilizado en el rastreo distribuido para conservar el contexto de rastreo en diferentes servicios. |
+| [Convenciones semánticas][5] | Patrones de nomenclatura y definiciones de atributos normalizados que establecen una terminología coherente para los datos de telemetría en diferentes sistemas e implementaciones. Estas convenciones garantizan que los datos recopilados de diversas fuentes puedan procesarse y analizarse de manera uniforme. |
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/opentelemetry/collector_exporter/
+[2]: /es/opentelemetry/collector_exporter/otel_collector_datadog_exporter/
+[3]: /es/opentelemetry/collector_exporter/otlp_receiver/
+[4]: /es/opentelemetry/reference/trace_context_propagation/
+[5]: /es/opentelemetry/schema_semantics/semantic_mapping/
+[6]: https://opentelemetry.io/docs/concepts/glossary/
\ No newline at end of file
diff --git a/content/es/partners/_index.md b/content/es/partners/_index.md
index e4c211f8f1265..1667618842b5e 100644
--- a/content/es/partners/_index.md
+++ b/content/es/partners/_index.md
@@ -1,82 +1,6 @@
---
-description: Empezando con Datadog para socios comerciales y servicios
-private: true
-title: Socios
+cascade:
+ type: partners
+external_redirect: /partners/getting_started/
+title: Partners
---
-
-Datadog proporciona información sobre infraestructuras de nube aplicaciones híbridas de tus clientes. La interfaz de usuario intuitiva y la potente API te permiten incorporar, aprovisionar y gestionar los diversos entornos de tus clientes, al tiempo que define la seguridad de los datos de cada cuenta.
-
-## Empezando
-
-Conoce las prácticas recomendadas y empieza a monitorizar los entornos de tus clientes.
-
-- [Sentar las bases de trabajo][1]: Contiene información sobre cómo empezar y qué decisiones clave debes tomar al principio.
-- [Entrada de datos][2]: Explica cómo pueden introducirse datos en Datadog y qué requisitos previos deben cumplir tus entornos.
-- [Entrega de valor][3]: Recorre los pasos recomendados después de que los datos fluyan a Datadog.
-- [Informes de facturación y uso][4]: Cubre la monitorización individual del cliente y el uso agregado de la plataforma Datadog en configuraciones de cuenta única y multiorganización.
-
-## Guía de capacitación en ventas para socios
-
-Consulta la [guía de capacitación en ventas para socios][5] para obtener una hoja de ruta de formación que te prepare para el proceso de ingeniería de ventas de Datadog.
-## Mantenerse al día con Datadog
-
-Hay muchas formas de mantenerse al día con Datadog y conocer las nuevas funciones:
-- Puedes [consultar las notas de la versión][6] en el sitio de Datadog
-- Como miembro de la red de socios de Datadog, tienes acceso exclusivo al [portal de la red de socios de Datadog][7]. Allí encontrarás:
- - Material publicitario y de formación
- - El seminario web trimestral DPN Live Briefing: Ve las sesiones grabadas en la librería de recursos o espera la invitación en tu bandeja de entrada.
-- Datadog comparte las numerosas lecciones aprendidas sobre sistemas escalables y distribuidos en la nube con la serie [Datadog sobre...][8].
-
-### Información de estado
-
-Datadog pone a tu disposición los siguientes recursos para que puedas obtener información actualizada sobre el estado de servicios:
-- Región US: [https://status.datadoghq.com][9]
-- Región UE: [https://status.datadoghq.eu][10]
-
-Suscríbete a esta página para recibir notificaciones sobre cambios de estado.
-
-Si quieres ver el estado de integraciones de terceros que hayas activado con Datadog, consulta: [https://datadogintegrations.statuspage.io][11].
-
-### Otros recursos
-
-Explora otros recursos importantes para mantenerte al día con Datadog:
-
-{{< whatsnext desc="Repositorios GitHub" >}}
- {{< nextlink href="https://github.com/Datadog/Datadog-Agent/" >}}Datadog Agent : El código fuente de las versiones 7 y 6 del Datadog Agent. {{< /nextlink >}}
- {{< nextlink href="https://github.com/DataDog/integrations-core/" >}}integraciones núcleo: Integraciones del Agent que Datadog desarrolla y admite oficialmente.{{< /nextlink >}}
- {{< nextlink href="https://github.com/DataDog/integrations-extras/" >}}integraciones extras: Integraciones Datadog mantenidss por la comunidad.{{< /nextlink >}}
- {{< nextlink href="https://github.com/Datadog/Miscellany" >}}Misceláneo: Scripts y herramientas misceláneos de Datadog.{{< /nextlink >}}
-{{< /whatsnext >}}
-
-{{< whatsnext desc="Blog y redes sociales de Datadog" >}}
- {{< nextlink href="www.datadoghq.com/blog/" >}}Blog de Datadog{{< /nextlink >}}
- {{< nextlink href="https://www.linkedin.com/company/datadog/" >}}LinkedIn{{< /nextlink >}}
- {{< nextlink href="https://twitter.com/datadoghq" >}}Twitter{{< /nextlink >}}
- {{< nextlink href="https://www.facebook.com/datadoghq/" >}}Facebook{{< /nextlink >}}
-{{< /whatsnext >}}
-
-{{< whatsnext desc="YouTube" >}}
- {{< nextlink href="https://www.youtube.com/user/DatadogHQ" >}}Canal oficial de YouTube{{< /nextlink >}}
- {{< nextlink href="https://www.youtube.com/playlist?list=PLdh-RwQzDsaM9Sq_fi-yXuzhmE7nOlqLE" >}}Lista de consejos y trucos{{< /nextlink >}}
-{{< /whatsnext >}}
-
-{{< whatsnext desc="Lista de conferencias Dash" >}}
- {{< nextlink href="https://www.youtube.com/playlist?list=PLdh-RwQzDsaPhn1p7Sz6nc_6-9YInd__u" >}}Dash 2023{{< /nextlink >}}
- {{< nextlink href="https://www.youtube.com/playlist?list=PLdh-RwQzDsaOlLse2WlvFXYRJ8iirG2QO" >}}Dash 2022{{< /nextlink >}}
- {{< nextlink href="https://www.youtube.com/playlist?list=PLdh-RwQzDsaO-_rgnDSBn221gWacNCkDr" >}}Dash 2021{{< /nextlink >}}
- {{< nextlink href="https://www.youtube.com/playlist?list=PLdh-RwQzDsaMlgvtlJRyXGgt4i-9Oiyi1" >}}Dash 2020{{< /nextlink >}}
- {{< nextlink href="https://www.youtube.com/playlist?list=PLdh-RwQzDsaPkMoleskq9YcWMWvYfBCRB" >}}Dash 2019{{< /nextlink >}}
-
-{{< /whatsnext >}}
-
-[1]: /es/partners/laying-the-groundwork/
-[2]: /es/partners/data-intake/
-[3]: /es/partners/delivering-value/
-[4]: /es/partners/billing-and-usage-reporting/
-[5]: /es/partners/sales-enablement/
-[6]: https://app.datadoghq.com/release-notes
-[7]: https://partners.datadoghq.com/
-[8]: https://datadogon.datadoghq.com/
-[9]: https://status.datadoghq.com
-[10]: https://status.datadoghq.eu
-[11]: https://datadogintegrations.statuspage.io
diff --git a/content/es/product_analytics/charts/funnel_analysis.md b/content/es/product_analytics/charts/funnel_analysis.md
new file mode 100644
index 0000000000000..c1be3b8b4c28e
--- /dev/null
+++ b/content/es/product_analytics/charts/funnel_analysis.md
@@ -0,0 +1,138 @@
+---
+algolia:
+ tags:
+ - embudo
+aliases:
+- /es/real_user_monitoring/funnel_analysis
+- /es/real_user_monitoring/product_analytics/funnel_analysis
+- /es/product_analytics/journeys/funnel_analysis/
+disable_toc: false
+further_reading:
+- link: /product_analytics/analytics_explorer/
+ tag: Documentación
+ text: Analytics Explorer
+title: Análisis de embudo
+---
+
+## Información general
+
+El análisis del embudo te ayuda a realizar un seguimiento de las tasas de conversión en flujos de trabajo clave, para identificar y abordar los cuellos de botella en recorridos de extremo a extremo de los usuarios. En concreto, puedes:
+
+- Ver si los clientes abandonan el sitio web en un momento determinado debido a un rendimiento deficiente.
+- Realizar un seguimiento de la evolución de la tasa de conversión a medida que se incorporan nuevas funciones.
+- Medir cómo afecta a la tasa de abandono la adición de nuevos pasos a un flujo de trabajo.
+- Comprender cuánto tiempo tardan en promedio los usuarios en atravesar el embudo (tiempo hasta la conversión).
+- Filtrar eventos individuales (acción o vista) en diferentes pasos de tu embudo.
+- Combinar varios eventos en un mismo paso, ya que los usuarios finales podrían tener diferentes maneras de obtener el mismo resultado en diferentes flujos.
+
+**Nota**: La **tasa de conversión** es el número de visitantes de tu sitio web que sí lograron el objetivo buscado (la conversión) del número total de visitantes.
+
+## Construir un embudo
+
+Para crear un embudo, ve a [**Product Analytics > Charts** (Análisis de productos > Gráficos)][1] y haz clic en **Funnel** (Embudo).
+
+{{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_overview.png" alt="Ve a la pestaña Funnel Analysis (Análisis de embudos) en Products Analytics (Análisis de productos)" style="width:100%;" >}}
+
+En esta página, elige tu vista o acción inicial y haz clic en `+ Step` crear pasos adicionales. También puedes utilizar la función de arrastrar y soltar para organizar los pasos.
+
+{{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_video1.mp4" alt="Filtrado del mapa de red con búsquedas" video=true >}}
+
+Si tienes un punto de partida en mente, pero no sabes exactamente qué hicieron tus usuarios a continuación, el editor de pasos del embudo carga automáticamente las **vistas** y **acciones** más frecuentes que tus usuarios suelen ver y realizar a continuación. Esto te permite crear embudos más rápidamente, ya que conoces los recorridos que tus usuarios realizan en secuencia.
+
+{{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_dropoffs.png" alt="El editor de pasos de embudo carga automáticamente las vistas y acciones más frecuentes que los usuarios generalmente ven y realizan respectivamente." style="width:50%;" >}}
+
+**Nota**: Cualquier acción o vista que ocurra entre dos pasos de un embudo no afecta a la tasa de conversión paso a paso o global. Mientras el paso 1 y el paso 2 ocurran en el orden correcto en una sesión dada al menos una vez, cuentan como una única sesión convertida.
+
+### Filtrado
+
+Cuando creas tu embudo, puedes filtrar globalmente o por pasos.
+
+- Los **filtros globales** se aplican a todo el embudo.
+
+ {{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_filter_by-2.png" alt="Uso de atributos para filtrar información globalmente al crear tu embudo" style="width:50%;" >}}
+
+- El **filtrado de un paso** proporciona información sobre cómo cambia el paso en función de una restricción concreta de ese paso. Por ejemplo, es posible que quieras ver cómo un dispositivo, sistema operativo, geolocalización o usuario específico afecta a la conversión entre pasos.
+
+ {{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_filter_by_step.png" alt="Uso de atributos para filtrar información entre pasos al crear tu embudo" style="width:50%;" >}}
+
+### Combinación de eventos
+
+Al crear tu embudo, puedes combinar varios eventos en un paso dado, ya que los usuarios finales pueden tener diferentes maneras de obtener el mismo resultado en diferentes flujos. Al combinar eventos, cualquiera de los eventos del paso puede representar el paso. El valor numérico que ves es la combinación de todos los pasos dentro del paso combinado.
+
+Para combinar un evento, haz clic en los tres puntos situados junto a un evento y selecciona **+ Combine Events** (+ Combinar eventos).
+
+### Agrupar
+
+Utiliza el desplegable Agrupar por, para agrupar los datos por un atributo específico.
+
+**Nota**: La opción Agrupar por no funciona con la visualización de pasos del embudo.
+
+## Refinar la conversión
+
+Puedes seguir analizando la información de la página del embudo para comprender la tasa de conversión. La tasa de conversión es una métrica esencial que mide la eficacia de tu sitio o aplicación.
+
+Puedes analizar la conversión por **recuento de sesiones** o **usuarios**, lo que significa que puedes comprender cuántas sesiones o usuarios completaron el embudo.
+
+Puedes medir la conversión mediante los siguientes atributos:
+
+- **Recuento de conversiones** - Recuento de usuarios que atravesaron el embudo que definiste.
+- **Tasa de conversión** - La conversión se refiere al momento en que un usuario responde a una llamada a la acción. Esta tasa es el porcentaje de usuarios que entraron en el embudo y se convirtieron.
+
+ **Nota**: Sólo las sesiones RUM completadas contribuyen a las tasas de conversión.
+
+- **Tiempo hasta la conversión** - Tiempo que tardó el usuario en completar los eventos del paso.
+
+Puedes medir estos atributos **en todos los pasos** o entre **pasos específicos**.
+
+{{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_conversion.png" alt="Medir atributos en todos los pasos o en pasos específicos." style="width:60%;" >}}
+
+Utiliza el selector **filtro** para filtrar por los distintos criterios que hayas definido.
+
+A continuación, haz clic en un punto de datos para **investigar los atributos específicos** que podrían haber afectado a los índices de conversión, como la velocidad de carga de la página, la facilidad de navegación o la experiencia de pago.
+
+## Cambiar la visualización
+
+{{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_change_viz.mp4" alt="Hacer clic en el menú desplegable de visualización para seleccionar otra vista" video=true >}}
+
+Después de definir los eventos y la medición de la conversión del paso, puedes cambiar a una visualización diferente para comprender mejor las conversiones de los usuarios de tu aplicación.
+
+### Series temporales
+Visualizar la conversión como una serie temporal puede ser útil para comprender las tendencias de conversión. Cada punto del eje x representa la conversión de la consulta identificada.
+
+Puedes seleccionar el periodo de tiempo para crear gráficos de conversión y visualizar las conversiones en porcentajes o en recuentos absolutos.
+
+{{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_timeseries.png" alt="Visualizar datos de conversión como series temporales." style="width:80%;" >}}
+
+### Valor de consulta
+
+Los valores de consulta muestran el valor actual de la métrica de uso dada.
+
+{{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_query_value.png" alt="Visualizar datos de conversión como valor de consulta." style="width:80%;" >}}
+
+### Lista principal
+
+Visualiza los principales valores de una faceta en función de la medida elegida.
+
+{{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_toplist.png" alt="Visualizar datos de conversión como una lista de principales." style="width:80%;" >}}
+
+## Compartir un embudo
+
+Puedes compartir embudos con tus equipos en [dashboards][5], para analizar la conversión junto con otras métricas de telemetría, o en un [notebook][6], para utilizarlos en informes.
+
+Puedes compartir la visualización completa o widgets individuales.
+
+- Comparte la visualización completa en notebooks y dashboards:
+
+ {{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_share_funnel.png" alt="Compartir toda la visualización haciendo clic en Export (Exportar)" style="width:90%;" >}}
+
+- Comparte widgets individuales desde un dashboard:
+
+ {{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_share_dashboard.png" alt="Compartir un widget haciendo clic en el icono de exportación en la parte superior derecha del widget" style="width:90%;" >}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/product-analytics/user-journey/funnel
+[5]: /es/product_analytics/dashboards/
+[6]: /es/notebooks/
\ No newline at end of file
diff --git a/content/es/security/application_security/setup/gcp/cloud-run/python.md b/content/es/security/application_security/setup/gcp/cloud-run/python.md
new file mode 100644
index 0000000000000..ceb88eef5c869
--- /dev/null
+++ b/content/es/security/application_security/setup/gcp/cloud-run/python.md
@@ -0,0 +1,121 @@
+---
+further_reading:
+- link: /security/application_security/how-it-works/
+ tag: Documentación
+ text: Cómo funciona App and API Protection
+- link: /security/default_rules/?category=cat-application-security
+ tag: Documentación
+ text: Reglas predefinidas de App and API Protection
+- link: /security/application_security/troubleshooting
+ tag: Documentación
+ text: Solución de problemas de App and API Protection
+- link: /security/application_security/threats/
+ tag: Documentación
+ text: App and API Protection
+- link: https://www.datadoghq.com/blog/datadog-security-google-cloud/
+ tag: Blog
+ text: Datadog Security amplía las funciones de cumplimiento de normativas y protección
+ frente a amenazas para Google Cloud
+title: Habilitar App and API Protection para funciones de Google Cloud Run en Python
+---
+
+La compatibilidad de AAP con Google Cloud Run está en vista previa.
+
+## Cómo funciona
+
+La aplicación `serverless-init` envuelve tu proceso y lo ejecuta como un subproceso. Inicia un escuchador de métricas de DogStatsD y un escuchador de trazas del Trace Agent. Recopila logs envolviendo los flujos stdout/stderr de tu aplicación. Después de arrancar, `serverless-init` inicia tu comando como un subproceso.
+
+Para una instrumentación completa, asegúrate de que estás llamando a `datadog-init` como el primer comando que se ejecuta dentro de tu contenedor Docker. Puedes hacerlo configurándolo como punto de entrada, o configurándolo como el primer argumento en CMD.
+
+## Compatibilidad
+
+La compatibilidad de Google Cloud Run con App and API Protection sin servidor está en vista previa.
+
+**Nota**: La protección frente a amenazas no es compatible a través de la configuración remota. Utiliza los [flujos][5] para bloquear direcciones IP en tu [WAF][6].
+
+## Para empezar
+
+Añade las siguientes instrucciones y argumentos a tu Dockerfile.
+```dockerfile
+COPY --from=datadog/serverless-init:1 /datadog-init /app/datadog-init
+RUN pip install --target /dd_tracer/python/ ddtrace
+ENV DD_SERVICE=datadog-demo-run-python
+ENV DD_ENV=datadog-demo
+ENV DD_VERSION=1
+ENV DD_APPSEC_ENABLED=1
+ENTRYPOINT ["/app/datadog-init"]
+CMD ["/dd_tracer/python/bin/ddtrace-run", "python", "app.py"]
+```
+
+### Explicación
+
+1. Copia `serverless-init` de Datadog en tu imagen de Docker.
+ ```dockerfile
+ COPY --from=datadog/serverless-init:1 /datadog-init /app/datadog-init
+ ```
+
+2. Instala el rastreador Python de Datadog.
+ ```dockerfile
+ RUN pip install --target /dd_tracer/python/ ddtrace
+ ```
+ Si instalas la biblioteca del rastreador de Datadog directamente en tu aplicación, como se indica en las [instrucciones para la instrumentación manual del rastreador][1], omite este paso.
+
+3. (Opcional) Añade etiquetas (tags) de Datadog.
+ ```dockerfile
+ ENV DD_SERVICE=datadog-demo-run-python
+ ENV DD_ENV=datadog-demo
+ ENV DD_VERSION=1
+ ENV DD_APPSEC_ENABLED=1
+ ```
+
+4. Cambia el punto de entrada para contener tu aplicación en el proceso de `serverless-init` de Datadog.
+ **Nota**: Si ya tienes un punto de entrada definido dentro de tu archivo Docker, consulta la [configuración alternativa](#alt-python).
+ ```dockerfile
+ ENTRYPOINT ["/app/datadog-init"]
+ ```
+
+5. Ejecuta tu aplicación binaria envuelta en el punto de entrada, iniciada por la biblioteca de rastreo de Datadog. Adapta esta línea según tus necesidades.
+ ```dockerfile
+ CMD ["/dd_tracer/python/bin/ddtrace-run", "python", "app.py"]
+ ```
+#### Configuración alternativa {#alt-python}
+Si ya tienes un punto de entrada definido en tu archivo Docker, puedes modificar el argumento CMD.
+
+{{< highlight dockerfile "hl_lines=7" >}}
+COPY --from=datadog/serverless-init:1 /datadog-init /app/datadog-init
+RUN pip install --target /dd_tracer/python/ ddtrace
+ENV DD_SERVICE=datadog-demo-run-python
+ENV DD_ENV=datadog-demo
+ENV DD_VERSION=1
+ENV DD_APPSEC_ENABLED=1
+CMD ["/app/datadog-init", "/dd_tracer/python/bin/ddtrace-run", "python", "app.py"]
+{{< /highlight >}}
+
+Si necesitas que tu punto de entrada también se instrumente, puedes intercambiar tu punto de entrada y argumentos CMD en su lugar. Para obtener más información, consulta [Cómo funciona `serverless-init`](#how-serverless-init-works).
+
+{{< highlight dockerfile "hl_lines=7-8" >}}
+COPY --from=datadog/serverless-init:1 /datadog-init /app/datadog-init
+RUN pip install --target /dd_tracer/python/ ddtrace
+ENV DD_SERVICE=datadog-demo-run-python
+ENV DD_ENV=datadog-demo
+ENV DD_VERSION=1
+ENV DD_APPSEC_ENABLED=1
+ENTRYPOINT ["/app/datadog-init"]
+CMD ["your_entrypoint.sh", "/dd_tracer/python/bin/ddtrace-run", "python", "app.py"]
+{{< /highlight >}}
+
+Siempre y cuando el comando a ejecutar se pase como argumento a `datadog-init`, recibirás la Instrumentación completa.
+
+[1]: /es/tracing/trace_collection/dd_libraries/python/?tab=containers#instrument-your-application
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/services?query=type%3Afunction%20&env=prod&groupBy=&hostGroup=%2A&lens=Security&sort=-attackExposure&view=list
+[2]: /es/serverless/distributed_tracing/
+[3]: https://app.datadoghq.com/security/appsec
+[4]: /es/security/application_security/serverless/compatibility
+[5]: /es/actions/workflows/
+[6]: /es/security/application_security/waf-integration/
+[apm-lambda-tracing-setup]: https://docs.datadoghq.com/serverless/aws_lambda/distributed_tracing/
\ No newline at end of file
diff --git a/content/es/security/application_security/threats/add-user-info.md b/content/es/security/application_security/threats/add-user-info.md
new file mode 100644
index 0000000000000..661a3e34a418f
--- /dev/null
+++ b/content/es/security/application_security/threats/add-user-info.md
@@ -0,0 +1,847 @@
+---
+aliases:
+- /es/security_platform/application_security/add-user-info
+- /es/security/application_security/add-user-info
+further_reading:
+- link: /security/application_security/
+ tag: Documentación
+ text: Protegerse contra las amenazas con Datadog App and API Protection
+- link: /security/application_security/threats/library_configuration/
+ tag: Documentación
+ text: Otras disposiciones y opciones de configuración
+title: Monitorización y protección de usuarios
+---
+
+## Información general
+
+Instrumenta tus servicios y rastrea la actividad de los usuarios para detectar y bloquear a los actores malintencionados.
+
+[Añade información de un usuario autenticado a las trazas](#adding-authenticated-user-information-to-traces-and-enabling-user-blocking-capability) para identificar y bloquear a los actores malintencionados que se dirijan a tu superficie de ataque autenticada. Para ello, establece la etiqueta (tag) del ID de usuario en la traza de APM en ejecución, proporcionando la instrumentación necesaria para que AAP bloquee a los atacantes autenticados. Esto permite que AAP asocie los ataques y los eventos de la lógica empresarial a los usuarios.
+
+[Rastrea los inicios de sesión y la actividad de los usuarios](#adding-business-logic-information-login-success-login-failure-any-business-logic-to-traces) para detectar las apropiaciones de cuentas y los abusos de la lógica empresarial con reglas de detección predefinidas y, en última instancia, bloquear a los atacantes.
+
+Las actividades personalizadas del usuario para las cuales se dispone de reglas de detección predefinidas son las siguientes:
+
+| Nombres de eventos integrados | Metadatos necesarios | Normas relacionadas |
+|------------------------|------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
+| `activity.sensitive` | `{ "name": "coupon_use", "required_role": "user" }` | [Tasa de actividad limitada desde la IP][4]
[Actividad no autorizada detectada][5] |
+| `users.login.success` | El ID de usuario es obligatorio, se pueden añadir metadatos opcionales | [Ataque de relleno de credenciales][6]
[Ataque por la fuerza bruta][12]
[Relleno de credenciales distribuido][13] |
+| `users.login.failure` | El ID de usuario y `usr.exists` son obligatorios, se pueden añadir metadatos opcionales | [Ataque de relleno de credenciales][6]
[Ataque por la fuerza bruta][12]
[Relleno de credenciales distribuido][13] |
+| `users.signup` | `{ "usr.id": "12345" }` | [Excesivas creaciones de cuentas desde una IP][7] |
+| `users.delete` | `{ "usr.id": "12345" }` | [Excesiva eliminación de cuentas desde una IP][8] |
+| `users.password_reset` | `{ "usr.id": "12345", "usr.login": "user@email.com", "exists": true }` | [Intentos de restablecimiento de contraseña por la fuerza bruta][9] |
+| `payment.failure` | Ninguno | [Excesivos errores de pago desde una IP][10] |
+
+## Añadir información de usuarios autenticados a las trazas y habilitar la capacidad de bloqueo de los usuarios
+
+
+
+Puedes [añadir etiquetas personalizadas a tu tramo raíz][3], o utilizar las funciones de instrumentación que se describen a continuación.
+
+{{< programming-lang-wrapper langs="java,dotnet,go,ruby,php,nodejs,python" >}}
+
+{{< programming-lang lang="java" >}}
+
+Utiliza la API del rastreador de Java para añadir etiquetas personalizadas a un tramo raíz y añade la información del usuario para poder monitorizar solicitudes autenticadas en la aplicación.
+
+Las etiquetas de monitorización del usuario se aplican en el tramo raíz y comienzan con el prefijo `usr` seguido del nombre del campo. Por ejemplo, `usr.name` es una etiqueta de monitorización de usuario que rastrea el nombre de este.
+
+**Nota**: Comprueba que hayas añadido [las dependencias necesarias a tu aplicación][1].
+
+En el siguiente ejemplo, se muestra cómo obtener el tramo raíz, añadir las etiquetas relevantes de monitorización de usuarios y habilitar la capacidad de bloqueo de estos:
+
+```java
+import io.opentracing.Span;
+import io.opentracing.util.GlobalTracer;
+import datadog.appsec.api.blocking.Blocking;
+import datadog.trace.api.interceptor.MutableSpan;
+
+// Obtener el tramo activo
+final Span span = GlobalTracer.get().activeSpan();
+si ((span instanceof MutableSpan)) {
+ MutableSpan localRootSpan = ((MutableSpan) span).getLocalRootSpan();
+ // Configurar la etiqueta obligatoria del ID de usuario
+ localRootSpan.setTag("usr.id", "d131dd02c56eec4");
+ // Configurar las etiquetas opcionales de monitorización de usuarios
+ localRootSpan.setTag("usr.name", "Jean Example");
+ localRootSpan.setTag("usr.email", "jean.example@example.com");
+ localRootSpan.setTag("usr.session_id", "987654321");
+ localRootSpan.setTag("usr.role", "admin");
+ localRootSpan.setTag("usr.scope", "read:message, write:files");
+}
+
+Bloquear
+ .forUser("d131dd02c56eec4")
+ .blockIfMatch();
+```
+
+[1]: /es/tracing/trace_collection/custom_instrumentation/opentracing/java#setup
+{{< /programming-lang >}}
+
+{{< programming-lang lang="dotnet" >}}
+
+El paquete de rastreadores de .NET ofrece la función de `SetUser()`, que permite monitorizar solicitudes autenticadas añadiendo la información de usuario a la traza.
+
+En el siguiente ejemplo se muestra cómo añadir las etiquetas relevantes de monitorización de usuarios y habilitar la capacidad de bloqueo de estos:
+
+```csharp
+
+using Datadog.Trace;
+
+// ...
+
+ var userDetails = new UserDetails()
+ {
+ // el identificador interno de sistemas para los usuarios
+ Id = "d41452f2-483d-4082-8728-171a3570e930",
+ // la dirección de correo electrónico del usuario
+ Email = "test@adventure-works.com",
+ // el nombre de usuario, como lo muestra el sistema
+ Name = "Jane Doh",
+ // el ID de la sesión delusuario
+ SessionId = "d0632156-132b-4baa-95b2-a492c5f9cb16",
+ // el rol en el cual el usuario está realizando la solicitud
+ Role = "standard",
+ };
+ Tracer.Instance.ActiveScope?.Span.SetUser(userDetails);
+```
+
+Para más información y opciones, consulta [la documentación del rastreador de .NET][1].
+
+[1]: https://github.com/DataDog/dd-trace-dotnet/tree/master/docs/Datadog.Trace#user-identification
+
+{{< /programming-lang >}}
+
+{{< programming-lang lang="go" >}}
+
+El paquete del rastreador de Go proporciona la función `SetUser()`, que te permite monitorizar solicitudes autenticadas añadiendo información del usuario a la traza. Para más opciones, ve [la documentación del rastreador de Go][1] (o [la documentación de la v2][2]).
+
+En este ejemplo se muestra cómo recuperar el tramo del rastreador actual, utilizarlo para configurar las etiquetas de monitorización de usuarios y habilitar la capacidad de bloqueo de estos:
+
+```go
+import (
+ "gopkg.in/DataDog/dd-trace-go.v1/appsec" // 1.x
+ // "github.com/DataDog/dd-trace-go/v2/appsec // 2.x
+)
+
+func handler(w http.ResponseWriter, r *http.Request) {
+ if appsec.SetUser(r.Context(), "my-uid") != nil {
+ // The user must be blocked by aborting the request handler asap.
+ // The blocking response is automatically handled and sent by the appsec middleware.
+ return
+ }
+}
+```
+
+[1]: https://pkg.go.dev/gopkg.in/DataDog/dd-trace-go.v1/ddtrace/tracer#SetUser
+[2]: https://pkg.go.dev/github.com/DataDog/dd-trace-go/v2/ddtrace/tracer#SetUser
+{{< /programming-lang >}}
+
+{{< programming-lang lang="ruby" >}}
+
+Utiliza una de las siguientes API para añadir la información del usuario a una traza de modo que se puedan monitorizar las solicitudes autenticadas en la aplicación:
+
+{{% collapse-content title="set_user" level="h4" expanded="true" %}}
+
+Empezando con `ddtrace` 1.1.0, el método `Datadog::Kit::Identity.set_user` está disponible. Se trata de la API recomendada para añadir la información del usuario a las trazas:
+
+```ruby
+# Obtener la traza activa
+trace = Datadog::Tracing.active_trace
+
+# Configurar la etiqueta obligatoria del ID de usuario
+Datadog::Kit::Identity.set_user(trace, id: 'd131dd02c56eeec4')
+
+# O configurar cualquiera de estas etiquetas opcionales de monitorización de usuarios
+Datadog::Kit::Identity.set_user(
+ trace,
+
+ # ID obligatorio
+ id: 'd131dd02c56eeec4',
+
+ # etiquetas opcionales con una semántica conocida
+ name: 'Jean Example',
+ email:, 'jean.example@example.com',
+ session_id:, '987654321',
+ role: 'admin',
+ scope: 'read:message, write:files',
+
+ # etiquetas opcionales con forma libre
+ another_tag: 'another_value',
+)
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="set_tag" level="h4" expanded="false" id="ruby-set-tag" %}}
+
+Si `Datadog::Kit::Identity.set_user` no satisface tus necesidades, puedes utilizar `set_tag` en su lugar.
+
+Las etiquetas de monitorización de usuario se aplican en la traza y comienzan con el prefijo `usr.` seguido del nombre del campo. Por ejemplo, `usr.name` es una etiqueta de monitorización de usuario que rastrea el nombre de este.
+
+En el siguiente ejemplo se muestra cómo obtener la traza activa y añadir las etiquetas relevantes de monitorización de usuario:
+
+**Notas**:
+- Los valores de las etiquetas deben ser cadenas.
+- La etiqueta de `usr.id` es obligatoria.
+
+```ruby
+# Obtener la traza activa
+trace = Datadog::Tracing.active_trace
+
+# Configurar la etiqueta obligatoria del ID de usuario
+trace.set_tag('usr.id', 'd131dd02c56eeec4')
+
+# Configurar las etiquetas opcionales de monitorización de usuarios con una semántica conocida
+trace.set_tag('usr.name', 'Jean Example')
+trace.set_tag('usr.email', 'jean.example@example.com')
+trace.set_tag('usr.session_id', '987654321')
+trace.set_tag('usr.role', 'admin')
+trace.set_tag('usr.scope', 'read:message, write:files')
+
+# Configurar etiquetas con forma libre:
+trace.set_tag('usr.another_tag', 'another_value')
+```
+{{% /collapse-content %}}
+
+{{< /programming-lang >}}
+
+{{< programming-lang lang="php" >}}
+
+El rastreador de PHP ofrece la función de `\DDTrace\set_user()`, que permite monitorizar y bloquear solicitudes autenticadas.
+
+`\DDTrace\set_user()` añade las etiquetas relevantes del usuario y los metadatos a la traza y realiza automáticamente el bloqueo de usuarios.
+
+En el siguiente ejemplo se muestra cómo configurar las etiquetas de monitorización de usuarios y habilitar el bloqueo de estos:
+
+```php
+ 'Jean Example',
+ 'email' => 'jean.example@example.com',
+ 'session_id' => '987654321',
+ 'role' => 'admin',
+ 'scope' => 'read:message, write:files',
+ ]
+);
+?>
+```
+
+{{< /programming-lang >}}
+
+{{< programming-lang lang="nodejs" >}}
+
+El paquete de rastreadores de Node ofrece la función de`tracer.setUser(user)`, que permite monitorizar solicitudes autenticadas añadiendo la información de usuario a la traza.
+
+En el siguiente ejemplo se muestra cómo añadir etiquetas relevantes de monitorización de usuarios y habilitar la capacidad de bloqueo de estos:
+
+```javascript
+const tracer = require('dd-trace').init()
+
+function handle () {
+ tracer.setUser({
+ id: '123456789', // *NECESARIO* Identificador único de usuario.
+
+ // Todos los demás campos son opcionales.
+ email: 'jane.doe@example.com', // Dirección de correo electrónico del usuario.
+ name: 'Jane Doe', // Nombre intuitivo del usuario.
+ session_id: '987654321', // ID de la sesión del usuario.
+ role: 'admin', // El rol en el cual el usuario está realizando la solicitud.
+ scope: 'read:message, write:files', // Ámbitos o autorizaciones otorgadas que el usuario posee actualmente.
+
+ // También se aceptan campos arbitrarios para adjuntar datos personalizados al usuario (RBAC, Oauth, etc...)
+ custom_tag: 'custom data'
+ })
+
+// Configurar el usuario autenticado actualmente y comprobar si está bloqueado
+si (tracer.appsec.isUserBlocked(user)) { // configurar también el usuario autenticado actualmente
+ return tracer.appsec.blockRequest(req, res) // se envía la respuesta de bloqueo
+ }
+
+}
+```
+
+Para más información y opciones, consulta [la documentación del rastreador de Node.js][1].
+
+
+
+[1]: https://datadoghq.dev/dd-trace-js/#set-user
+{{< /programming-lang >}}
+
+{{< programming-lang lang="python" >}}
+
+Monitoriza las solicitudes autenticadas añadiendo la información del usuario a la traza con la función de `set_user` ofrecida por el paquete de rastreadores de Python.
+
+En este ejemplo se muestra cómo configurar las etiquetas de monitorización de usuarios y habilitar la capacidad de bloqueo de estos:
+
+```Python
+from ddtrace.contrib.trace_utils import set_user
+from ddtrace import tracer
+# Llamada de configuración_usuario() para rastrear el ID de usuario autenticado actualmente
+user_id = "som_user_id"
+set_user(tracer, user_id, name="John", email="test@test.com", scope="some_scope",
+ role="manager", session_id="session_id", propagate=True)
+```3
+
+{{< /programming-lang >}}
+
+{{< /programming-lang-wrapper >}}
+
+## Añadir la información de la lógica empresarial (inicio de sesión correcto, inicio de sesión fallido, cualquier lógica empresarial) a las trazas
+
+
+Una nota sobre usr.id y usr.login: el abuso de inicio de sesión de investigación se basa en dos conceptos similares, pero diferentes. usr.id contiene el identificador único de la cuenta de usuario en la base de datos. Es único e inmutable. No está disponible cuando alguien intenta iniciar sesión en una cuenta inexistente. El bloqueo de usuarios tiene como objetivo usr.id.
+El usuario generalmente no es consciente de su ID de usuario. En su lugar, confía en identificadores mutables (número de teléfono, nombre de usuario, dirección de correo electrónico...). La cadena utilizada por el usuario para iniciar sesión en una cuenta debe ser informada como usr.login en eventos de inicio de sesión.
+Si no se proporciona ningún usr.login, se utilizará usr.id en su lugar.
+
+
+{{< programming-lang-wrapper langs="java,dotnet,go,ruby,php,nodejs,python" >}}
+{{< programming-lang lang="java" >}}
+
+A partir de dd-trace-java v1.8.0, puedes utilizar la API del rastreador de Java para realizar un seguimiento de los eventos de usuario.
+
+En los siguientes ejemplos se muestra cómo rastrear los eventos de inicio de sesión o los eventos personalizados (utilizando el registro como ejemplo).
+
+{{% collapse-content title="Inicio de sesión exitoso" level="h4" expanded="true" %}}
+```java
+import datadog.trace.api.EventTracker;
+import datadog.trace.api.GlobalTracer;
+
+public class LoginController {
+
+ private User doLogin(String userName, String password) {
+ // this is where you get User based on userName/password credentials
+ User user = checkLogin(userName, password);
+
+ Map metadata = new HashMap<>();
+ metadata.put("email", user.getEmail());
+ metadata.put("usr.login", userName);
+
+ // If your system has multiple "tenants", please provide it. A tenant is an environment/group of user
+ metadata.put("usr.org", usr.getTenant());
+
+ // track user authentication success events
+ GlobalTracer
+ .getEventTracker()
+ .trackLoginSuccessEvent(user.getId(), metadata);
+
+ }
+}
+
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="Inicio de sesión fallido" level="h4" expanded="false" id="java-login-failure" %}}
+```java
+import datadog.trace.api.EventTracker;
+import datadog.trace.api.GlobalTracer;
+
+public class LoginController {
+
+ private User doLogin(String userName, String password) {
+ // this is where you get User based on userName/password credentials
+ User user = checkLogin(userName, password);
+
+ // if function returns null - user doesn't exist
+ boolean userExists = (user != null);
+ String userId = null;
+ Map metadata = new HashMap<>();
+ metadata.put("usr.login", userName);
+ if (userExists != null) {
+ userId = getUserId(userName)
+ metadata.put("email", user.getEmail());
+ } else {
+ userId = userName;
+ }
+
+ // track user authentication error events
+ GlobalTracer
+ .getEventTracker()
+ .trackLoginFailureEvent(userId, userExists, metadata);
+ }
+}
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="Lógica de negocio personalizada" level="h4" expanded="false" id="java-custom-business" %}}
+```java
+import datadog.trace.api.EventTracker;
+import datadog.trace.api.GlobalTracer;
+
+public class LoginController {
+
+ private User doSignup(String userId, String email) {
+ // this is where you create your user account
+ User user = createUser(userId, email);
+
+ Map metadata = new HashMap<>();
+ metadata.put("usr.id", user.getId());
+
+ // track user signup events
+ GlobalTracer
+ .getEventTracker()
+ .trackCustomEvent("users.signup", metadata);
+ }
+}
+
+```
+{{% /collapse-content %}}
+
+{{< /programming-lang >}}
+
+{{< programming-lang lang="dotnet" >}}
+
+A partir de dd-trace-dotnet v2.23.0, puedes utilizar la API del rastreador de .NET para realizar un seguimiento de los eventos de usuario.
+
+En los siguientes ejemplos se muestra cómo rastrear los eventos de inicio de sesión o los eventos personalizados (utilizando el registro como ejemplo).
+
+{{% collapse-content title="Inicio de sesión exitoso" level="h4" expanded="true" %}}
+```csharp
+using Datadog.Trace.AppSec;
+
+void OnLogonSuccess(string userId, string login...)
+{
+ // metadata is optional
+ var metadata = new Dictionary()
+ {
+ { "usr.login", login }
+ };
+ EventTrackingSdk.TrackUserLoginSuccessEvent(userId, metadata);
+
+ // ...
+}
+
+```
+{{% /collapse-content %}}
+{{% collapse-content title="Inicio de sesión fallido" level="h4" expanded="false" id="dotnet-login-failure" %}}
+```csharp
+using Datadog.Trace.AppSec;
+
+void OnLogonFailure(string userId, string login, bool userExists, ...)
+{
+ // If no userId can be provided, any unique user identifier (username, email...) may be used
+ // metadata is optional
+ var metadata = new Dictionary()
+ {
+ { "usr.login", login }
+ };
+ EventTrackingSdk.TrackUserLoginFailureEvent(userId, userExists, metadata);
+
+ // ...
+}
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="Lógica de negocio personalizada" level="h4" expanded="false" id="dotnet-custom-business" %}}
+```csharp
+void OnUserSignupComplete(string userId, ...)
+{
+ // el parámetro de metadatos es opcional, pero añadiendo el "usr.id"
+ var metadata = new Dictionary()
+ {
+ { "usr.id", userId }
+ };
+ // Aprovechar el rastreo personalizado de la lógica empresarial para rastrear los registros de los usuarios
+ EventTrackingSdk.TrackCustomEvent("users.signup", metadata);
+
+ // ...
+}
+```
+{{% /collapse-content %}}
+
+{{< /programming-lang >}}
+{{< programming-lang lang="go" >}}
+
+A partir de dd-trace-go v1.47.0, puedes utilizar la API del rastreador de Go para realizar un seguimiento de los eventos de usuario.
+
+En los siguientes ejemplos se muestra cómo rastrear los eventos de inicio de sesión o los eventos personalizados (utilizando el registro como ejemplo).
+
+{{% collapse-content title="Inicio de sesión exitoso" level="h4" expanded="true" %}}
+```go
+import (
+ "gopkg.in/DataDog/dd-trace-go.v1/appsec" // 1.x
+ // "github.com/DataDog/dd-trace-go/v2/appsec" // 2.x
+)
+
+func handler(w http.ResponseWriter, r *http.Request) {
+ metadata := make(map[string]string) /* optional extra event metadata */
+ userdata := /* optional extra user data */
+
+ metadata["usr.login"] = "user-email"
+
+ // Track login success, replace `my-uid` by a unique identifier of the user (such as numeric, username, and email)
+ if appsec.TrackUserLoginSuccessEvent(r.Context(), "my-uid", metadata, userdata) != nil {
+ // The given user id is blocked and the handler should be aborted asap.
+ // The blocking response will be sent by the appsec middleware.
+ return
+ }
+}
+```
+{{% /collapse-content %}}
+{{% collapse-content title="Inicio de sesión fallido" level="h4" expanded="false" id="go-login-failure" %}}
+```go
+import (
+ "gopkg.in/DataDog/dd-trace-go.v1/appsec" // 1.x
+ // "github.com/DataDog/dd-trace-go/v2/appsec" // 2.x
+)
+
+func handler(w http.ResponseWriter, r *http.Request) {
+ exists := /* whether the given user id exists or not */
+ metadata := make(map[string]string) /* optional extra event metadata */
+ metadata["usr.login"] = "user-email"
+
+ // Replace `my-uid` by a unique identifier of the user (numeric, username, email...)
+ appsec.TrackUserLoginFailureEvent(r.Context(), "my-uid", exists, metadata)
+}
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="Lógica de negocio personalizada" level="h4" expanded="false" id="go-custom-business" %}}
+```go
+import (
+ "gopkg.in/DataDog/dd-trace-go.v1/appsec" // 1.x
+ // "github.com/DataDog/dd-trace-go/v2/appsec" // 2.x
+)
+
+func handler(w http.ResponseWriter, r *http.Request) {
+ metadata := map[string]string{"usr.id": "my-uid"}
+
+ // Leveraging custom business logic tracking to track user signups
+ appsec.TrackCustomEvent(r.Context(), "users.signup", metadata)
+}
+```
+{{% /collapse-content %}}
+
+{{< /programming-lang >}}
+{{< programming-lang lang="ruby" >}}
+
+Empezando en dd-trace-rb v1.9.0, se puede utilizar la API del rastreador de Ruby para rastrear los eventos de los usuarios.
+
+En los siguientes ejemplos se muestra cómo rastrear los eventos de inicio de sesión o los eventos personalizados (utilizando el registro como ejemplo).
+
+Las trazas que contienen los eventos de inicio de sesión correctos/fallidos pueden consultarse mediante la siguiente consulta `@appsec.security_activity:business_logic.users.login.success` o `@appsec.security_activity:business_logic.users.login.failure`.
+
+{{% collapse-content title="Inicio de sesión exitoso" level="h4" expanded="true" %}}
+```ruby
+require 'datadog/kit/appsec/events'
+
+trace = Datadog::Tracing.active_trace
+# Replace `my_user_id` by a unique identifier of the user (numeric, username, email...)
+Datadog::Kit::AppSec::Events.track_login_success(trace, user: { id: 'my_user_id' }, { 'usr.login': 'my_user_email' })
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="Inicio de sesión fallido" level="h4" expanded="false" id="ruby-login-failure" %}}
+```ruby
+require 'datadog/kit/appsec/events'
+trace = Datadog::Tracing.active_trace
+
+# Replace `my_user_id` by a unique identifier of the user (numeric, username, email...)
+
+# if the user exists
+Datadog::Kit::AppSec::Events.track_login_failure(trace, user_id: 'my_user_id', user_exists: true, { 'usr.login': 'my_user_email' })
+
+# if the user doesn't exist
+Datadog::Kit::AppSec::Events.track_login_failure(trace, user_id: 'my_user_id', user_exists: false, { 'usr.login': 'my_user_email' })
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="Lógica de negocio personalizada" level="h4" expanded="false" id="ruby-custom-business" %}}
+```ruby
+require 'datadog/kit/appsec/events'
+trace = Datadog::Tracing.active_trace
+
+# Replace `my_user_id` by a unique identifier of the user (numeric, username, email...)
+
+# Leveraging custom business logic tracking to track user signups
+Datadog::Kit::AppSec::Events.track('users.signup', trace, nil, { 'usr.id': 'my_user_id'})
+```
+{{% /collapse-content %}}
+
+{{< /programming-lang >}}
+
+{{< programming-lang lang="php" >}}
+Empezando en dd-trace-php v0.84.0, se puede utilizar la API del rastreador de PHP para rastrear los eventos de los usuarios.
+
+En los siguientes ejemplos se muestra cómo rastrear los eventos de inicio de sesión o los eventos personalizados (utilizando el registro como ejemplo).
+
+{{% collapse-content title="Inicio de sesión exitoso" level="h4" expanded="true" %}}
+```php
+ $email])
+?>
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="Inicio de sesión fallido" level="h4" expanded="false" id="php-login-failure" %}}
+```php
+ $email])
+?>
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="Lógica de negocio personalizada" level="h4" expanded="false" id="php-custom-business" %}}
+```php
+ $id]);
+?>
+```
+{{% /collapse-content %}}
+
+{{< /programming-lang >}}
+
+{{< programming-lang lang="nodejs" >}}
+
+A partir de dd-trace-js v3.13.1, puedes utilizar la API del rastreador de Node.js para realizar un seguimiento de los eventos de usuario. La versión v5.48.0 de dd-trace-js introduce nuevos métodos bajo el espacio de nombres `eventTrackingV2`. Los métodos de seguimiento de eventos existentes se mantienen por motivos de compatibilidad.
+
+
+En los siguientes ejemplos se muestra cómo rastrear los eventos de inicio de sesión o los eventos personalizados (utilizando el registro como ejemplo).
+
+{{% collapse-content title="Inicio de sesión exitoso" level="h4" expanded="true" %}}
+```javascript
+const tracer = require('dd-trace')
+
+// in a controller:
+const user = {
+id: 'user-id', // id is mandatory. If no ID is available, any unique identifier works (username, email...)
+ email: 'user@email.com' // other fields are optional
+}
+const user = 'user-id' // user could be just the ID
+const login = 'user@email.com'
+const metadata = { 'key': 'value' } // you can add arbitrary fields
+
+// Log a successful user authentication event
+// user and metadata are optional
+tracer.appsec.eventTrackingV2.trackUserLoginSuccess(login, user, metadata)
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="Inicio de sesión fallido" level="h4" expanded="false" id="nodejs-login-failure" %}}
+```javascript
+const tracer = require('dd-trace')
+
+// in a controller:
+const login = 'user-id' // the string used by the user to log in
+const userExists = true // if the user login exists in database for example
+const metadata = { 'key': 'value' } // you can add arbitrary fields
+
+// Log a failed user authentication event
+// userExists is optional and it is defaulted to false
+// metadata is optional
+tracer.appsec.eventTrackingV2.trackUserLoginFailure(login, userExists, metadata)
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="Lógica de negocio personalizada" level="h4" expanded="false" id="nodejs-custom-business" %}}
+```javascript
+const tracer = require('dd-trace')
+
+// en un controlador:
+const eventName = 'users.signup'
+const metadata = { 'usr.id': 'user-id' }
+
+tracer.appsec.trackCustomEvent(eventName, metadata)
+```
+{{% /collapse-content %}}
+
+#### Migración a los nuevos métodos de inicio de sesión exitosos y fallidos
+
+Los nuevos métodos de `eventTrackingV2` introducen un orden de parámetros más intuitivo y una separación más clara de las problemáticas. Estos son los cambios clave:
+
+1. El identificador de inicio de sesión (correo electrónico, nombre de usuario) es el primer parámetro y es obligatorio.
+2. El objeto/ID de usuario es opcional en los eventos exitosos y se ha eliminado de los eventos fallidos.
+3. Los metadatos se han simplificado y ya no requieren el campo `usr.login`.
+
+**Nota**: Los antiguos métodos `trackUserLoginSuccessEvent` y `trackUserLoginFailureEvent` quedan obsoletos en favor de los nuevos métodos `eventTrackingV2.trackUserLoginSuccess` y `eventTrackingV2.trackUserLoginFailure`, respectivamente.
+
+En el siguiente ejemplo, el código comentado ya no es necesario.
+
+{{% collapse-content title="Inicio de sesión exitoso" level="h4" expanded="true" %}}
+```javascript
+const tracer = require('dd-trace')
+
+// in a controller:
+const user = {
+ id: 'user-id',
+ email: 'user@email.com'
+} // same as before, but now the object is optional. Providing a user ID will nonetheless help with post-compromised activity correlation
+
+const login = 'user@email.com' // new mandatory argument
+
+const metadata = {
+// 'usr.login': 'user@email.com', this is no longer necessary in metadata. Must be the main argument
+ 'key': 'value'
+}
+
+// tracer.appsec.trackUserLoginSuccessEvent(user, metadata) // deprecated
+tracer.appsec.eventTrackingV2.trackUserLoginSuccess(login, user, metadata)
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="Inicio de sesión fallido" level="h4" expanded="false" id="nodejs-migration-login-failure" %}}
+```javascript
+const tracer = require('dd-trace')
+
+// in a controller with the deprecated method:
+const userId = 'user-id' // No longer mandatory, but helpful when available
+const login = 'user@email.com' // new mandatory argument
+const userExists = true
+const metadata = {
+// 'usr.login': 'user@email.com', this is no longer necessary in metadata. Must be the first argument
+ 'usr.id': userId, // Helps with correlating login failures with the rest of the user activity
+ 'key': 'value'
+}
+
+// tracer.appsec.trackUserLoginFailureEvent(userId, userExists, metadata) // deprecated
+tracer.appsec.eventTrackingV2.trackUserLoginFailure(login, userExists, metadata)
+```
+{{% /collapse-content %}}
+
+{{< /programming-lang >}}
+
+{{< programming-lang lang="python" >}}
+
+Empezando en dd-rastrear-py v1.9.0, se puede utilizar la API del rastreador de Python para rastrear los eventos del usuario.
+
+En los siguientes ejemplos se muestra cómo rastrear los eventos de inicio de sesión o los eventos personalizados (utilizando el registro como ejemplo).
+
+{{% collapse-content title="Inicio de sesión exitoso" level="h4" expanded="true" %}}
+```python
+from ddtrace.appsec.trace_utils import track_user_login_success_event
+from ddtrace import tracer
+metadata = {"usr.login": "user@email.com"}
+# name, email, scope, role, session_id and propagate are optional arguments which
+# default to None except propagate that defaults to True. They'll be
+# passed to the set_user() function
+track_user_login_success_event(tracer, "userid", metadata)
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="Inicio de sesión fallido" level="h4" expanded="false" id="python-login-failure" %}}
+```python
+from ddtrace.appsec.trace_utils import track_user_login_failure_event
+from ddtrace import tracer
+metadata = {"usr.login": "user@email.com"}
+# exists indicates if the failed login user exists in the system
+exists = False
+# if no numeric userId is available, any unique identifier will do (username, email...)
+track_user_login_failure_event(tracer, "userid", exists, metadata)
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="Lógica de negocio personalizada" level="h4" expanded="false" id="python-custom-business" %}}
+```python
+from ddtrace.appsec.trace_utils import track_custom_event
+from ddtrace import tracer
+metadata = {"usr.id": "userid"}
+event_name = "users.signup"
+track_custom_event(tracer, event_name, metadata)
+```
+{{% /collapse-content %}}
+
+{{< /programming-lang >}}
+
+{{< /programming-lang-wrapper >}}
+
+### Rastrear la información de la lógica empresarial sin modificar el código
+
+Si tu servicio tiene AAP activado y la [configuración remota][1] activada, puedes crear una regla WAF personalizada para marcar cualquier solicitud que coincida con una etiqueta de lógica de negocio personalizada. Esto no requiere ninguna modificación en tu aplicación, y puede hacerse completamente desde Datadog.
+
+Para empezar, ve a la [Página de la regla WAF personalizada][2] y haz clic en "Crear regla nueva".
+
+{{< img src="security/application_security/threats/custom-waf-rule-menu.png" alt="Accede al menú de Reglas personalizas de WAF desde la página de inicio de AAP haciendo clic en Protección, luego en WAF dentro de la aplicación y reglas personalizadas" style="width:100%;" >}}
+
+Esto abrirá un menú en el que podrás definir tu regla WAF personalizada. Seleccionando la categoría "Business Logic" (Lógica de negocio), podrás configurar un tipo de evento (por ejemplo, `users.password_reset`). A continuación, podrás seleccionar el servicio que deseas rastrear y un endpoint específico. También puedes utilizar la condición de la regla para apuntar a un parámetro específico para identificar el flujo de código que deseas _instrumentar_. Cuando la condición coincide, la biblioteca etiqueta la traza y la marca para reenviarla a AAP. Si no necesitas la condición, puedes establecer una condición amplia para que coincida con todo.
+
+{{< img src="security/application_security/threats/custom-waf-rule-form.png" alt="Captura de pantalla de la forma que aparece cuando haces clic en el botón Crear regla nueva" style="width:50%;" >}}
+
+Una vez guardada, la regla se despliega en las instancias del servicio que tienen habilitada la Configuración remota.
+
+
+[1]: /es/agent/remote_config?tab=configurationyamlfile#application-security-management-asm
+[2]: https://app.datadoghq.com/security/appsec/in-app-waf?config_by=custom-rules
+
+## Rastreo automático de los eventos de actividad de los usuarios
+
+Cuando AAP está activada, las bibliotecas de rastreo de Datadog intentan detectar automáticamente los eventos de actividad del usuario.
+
+Los eventos que se pueden detectar automáticamente son los siguientes:
+
+- `users.login.success`
+- `users.login.failure`
+- `users.signup`
+
+### Modos de rastreo automáticos de los eventos de actividad del usuario
+
+El rastreo automático de la actividad del usuario ofrece los siguientes modos:
+
+- `identification` (nombre abreviado: `ident`):
+ - Este modo es el predeterminado y siempre recopila el ID de usuario o la mejor posibilidad.
+ - El ID de usuario se recopila cuando el inicio de sesión es correcto y cuando es fallido. Cuando es fallido, el ID de usuario se recopila independientemente de si el usuario existe o no.
+ - Cuando el marco instrumentado no proporciona claramente un ID de usuario, sino un objeto de usuario estructurado, el ID de usuario se determina sobre la base del mejor esfuerzo basado en los nombres de campo del objeto. Se considera esta lista de nombres de campo, ordenados por prioridad:
+ - `id`
+ - `email`
+ - `username`
+ - `login`
+ - `user`
+ - Si no hay ID de usuario disponible o este no se encuentra, el evento del usuario no se emite.
+- Modo `anonymization` (nombre abreviado: `anon`):
+ - Este modo es el mismo que `identification`, pero anonimiza el ID de usuario mediante un hash (SHA256) y recortando el hash resultante.
+- Modo `disabled`:
+ - Las bibliotecas de AAP *no* recopilan ningún ID de usuario de sus instrumentaciones automatizadas.
+ - Los eventos de inicio de sesión del usuario no se emiten.
+
+Todos los modos solo afectan a la instrumentación automatizada. Los modos no se aplican a la recopilación manual. Esta se configura mediante un SDK, y esos ajustes no se anulan por una instrumentación automatizada.
+
+### Configuración manual
+
+Las bibliotecas de Datadog permiten configurar la auto-instrumentación utilizando la variable de entorno `DD_APPSEC_AUTO_USER_INSTRUMENTATION_MODE` con el nombre abreviado del modo: `ident`|`anon`|`disabled`.
+
+El modo por defecto es el modo `identification` (nombre abreviado: `ident`).
+
+Por ejemplo, `DD_APPSEC_AUTO_USER_INSTRUMENTATION_MODE=anon`.
+
+### Modos obsoletos
+
+Los modos anteriores están obsoletos, pero se mantendrá la compatibilidad hasta la próxima versión principal.
+
+Los siguientes modos están obsoletos:
+
+- Modo `safe`: La biblioteca de rastreo no incluye ninguna información PII en los metadatos de los eventos. La biblioteca del rastreador intenta recopilar el ID de usuario, y solo si este es un [GUID][10] válido.
+- Modo `extended`: La biblioteca de rastreo intenta recopilar el ID de usuario y el correo electrónico del usuario. En este modo, Datadog no comprueba el tipo para que el ID de usuario sea un GUID. La biblioteca de rastreado reporta cualquier valor que se pueda ser extraer del evento.
+
+**Nota**: Podrían darse casos en los que la biblioteca de rastreo no sea capaz de extraer ninguna información del evento del usuario. El evento se reportaría con metadatos vacíos. En esos casos, utiliza el [SDK](#adding-business-logic-information-login-success-login-failure-any-business-logic-to-traces) para instrumentar manualmente los eventos del usuario.
+
+## Desactivación del seguimiento de la actividad del usuario
+
+Para desactivar la detección automática de la actividad del usuario a través de tu [Software Catalog de AAP][14], cambia la variable de entorno de modo de seguimiento automático `DD_APPSEC_AUTO_USER_INSTRUMENTATION_MODE` a `disabled` en el servicio que desees desactivar. Todos los modos solo afectan a la instrumentación automatizada y requieren que la [configuración remota][15] esté activada.
+
+Para la configuración manual, puedes establecer la variable de entorno `DD_APPSEC_AUTOMATED_USER_EVENTS_TRACKING_ENABLED` en `false` en tu servicio y reiniciarlo. Esto debe establecerse en la aplicación que aloja la biblioteca de rastreo de Datadog, y no en el Datadog Agent.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[3]: /es/tracing/trace_collection/custom_instrumentation/
+[4]: /es/security/default_rules/bl-rate-limiting/
+[5]: /es/security/default_rules/bl-privilege-violation-user/
+[6]: /es/security/default_rules/appsec-ato-groupby-ip/
+[7]: /es/security/default_rules/bl-signup-ratelimit/
+[8]: /es/security/default_rules/bl-account-deletion-ratelimit/
+[9]: /es/security/default_rules/bl-password-reset/
+[10]: /es/security/default_rules/bl-payment-failures/
+[11]: https://guid.one/guid
+[12]: /es/security/default_rules/appsec-ato-bf/
+[13]: /es/security/default_rules/distributed-ato-ua-asn/
+[14]: https://app.datadoghq.com/security/appsec/inventory/services?tab=capabilities
+[15]: /es/agent/remote_config/
\ No newline at end of file
diff --git a/content/es/security/application_security/threats/setup/standalone/envoy.md b/content/es/security/application_security/threats/setup/standalone/envoy.md
new file mode 100644
index 0000000000000..e526c5088b71d
--- /dev/null
+++ b/content/es/security/application_security/threats/setup/standalone/envoy.md
@@ -0,0 +1,118 @@
+---
+code_lang: envoy
+code_lang_weight: 50
+further_reading:
+- link: https://github.com/DataDog/dd-trace-go/tree/main/contrib/envoyproxy/go-control-plane/cmd/serviceextensions
+ tag: Código fuente
+ text: Código source (fuente) de la integración de Envoy
+- link: /security/default_rules/?category=cat-application-security
+ tag: Documentación
+ text: Normas predefinidas de protección de aplicaciones y API
+- link: /security/application_security/troubleshooting
+ tag: Documentación
+ text: Solucionar problemas con la protección de aplicaciones y API
+title: Activar la protección de aplicaciones y API para Envoy
+type: lenguaje de código múltiple
+---
+
+{{< callout url="#" btn_hidden="true" header="Application & API Protection for Envoy is in Preview" >}}
+Para probar la vista previa de la protección de aplicaciones y API para Envoy, sigue las instrucciones de configuración que se indican a continuación.
+{{< /callout >}}
+
+Puedes activar la seguridad de las aplicaciones para el proxy Envoy. La integración de Datadog y Envoy admite la detección y el bloqueo de amenazas.
+
+## Requisitos previos
+
+- El [Datadog Agent ][1] está instalado y configurado para el sistema operativo o contenedor, nube o entorno virtual de tu aplicación.
+- [Configura el Agent con configuración remota][2] para bloquear a los atacantes que utilizan la interfaz de usuario Datadog.
+
+## Activar la protección de aplicaciones y API
+### Para empezar
+
+La integración de la protección de aplicaciones y API de Envoy utiliza el filtro de procesamiento externo Envoy.
+
+1. **Configura Envoy** para utilizar el [filtro de procesamiento externo][3].
+Por ejemplo:
+
+ ```yaml
+ http_filters:
+ # ... other filters
+ - name: envoy.filters.http.ext_proc
+ typed_config:
+ "@type": type.googleapis.com/envoy.extensions.filters.http.ext_proc.v3.ExternalProcessor
+ config:
+ grpc_service:
+ envoy_grpc:
+ cluster_name: datadog_ext_proc_cluster
+ timeout: 1s
+
+ clusters:
+ # ... other clusters
+ - name: datadog_ext_proc_cluster
+ type: STRICT_DNS
+ lb_policy: ROUND_ROBIN
+ http2_protocol_options: {}
+ transport_socket:
+ name: envoy.transport_sockets.tls
+ typed_config:
+ "@type": type.googleapis.com/envoy.extensions.transport_sockets.tls.v3.UpstreamTlsContext
+ load_assignment:
+ cluster_name: datadog_ext_proc_cluster
+ endpoints:
+ - lb_endpoints:
+ - endpoint:
+ address:
+ socket_address:
+ address: Your Datadog image host from step 2
+ port_value: 443
+ ```
+
+ **Nota**: debes sustituir `Your Datadog image host from step 2` en el ejemplo anterior por el host donde se ejecuta la imagen de Datadog Envoy Docker. A continuación, configura el host.
+
+ Encontrarás más opciones disponibles de configuración en la [documentación del procesador externo Envoy][4].
+
+2. **Ejecuta un nuevo contenedor con la imagen de Datadog Envoy Docker.** La imagen está disponible en el [Registro de GitHub de Datadog][5].
+
+ La imagen Docker expone algunos parámetros específicos para la integración de Envoy:
+ | Variable de entorno | Valor predeterminado | Descripción |
+ |----------------------------------------|-----------------|-------------------------------------------------------------------|
+ | `DD_SERVICE_EXTENSION_HOST` | `0.0.0.0` | Dirección de escucha del servidor gRPC. |
+ | `DD_SERVICE_EXTENSION_PORT` | `443` | Puerto del servidor gRPC. |
+ | `DD_SERVICE_EXTENSION_HEALTHCHECK_PORT`| `80` | Puerto del servidor HTTP para checks de estado. |
+
+ Configura el Datadog Agent para recibir trazas (traces) de la integración utilizando las siguientes variables de entorno:
+ | Variable de entorno | Valor predeterminado | Descripción |
+ |----------------------------------------|---------------|-----------------------------------------------------------------------|
+ | `DD_AGENT_HOST` | `localhost` | Nombre del host donde se ejecuta tu Datadog Agent . |
+ | `DD_TRACE_AGENT_PORT` | `8126` | Puerto de la colección de trazas (traces) del Datadog Agent. |
+
+{{% appsec-getstarted-2-plusrisk %}}
+
+{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Vídeo que muestra el explorador de señales y detalles y el explorador de vulnerabilidades y detalles." video="true" >}}
+
+## Integración de Datadog Go Tracer y Envoy
+
+
+ Nota: La integración de la protección de aplicaciones y API Envoy se crea sobre el Datadog Go Tracer. Sigue el mismo proceso de publicación que el rastreador y las imágenes de Docker están etiquetadas con la versión correspondiente del rastreador..
+
+
+ La integración de Envoy utiliza el [Datadog Go Tracer][6] y hereda todas las variables de entorno del rastreador. Puedes encontrar más información en [Configuración de la biblioteca de rastreo de Go ][7] y [Configuración de la biblioteca de protección de aplicaciones y API][8].
+
+## Limitaciones
+
+La funcionalidad disponible para la versión de Envoy `1.71.0` tiene las siguientes limitaciones importantes:
+
+* El cuerpo de la solicitud no se inspecciona, independientemente de su tipo de contenido.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/account/settings#agent
+[2]: https://docs.datadoghq.com/es/agent/remote_config/?tab=configurationyamlfile#enabling-remote-configuration
+[3]: https://www.envoyproxy.io/docs/envoy/latest/configuration/http/http_filters/ext_proc_filter
+[4]: https://www.envoyproxy.io/docs/envoy/latest/api-v3/extensions/filters/http/ext_proc/v3/ext_proc.proto#extensions-filters-http-ext-proc-v3-externalprocessor
+[5]: https://github.com/DataDog/dd-trace-go/pkgs/container/dd-trace-go%2Fservice-extensions-callout
+[6]: https://github.com/DataDog/dd-trace-go
+[7]: https://docs.datadoghq.com/es/tracing/trace_collection/library_config/go/
+[8]: https://docs.datadoghq.com/es/security/application_security/threats/library_configuration/
\ No newline at end of file
diff --git a/content/es/security/application_security/threats/setup/standalone/ruby.md b/content/es/security/application_security/threats/setup/standalone/ruby.md
new file mode 100644
index 0000000000000..d99fda96bac39
--- /dev/null
+++ b/content/es/security/application_security/threats/setup/standalone/ruby.md
@@ -0,0 +1,233 @@
+---
+aliases:
+- /es/security_platform/application_security/getting_started/ruby
+- /es/security/application_security/getting_started/ruby
+- /es/security/application_security/enabling/tracing_libraries/threat_detection/ruby/
+code_lang: ruby
+code_lang_weight: 30
+further_reading:
+- link: /security/application_security/add-user-info/
+ tag: Documentación
+ text: Añadir información del usuario a trazas
+- link: https://github.com/DataDog/dd-trace-rb
+ tag: Código fuente
+ text: Código fuente de la biblioteca Ruby de Datadog
+- link: /security/default_rules/?category=cat-application-security
+ tag: Documentación
+ text: Reglas predeterminadas de App & API Protection
+- link: /security/application_security/troubleshooting
+ tag: Documentación
+ text: Solucionar problemas de App & API Protection
+title: Activar Application & API Protection para Ruby
+type: lenguaje de código múltiple
+---
+
+Puedes monitorizar la seguridad de las aplicaciones Ruby que se ejecutan en Docker, Kubernetes, Amazon ECS y AWS Fargate.
+
+{{% appsec-getstarted-standalone %}}
+
+## Activar Application & API Protection
+### Para empezar
+
+1. **Actualiza tu Gemfile para incluir la biblioteca de Datadog**:
+
+ ```ruby
+ gem 'datadog', '~> 2.0' # Use 'ddtrace' if you're using v1.x
+ ```
+
+ Para comprobar que las versiones del lenguaje y del marco de trabajo de tu servicio son compatibles con las funciones de Application & API Protection, consulta [Compatibilidad][1].
+
+ Para obtener más información sobre la actualización a la v2 desde una versión `dd-trace` 1.x, consulta [la guía de actualización del rastreador Ruby][2].
+
+2. **Activa Application & API Protection** activando el rastreador de APM. Las siguientes opciones describen una configuración rápida que cubre los casos más comunes. Lee [la documentación del rastreador de Ruby][3] para obtener más detalles.
+
+ Puedes activar Application & API Protection en tu código:
+
+ {{< tabs >}}
+
+{{% tab "Rails" %}}
+ Habilita el rastreador de APM añadiendo un inicializador en el código de la aplicación:
+
+ ```ruby
+ # config/initializers/datadog.rb
+
+ require 'datadog/appsec'
+
+ Datadog.configure do |c|
+ # enable the APM tracer but disable trace processing - for security-only use
+ c.tracing.instrument :rails
+ c.tracing.enabled = false
+
+ # enable Application & API Protection
+ c.appsec.enabled = true
+ c.appsec.instrument :rails
+ end
+ ```
+
+ O habilita el rastreador de APM a través de la instrumentación automática actualizando tu Gemfile para instrumentar automáticamente:
+
+ ```ruby
+ gem 'datadog', '~> 2.0', require: 'datadog/auto_instrument'
+ ```
+
+ Y también activar `appsec` y desactivar el rastreo:
+
+ ```ruby
+ # config/initializers/datadog.rb
+
+ require 'datadog/appsec'
+
+ Datadog.configure do |c|
+ # the APM tracer is enabled by auto-instrumentation
+ c.tracing.enabled = false
+
+ # enable Application & API Protection
+ c.appsec.enabled = true
+ c.appsec.instrument :rails
+ end
+ ```
+
+{{% /tab %}}
+
+{{% tab "Sinatra" %}}
+ Habilita el rastreador de APM añadiendo lo siguiente al inicio de la aplicación:
+
+ ```ruby
+ require 'sinatra'
+ require 'datadog'
+ require 'datadog/appsec'
+
+ Datadog.configure do |c|
+ # enable the APM tracer but disable trace processing - for security-only use
+ c.tracing.instrument :sinatra
+ c.tracing.enabled = false
+
+ # enable Application & API Protection for Sinatra
+ c.appsec.enabled = true
+ c.appsec.instrument :sinatra
+ end
+ ```
+
+ O habilita el rastreador de APM a través de la instrumentación automática:
+
+ ```ruby
+ require 'sinatra'
+ require 'datadog/auto_instrument'
+
+ Datadog.configure do |c|
+ # the APM tracer is enabled by auto-instrumentation
+ c.tracing.enabled = false
+
+ # enable Application & API Protection for Sinatra
+ c.appsec.enabled = true
+ c.appsec.instrument :sinatra
+ end
+ ```
+{{% /tab %}}
+
+{{% tab "Rack" %}}
+ Habilita el rastreador de APM añadiendo lo siguiente al archivo `config.ru`:
+
+ ```ruby
+ require 'datadog'
+ require 'datadog/appsec'
+
+ Datadog.configure do |c|
+ # enable the APM tracer but disable trace processing - for security-only use
+ c.tracing.instrument :rack
+ c.tracing.enabled = false
+
+ # enable Application & API Protection for Rack
+ c.appsec.enabled = true
+ c.appsec.instrument :rack
+ end
+
+ use Datadog::Tracing::Contrib::Rack::TraceMiddleware
+ use Datadog::AppSec::Contrib::Rack::RequestMiddleware
+ ```
+{{% /tab %}}
+
+{{< /tabs >}}
+
+ O uno de los siguientes métodos, dependiendo de dónde se ejecute la aplicación:
+
+ {{< tabs >}}
+{{% tab "Docker CLI" %}}
+
+Actualiza tu contenedor de configuración para APM añadiendo los siguientes argumentos en tu comando `docker run`:
+
+```shell
+docker run [...] -e DD_APPSEC_ENABLED=true -e DD_APM_TRACING_ENABLED=false [...]
+```
+
+{{% /tab %}}
+{{% tab "Dockerfile" %}}
+
+Añade los siguientes valores de variable de entorno a tu archivo de contenedor de Docker:
+
+```Dockerfile
+ENV DD_APPSEC_ENABLED=true
+ENV DD_APM_TRACING_ENABLED=false
+```
+
+{{% /tab %}}
+{{% tab "Kubernetes" %}}
+
+Actualiza el contenedor de tu archivo yaml de configuración para APM y añade las variables de entorno:
+
+```yaml
+spec:
+ template:
+ spec:
+ containers:
+ - name:
+ image: /
+ env:
+ - name: DD_APPSEC_ENABLED
+ value: "true"
+ - name: DD_APM_TRACING_ENABLED
+ value: "false"
+```
+
+{{% /tab %}}
+{{% tab "Amazon ECS" %}}
+
+Actualiza tu archivo JSON de definición de tareas de ECS, añadiendo esto en la sección de entorno:
+
+```json
+"environment": [
+ ...,
+ {
+ "name": "DD_APPSEC_ENABLED",
+ "value": "true"
+ },
+ {
+ "name": "DD_APM_TRACING_ENABLED",
+ "value": "false"
+ }
+]
+```
+
+{{% /tab %}}
+{{% tab "AWS Fargate" %}}
+
+Inicializa Application & API Protection en tu código o establece las variables de entorno en tu invocación de servicio:
+```shell
+env DD_APPSEC_ENABLED=true DD_APM_TRACING_ENABLED=false rails server
+```
+
+{{% /tab %}}
+
+{{< /tabs >}}
+
+{{% appsec-getstarted-2-canary %}}
+
+{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Vídeo que muestra el explorador de señales y detalles y el explorador de vulnerabilidades y detalles." video="true" >}}
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/security/application_security/setup/compatibility/ruby/
+[2]: https://github.com/DataDog/dd-trace-rb/blob/master/docs/UpgradeGuide2.md
+[3]: /es/tracing/trace_collection/dd_libraries/ruby/
\ No newline at end of file
diff --git a/content/es/security/cloud_security_management/guide/custom-rules-guidelines.md b/content/es/security/cloud_security_management/guide/custom-rules-guidelines.md
index 9ec473808809c..b02f41fbcedfd 100644
--- a/content/es/security/cloud_security_management/guide/custom-rules-guidelines.md
+++ b/content/es/security/cloud_security_management/guide/custom-rules-guidelines.md
@@ -1,15 +1,15 @@
---
further_reading:
-- link: /security/threats/workload_security_rules
+- link: /security/workload_protection/workload_security_rules
tag: Documentación
- text: Gestión de las reglas de CSM Threats
-- link: /security/threats/agent_expressions
+ text: Gestión de las reglas de Workload Protection
+- link: /security/workload_protection/agent_expressions
tag: Documentación
text: Sintaxis de expresiones del Agent
-title: Directrices para la escritura de reglas personalizadas de CSM Threats
+title: Directrices para la redacción de reglas personalizadas de Workload Protection
---
-En algún momento, es posible que quieras escribir tus propias [reglas personalizadas de Cloud Security Management Threats (CSM Threats)][1]. Cuando escribas tus propias reglas, hay algunas estrategias que puedes utilizar para optimizar la eficiencia.
+En algún momento, es posible que desees escribir tus propias [reglas personalizadas de Workload Protection Agent ][1]. Cuando escribas tus propias reglas, hay algunas estrategias que puedes utilizar para optimizar la eficiencia.
## Atributos
@@ -31,7 +31,7 @@ Utiliza los comodines (`*`) con cuidado. Por ejemplo, no utilices nunca `open.fi
## Aprobadores y descartadores
-CSM Threats utiliza el concepto de aprobadores y descartadores para filtrar eventos que no deberían activar ninguna regla en una política. Los aprobadores y descartadores permiten o deniegan eventos sólo a nivel de política. No actúan sobre reglas individuales.
+Workload Protection utiliza el concepto de aprobadores y descartadores para filtrar eventos que no deberían activar ninguna regla en una política. Los aprobadores y descartadores permiten o deniegan eventos solo a nivel de las políticas. No actúan sobre reglas individuales.
Los aprobadores actúan como una lista de permisos a nivel del kernel en el Datadog Agent. Por ejemplo, la apertura de un archivo específico podría ser un aprobador en el evento `open` , mientras que los eventos `open` en archivos sin aprobadores serían filtrados. Del mismo modo, los descartadores actúan como una lista de denegaciones en el Agent. Los descartadores filtran intencionalmente los eventos que nunca pueden coincidir con una regla. El Agent aprende qué eventos filtrar con descartadores durante el tiempo de ejecución.
@@ -45,5 +45,5 @@ Los aprobadores suelen ser más potentes y preferibles. Con los aprobadores, el
{{< partial name="whats-next/whats-next.html" >}}
-[1]: /es/security/threats/workload_security_rules
-[2]: /es/security/threats/agent_expressions/#operators
\ No newline at end of file
+[1]: /es/security/workload_protection/workload_security_rules
+[2]: /es/security/workload_protection/agent_expressions/#operators
\ No newline at end of file
diff --git a/content/es/security/cloud_security_management/review_remediate/mute_issues.md b/content/es/security/cloud_security_management/review_remediate/mute_issues.md
index 0d9b55d06cfca..215097e2bebf1 100644
--- a/content/es/security/cloud_security_management/review_remediate/mute_issues.md
+++ b/content/es/security/cloud_security_management/review_remediate/mute_issues.md
@@ -7,62 +7,65 @@ further_reading:
text: Explorar las reglas de detección de seguridad predefinidas
products:
- icon: cloud-security-management
- name: CSM Misconfigurations
+ name: Errores de configuración en Cloud Security
url: /security/cloud_security_management/misconfigurations/
- icon: cloud-security-management
- name: Riesgos de identidad de CSM
+ name: Riesgos de identidad en Cloud Security
url: /security/cloud_security_management/identity_risks/
-title: Silenciar problemas en Cloud Security Management
+title: Silenciar incidentes en Cloud Security
---
{{< product-availability >}}
-Puede haber ocasiones en las que una configuración errónea, un problema o un riesgo de identidad no coincidan con el caso de uso de tu empresa, o que decidas aceptarlo como un riesgo conocido. Para ignorarlos, puedes silenciar la configuración errónea, el problema o el riesgo de identidad subyacentes para los recursos afectados.
+Puede haber ocasiones en las que un error de configuración, un incidente o un riesgo de identidad no coincidan con el caso de uso de tu empresa, o que decidas aceptarlo como un riesgo conocido. Para ignorarlo, puedes silenciar el error de configuración, el incidente o el riesgo de identidad subyacentes para los recursos afectados.
-Por ejemplo, la regla de CSM Misconfigurations ['Block Public Access' feature is enabled for S3 bucket][1] evalúa si un bucket de S3 es de acceso público. Si tienes un bucket de S3 con activos estáticos destinados a ser compartidos públicamente, puedes silenciar la configuración errónea para el bucket de S3.
+Por ejemplo, la regla Errores de configuración en Cloud Security [los buckets deberían tener activada la opción 'Block Public Access' (Bloquear el acceso público)][1] evalúa si un bucket S3 es de acceso público. Si tienes un bucket S3 con recursos estáticos que están destinados a ser compartidos públicamente, puedes silenciar el error de configuración para el bucket S3.
**Nota**: Silenciar una configuración errónea la elimina del cálculo de tu puntuación de posición.
-{{< img src="security/csm/mute_issue.png" alt="El cuadro de diálogo Silenciar problema contiene campos para especificar la razón y duración de la silenciamiento" style="width:100%;">}}
+{{< img src="security/csm/mute_issue-3.png" alt="El cuadro Mute Issue (Silenciar incidente) contiene campos para especificar el motivo y la duración del silencio" style="width:70%;">}}
-1. En el panel lateral de configuración errónea, problema o riesgo de identidad, selecciona uno o más recursos.
-2. Selecciona **Actions** > **Mute for...** (Acciones > Silenciar para...).
-3. Selecciona un motivo para el silenciamiento, por ejemplo, está pendiente una solución, es un falso positivo o es un riesgo aceptado.
+1. Busca el desplegable de estado de clasificación del recurso.
+ - En los exploradores de errores de configuración, de riesgos de identidad o de vulnerabilidades, el desplegable se encuentra en la columna **Triage** (Clasificación) de cada recurso. Como alternativa, puedes seleccionar uno o más recursos y hacer clic en el desplegable **Set State** (Definir estado) que aparece, para poder silenciar toda la selección a la vez.
+ - Cuando visualizas un recurso en un panel lateral, en **Next Steps** (Siguientes pasos), el desplegable está en **Triage** (Clasificación).
+2. Abre el desplegable con el estado de clasificación actual y haz clic en **Muted** (Silenciado). Se abre la ventana **Mute issue** (Silenciar incidente).
+3. Selecciona un motivo para el silencio, por ejemplo si es un falso positivo, si es un riesgo aceptado o si está pendiente de corrección.
4. Introduce una **Descripción** opcional.
5. Selecciona la duración del silenciamiento.
-6. Haz clic en **Mute** (Silenciar).
+6. Haz clic en **Mute** (Silenciar). Se cierra la ventana **Mute issue** (Silenciar incidente).
-### Anular el silenciamiento de un problema
+Para silenciar automáticamente los incidentes que cumplen determinados criterios, consulta [Reglas de silenciado][2].
-Los problemas silenciados se anulan automáticamente una vez transcurrido el tiempo especificado. También puedes anular el silenciamiento de un problema manualmente.
+## Anular el silencio de un incidente
-1. En el panel lateral de error de configuración, problema o riesgo de identidad, selecciona los recursos con el problema silenciado.
-2. Selecciona **Actions** > **Unmute** (Acciones > Desactivar silenciamiento).
-3. Selecciona un motivo para la anulación del silenciamiento, por ejemplo, no hay ninguna corrección pendiente, fue un error humano o ya no es un riesgo aceptado.
-4. Introduce una **Descripción** opcional.
-5. Haz clic en **Unmute** (Desactivar silenciamiento).
+Los incidentes silenciados se anulan automáticamente una vez transcurrido el tiempo especificado. También puedes anular el silencio de un incidente manualmente.
+
+1. Busca el desplegable de estado de clasificación del recurso.
+ - En los exploradores de errores de configuración, de riesgos de identidad o de vulnerabilidades, el desplegable se encuentra en la columna **Triage** (Clasificación) de cada recurso. Como alternativa, puedes seleccionar uno o más recursos y hacer clic en el desplegable **Set State** (Definir estado) que aparece, para poder anular el silencio de toda la selección a la vez.
+ - Cuando visualizas un recurso en un panel lateral, en **Next Steps** (Siguientes pasos), el desplegable está en **Triage** (Clasificación).
+2. Haz clic en **Muted** (Silenciado) para abrir el desplegable y luego selecciona un nuevo estado de clasificación. El estado de clasificación se actualiza inmediatamente para los recursos seleccionados.
-### Auditar tus problemas silenciados
+## Auditar tus incidentes silenciados
-Para ver los problemas silenciados de tu organización:
+Para ver los incidentes silenciados de tu organización:
-- Ordenar por la columna **Silenciado** en el explorador de incidencias de Security Inbox y Misconfigurations.
-- Filtra el explorador de incidencias de Security Inbox, Misconfigurations e Identity Risks utilizando la faceta **Muted** (Silenciado).
+1. Por defecto, todos los exploradores de incidentes ocultan los incidentes silenciados. Para ver los incidentes silenciados en los exploradores de incidentes de errores de configuración y riesgos de identidad, elimina el filtro `@workflow.triage.status:(open OR in-progress)` de la barra de búsqueda.
+1. Dependiendo del explorador de incidentes que estés utilizando, ordena o filtra los incidentes:
+ - En el explorador de incidentes de errores de configuración, ordena por la columna **Muted** (Silenciado).
+ - En los exploradores de incidentes de errores de configuración o riesgos de identidad, filtra los incidentes utilizando la faceta **Muted** (Silenciado).
+ - En el explorador de incidentes de vulnerabilidades, haz clic en la pestaña **Muted** (Silenciado).
Para auditar el historial de silenciamiento de una configuración errónea:
1. Abre el panel lateral de errores de configuración.
2. Selecciona el recurso con la configuración errónea silenciada.
-3. En la pestaña **Overview** (Vista general), utiliza la **Resource evaluation over time** (Evaluación de recursos a lo largo del tiempo) para ver cuándo se silenció o desbloqueó la configuración errónea durante un periodo determinado (hasta seis meses).
-
-{{< img src="security/csm/muted_finding_evaluation_over_time.png" alt="La evaluación del recurso a lo largo del tiempo muestra el historial de la configuración errónea incluidos periodos en los que estuvo silenciada" style="width:90%;">}}
-
-4. Haz clic en la pestaña **Timeline** (Línea temporal) para ver un historial cronológico de la configuración errónea. Pasa el ratón por encima de una acción de silenciar o anular el silenciamiento para ver detalles adicionales, como el motivo del silenciamiento, cuánto tiempo está previsto que dure el silenciamiento y quién lo ha silenciado.
+3. Haz clic en la pestaña **Timeline** (Línea temporal) para ver un historial cronológico de la configuración errónea. Pasa el ratón por encima de una acción de silenciar o anular el silencio para ver detalles adicionales, como el motivo del silencio, cuánto tiempo está previsto que dure el silencio y quién lo ha silenciado.
-{{< img src="security/csm/muted_finding_timeline.png" alt="La pestaña Línea temporal muestra un historial cronológico del error de configuración, incluidos los detalles de cuándo se silenció una configuración errónea" style="width:90%;">}}
+{{< img src="security/csm/muted_finding_timeline-2.png" alt="La pestaña Timeline (Cronología) muestra un historial cronológico del error de configuración, incluyendo detalles de cuándo fue silenciada una notificación" style="width:90%;">}}
## Referencias adicionales
{{< partial name="whats-next/whats-next.html" >}}
-[1]: /es/security/default_rules/cis-aws-1.5.0-2.1.5/
\ No newline at end of file
+[1]: /es/security/default_rules/hkp-p6b-f7w/
+[2]: /es/security/automation_pipelines/mute
\ No newline at end of file
diff --git a/content/es/security/cloud_security_management/security_graph.md b/content/es/security/cloud_security_management/security_graph.md
new file mode 100644
index 0000000000000..afe0868485e4e
--- /dev/null
+++ b/content/es/security/cloud_security_management/security_graph.md
@@ -0,0 +1,56 @@
+---
+further_reading:
+- link: https://www.datadoghq.com/blog/datadog-security-graph/
+ tag: Blog
+ text: Visualizar relaciones de seguridad en la nube con Datadog Security Graph
+title: Visualizar relaciones con Security Graph
+---
+
+{{< callout url="https://www.datadoghq.com/product-preview/security-graph" header="Únete a la vista previa">}}
+ Security Graph tiene una disponibilidad limitada.
+{{< /callout >}}
+
+{{< site-region region="gov" >}}
+Security Graph no está disponible en el sitio seleccionado ({{< region-param key="dd_site_name" >}}).
+{{< /site-region >}}
+
+Uno de los retos más persistentes de la seguridad en la nube es comprender cómo interactúan entre sí los componentes de cálculo, almacenamiento, identidad y redes. Con Security Graph, puedes modelar tu entorno de nube como un gráfico de relaciones. Visualiza y consulta las conexiones entre tus recursos en la nube, como instancias EC2, roles IAM, buckets S3 y grupos de seguridad, combinando datos de tus análisis en la nube basados en el Agent y sin el Agent. Investiga estas relaciones para poder descubrir rutas de acceso indirectas, evaluar los riesgos de identidad y responder con mayor eficacia a las amenazas emergentes.
+
+**Nota**: Security Graph solo admite recursos de AWS.
+
+{{< img src="security/csm/security_graph.png" alt="Security Graph que muestra una instancia EC2" width="100%">}}
+
+## Seleccionar o crear una consulta
+
+Existen dos formas de especificar los tipos de recursos y las relaciones que quieres ver en Security Graph:
+
+- Selecciona una consulta preelaborada en la página de inicio.
+- Crea tu propia consulta, especificando los tipos de recursos y las relaciones entre ellos.
+
+
+
+Si utilizas una consulta preelaborada, los detalles técnicos se rellenan automáticamente en la consulta. Puedes modificar la consulta para afinar tus resultados.
+
+### Crear y modificar consultas
+
+Tanto si utilizas una consulta generada automáticamente como si creas la tuya propia, puedes utilizar el generador de consultas para afinar los resultados.
+
+1. En **Build your own query** (Crear tu propia consulta), junto a **Search for** (Buscar), selecciona un tipo de recurso de la lista.
+1. (Opcional) Para añadir detalles adicionales sobre el tipo de recurso seleccionado, haz clic en **+** y luego en **Where** (Dónde). En el campo que aparece, selecciona una etiqueta (tag) e introduce un valor para esa etiqueta por el que filtrar.
+1. (Opcional) Para filtrar por un tipo de recurso adicional, haz clic en **+** y luego en **That** (Ese). En el campo que aparece, selecciona la relación que quieres que tenga el tipo de recurso adicional con el anterior. Si aparece otro campo **Where** (Dónde), especifica valores de etiqueta adicionales para este tipo de recurso.
+1. Añade tipos de recursos y valores de etiqueta adicionales según sea necesario. También puedes hacer clic en el icono **Delete** (Borrar), para eliminar una condición, o en **Clear query** (Eliminar consulta), para empezar de nuevo.
+
+A medida que modificas la consulta, Security Graph se actualiza automáticamente para mostrar los recursos pertinentes. Junto a **View** (Vista), puedes hacer clic en **Graph** (Gráfico), para ver los recursos en un gráfico de relaciones, o en **Table** (Tabla), para verlos en una tabla.
+
+## Más información sobre un recurso
+
+- Cuando visualices recursos en un gráfico, puedes hacer clic en uno de ellos para ver más información:
+ - Copiar información clave sobre el recurso, como el ID, la cuenta o el equipo.
+ - Filtrar los recursos de la consulta actual por un valor de etiqueta específico.
+ - Ver más detalles sobre el recurso.
+ - Ver resultados de seguridad asociados al recurso.
+- Cuando visualices recursos en una tabla, puedes hacer clic en uno de ellos para ver información adicional en el panel lateral.
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
\ No newline at end of file
diff --git a/content/es/security/cloud_security_management/setup/supported_deployment_types.md b/content/es/security/cloud_security_management/setup/supported_deployment_types.md
new file mode 100644
index 0000000000000..22c017ab7d874
--- /dev/null
+++ b/content/es/security/cloud_security_management/setup/supported_deployment_types.md
@@ -0,0 +1,40 @@
+---
+title: Tipos de despliegue de Cloud Security compatibles
+---
+
+{{< partial name="security-platform/CSW-billing-note.html" >}}
+
+La siguiente tabla resume las funciones de Cloud Security disponibles en relación con cada tipo de despliegue.
+
+| Tipo de despliegue | Agent obligatorio (7.46 o posterior) | Errores de configuración | Vulnerabilidades | Riesgos de identidad | Agentless Scanning |
+|---------------------|------------------------|-------------------|------------------------------|----------------|--------------------|
+| Cuenta de AWS | | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} |
+| Cuenta de Azure | | {{< X >}} | Agentless Scanning (Vista previa) | {{< X >}} | |
+| Cuenta de GCP | | {{< X >}} | | | |
+| Terraform | | | | | {{< X >}} |
+| Docker | {{< X >}} | {{< X >}} | | | |
+| Kubernetes | {{< X >}} | {{< X >}} | {{< X >}} | | |
+| Linux | {{< X >}} | {{< X >}} | {{< X >}} | | |
+| Amazon ECS/EKS | {{< X >}} | {{< X >}} | {{< X >}} | | |
+| Windows | {{< X >}} | | {{< X >}} | | |
+| AWS Fargate ECS/EKS | {{< X >}} | | | | |
+
+La siguiente tabla resume el alcance de la cobertura disponible relativa a cada función de Cloud Security.
+| Recursos monitorizados | Errores de configuración | Vulnerabilidades | Riesgos de identidad | Agentless Scanning |
+|---------------------------------|-------------------|-----------------|----------------|--------------------|
+| Recursos en cuenta de AWS | {{< X >}} | {{< X >}} | | {{< X >}} |
+| Recursos en suscripción de Azure | {{< X >}} | | | |
+| Recursos en proyecto de GCP | {{< X >}} | | | |
+| Clúster Kubernetes | {{< X >}} | | | |
+| Host Docker | {{< X >}} | | | |
+| Host Linux | {{< X >}} | {{< X >}} | | {{< X >}} |
+| Host Windows | | {{< X >}} | | |
+| Contenedor Docker | | | | |
+| Imagen de contenedor | | {{< X >}} | | {{< X >}} |
+| IAM en cuenta de AWS | | | {{< X >}} | |
+
+**Nota**: Cloud Security Misconfigurations monitoriza además los recursos comunes utilizados en tus cuentas en la nube que ejecutan Windows y AWS Fargate, como las instancias EC2, RDS, S3 y ELB.
+
+[1]: /es/security/cloud_security_management/setup/#cloud-security-threats
+[2]: /es/security/cloud_security_management/setup/#cloud-security-vulnerabilities
+[3]: /es/security/cloud_security_management/setup/#cloud-security-identity-risks
\ No newline at end of file
diff --git a/content/es/security/code_security/static_analysis/custom_rules/guide.md b/content/es/security/code_security/static_analysis/custom_rules/guide.md
new file mode 100644
index 0000000000000..a1a40138459f8
--- /dev/null
+++ b/content/es/security/code_security/static_analysis/custom_rules/guide.md
@@ -0,0 +1,744 @@
+---
+description: Una guía completa para escribir reglas personalizadas para Datadog.
+title: Guía de reglas personalizadas para el análisis de código estático
+---
+
+Esta guía se basa en el [tutorial de reglas personalizadas para el análisis de código estático][1], proporcionando una descripción completa de cómo escribir reglas personalizadas, junto con consejos, trucos y errores comunes a evitar.
+
+## Información general
+
+Una regla de analizador estático consta de tres partes: una consulta Tree-sitter para encontrar construcciones de código relevantes, una función JavaScript para analizar el código y generar conclusiones, y tests que comprueban si la regla funciona correctamente.
+
+Cuando ejecutas un análisis estático, el analizador toma cada archivo de tu repositorio de código, comprueba su extensión de nombre de archivo para determinar su lenguaje, analiza el archivo con Tree-sitter y, a continuación, ejecuta las reglas de ese lenguaje.
+
+Para ejecutar una regla, el analizador consulta el árbol de análisis generado utilizando la [consulta Tree-sitter][3] proporcionada por la regla. De este modo se obtienen cero o más nodos del Tree-sitter. A continuación, para cada nodo, el analizador ejecuta la función `visit()` del código JavaScript de la regla. Esta función puede llamar a `addError()` para generar conclusiones para esa regla.
+
+## Consulta Tree-sitter
+
+Una consulta contiene uno o más patrones, donde cada uno de ellos es una expresión que declara la forma de los nodos con los que coincide. El motor de consulta recorre el árbol de análisis en busca de nodos que coincidan con el patrón y devuelve cada ocurrencia.
+
+### Patrones de nodos
+
+El patrón básico consiste en un tipo de nodo entre paréntesis. Este patrón coincide con todos los nodos que pertenecen a ese tipo.
+
+El siguiente ejemplo muestra una consulta que busca nodos de tipo `func-decl`:
+
+```scheme
+(func-decl)
+```
+
+Puedes añadir patrones después del tipo de nodo y antes del paréntesis de cierre. El patrón resultante coincidirá con los nodos cuyos nodos secundarios coincidan con esos patrones.
+
+```scheme
+(func-decl (arg-list) (body))
+```
+
+Este ejemplo coincide con nodos de tipo `func-decl` que contienen un nodo de tipo `arg-list`, seguido de un nodo de tipo `body`, posiblemente con otros nodos intermedios. En el siguiente árbol de análisis, esta consulta coincidiría con los subárboles marcados en azul, pero no con el subárbol marcado en naranja.
+
+{{< img src="/security/code_security/custom_rule_guide_parse_trees.png" alt="Ejemplo de árbol de análisis con dos ejemplos resaltados." style="height:20em;" >}}
+
+Puedes anidar patrones secundarios tan profundamente como necesites.
+
+```scheme
+(func-decl
+ (arg-list
+ (argument)
+ )
+ (body
+ (statement
+ (function-call)
+ )
+ )
+)
+```
+
+Como puedes ver, puedes añadir espacios en blanco y saltos de línea a tu consulta Tree-sitter. Puedes adaptarlos para que tu consulta sea más legible. También puedes añadir comentarios, que empiezan con punto y coma, y van hasta el final de la línea.
+
+```scheme
+; Another way to format the previous example
+(func-decl
+ (arg-list (argument)) ; The arg-list contains at least one argument
+ (body
+ (statement (function-call)) ; The body contains a function call
+ )
+)
+```
+
+Puedes utilizar puntos (`.`) para especificar que dos nodos hermanos deben aparecer juntos; de lo contrario, coincidirán aunque haya otros nodos entre ellos. También puedes utilizar puntos para especificar que un nodo debe ser el primer o el último nodo secundario.
+
+```scheme
+(func-decl (arg-list) . (body))
+; The `func-decl` contains an `arg-list` followed immediately by a `body`.
+
+(func-decl . (body))
+; The first child of the `func-decl` is a `body`.
+
+(func-decl (return-type) . )
+; The last child of the `func-decl` is a `return-type`.
+```
+
+Algunos nodos tienen campos, que puedes hacer coincidir especificando el nombre del campo, dos puntos y, a continuación, un patrón para el contenido del campo.
+
+```scheme
+(unary-operator
+ operand: (identifier))
+; Matches `unary-operator` nodes with a field `operand`
+; that contains an `identifier`
+```
+
+También puedes buscar nodos que carezcan de un campo especificando un signo de exclamación (`!`) seguido del nombre del campo.
+
+```scheme
+(if-statement
+ !else)
+; Matches an `if-statement` that doesn't have an `else` field.
+```
+
+Hasta ahora hemos visto "nodos con nombre", que son nodos que tienen un tipo. Tree-sitter también añade "nodos anónimos" a los árboles de análisis. Estos nodos no tienen un tipo y a menudo contienen elementos sintácticos; por ejemplo, los operadores "`+`" o "`/`", paréntesis, dos puntos, etc.
+
+Puedes hacer coincidir nodos anónimos especificando su texto entre comillas dobles.
+
+```scheme
+(binary-operation
+ (identifier)
+ "+"
+ (binary-operation)
+)
+; Matches a `binary-operation` that contains an `identifier`,
+; a "+" token, and another `binary-operation`.
+```
+
+### Comodines
+
+Puedes utilizar un guión bajo (`_`) como comodín. Un guión bajo por sí solo coincide con cualquier nodo, ya sea con nombre o anónimo. Un guión bajo como nombre de un nodo coincide con cualquier nodo con nombre, pero no con nodos anónimos.
+
+```scheme
+(binary-operation . (_) "+" (identifier) . )
+; Matches a `binary-operation` node where the first child node
+; is a named node of any type.
+
+(binary-operation . (identifier) _ (identifier) . )
+; Matches a `binary-operation` node where the middle child node
+; can be any node, anonymous or not.
+
+(_ . (identifier) "+" (identifier) . )
+; Matches a named node of any type that contains an `identifier`,
+; a "+" anonymous node, and another `identifier`.
+```
+
+### Alternativas
+
+Si especificas más de un patrón en el nivel superior de tu consulta Tree-sitter, la consulta encontrará nodos que coincidan con cualquiera de los patrones.
+
+```scheme
+(program)
+(module)
+; Matches nodes of type `program` or `module`
+```
+
+Si quieres especificar coincidencias alternativas para nodos secundarios, escribe tus alternativas entre corchetes (`[]`). Ten en cuenta que las alternativas se enumeran una tras otra, sin comas entre ellas.
+
+```scheme
+(func-decl
+ [
+ (func-prototype)
+ (func-definition)
+ ]
+)
+; Matches nodes of type `func-decl` that contain a child
+; of type `func-prototype` or `func-definition`.
+```
+
+Si un nodo contiene nodos secundarios que podrían cumplir varias alternativas, el motor de consulta devolverá un resultado por cada alternativa coincidente. Si tienes varias alternativas en una sola consulta, puede producirse una explosión combinatoria, ya que el motor de consulta devuelve coincidencias por cada combinación de alternativas. Como resultado, el análisis estático tardará más tiempo en ejecutarse y la regla puede agotarse.
+
+### Capturas
+
+Puedes "capturar" nodos coincidentes para que estén disponibles en el código JavaScript de la regla o para utilizarlos en predicados (descritos más adelante). Para capturar un nodo, añade un signo arroba (`@`) seguido de un nombre de captura después del patrón que quieres capturar.
+
+```scheme
+(binary-operation
+ (identifier) @id
+ "+" @op
+ _ @operand
+) @operation
+; Matches `binary-operation` nodes (captured under the name `operation`)
+; that contain an `identifier` (captured as `id`), an anonymous node
+; containing "+" (captured as `op`), and any other child node
+; (captured as `operand`.)
+```
+
+### Coincidencias opcionales y repetidas
+
+Puedes indicar que un nodo puede aparecer opcionalmente, especificando el modificador de interrogación (`?`) después de su patrón.
+
+```scheme
+(exit-statement
+ (integer)?
+)
+; Matches an `exit-statement` node containing an optional `integer` node.
+```
+
+Puedes capturar un nodo opcional. La captura estará vacía si el nodo no está presente.
+
+```scheme
+(exit-statement
+ (integer)? @retCode
+)
+; If the `integer` exists, `retCode` will contain the node;
+; otherwise it will be empty.
+```
+
+Puedes indicar que un nodo puede aparecer cero o más veces, especificando el modificador asterisco (`*`) después de su patrón.
+
+```scheme
+(list
+ _* @items
+)
+; Matches a `list` node with zero or more children, capturing them as `items`.
+```
+
+Como puedes ver, estos modificadores son muy útiles con las capturas. Si no te interesara capturar los nodos secundarios, podrías simplemente reescribir la consulta anterior como "`(list)`".
+
+Puedes indicar que un nodo debe aparecer una o más veces, especificando el modificador de signo más (`+`) después de su patrón.
+
+```scheme
+(array-index
+ (integer)+ @indices
+)
+; Matches an `array-index` node that contains one or more `integer` nodes,
+; capturing them as `indices`.
+```
+
+También puedes aplicar estos modificadores a grupos de patrones. Para ello, encierra el grupo entre paréntesis y, a continuación, aplica el modificador después del paréntesis de cierre.
+
+```scheme
+(array-dimensions
+ (integer)
+ ("," integer)*
+)
+; Matches an `array-dimensions` node that contains an `integer` node
+; followed by zero or more `integer` nodes preceded by commas.
+```
+
+Las diferencias entre los tres modificadores pueden ser sutiles, así que revisémoslos nuevamente desde otro punto de vista.
+
+* La diferencia entre "`?`" y "`*`" es que, cuando hay nodos repetidos que coinciden con un patrón, "`*`" producirá un único resultado que contiene todas las repeticiones, pero "`?`" producirá un resultado por cada repetición.
+
+Por ejemplo, si el árbol de análisis tuviera un nodo `list` con cinco nodos secundarios, un patrón "`(list _?)`" produciría cinco resultados diferentes, uno para cada nodo secundario, mientras que un patrón "`(list _*)`" produciría un único resultado para toda la lista de nodos secundarios.
+
+* La diferencia entre "`*`" y "`+`" es que, cuando no hay nodos coincidentes, el patrón "`*`" devuelve un resultado, mientras que el patrón "`+`" no devuelve ningún resultado.
+
+Por ejemplo, si el árbol de análisis tuviera un nodo `list` sin nodos secundarios, un patrón "`(list _*)`" produciría un resultado, mientras que un patrón "`(list _+)`" produciría cero resultados.
+
+### Predicados
+
+Puedes especificar condiciones adicionales que deben cumplir los nodos para coincidir. Estas condiciones se expresan en forma de predicados que se añaden dentro de los paréntesis de un patrón.
+
+```scheme
+(binary-operator
+ (identifier) @id
+ (#match? @id "[a-z]+([A-Z][a-z]*)*")
+)
+; Matches a `binary-operator` node that contains an `identifier` node
+; whose content matches the provided regular expression.
+```
+
+Los predicados tienen la forma `(#pred? arg1 arg2)`, donde `#pred?` es el nombre de un predicado, `arg1` es una captura y `arg2` puede ser otra captura o una cadena.
+
+```scheme
+(assign-statement
+ left: _ @target
+ right: _ @source
+ (#eq? @target @source)
+)
+; Matches `assign-statement` nodes whose `left` and `right` fields are equal.
+```
+
+Algunos predicados comunes son:
+
+* `#eq?`, `#not-eq?`: la captura es igual/no es igual al segundo argumento.
+* `#match?`, `#not-match?`: la captura coincide/no coincide con la expresión regular proporcionada como segundo argumento.
+
+Si tu captura contiene varios nodos (por ejemplo, si utilizaste los modificadores `*` o `?` ), puedes utilizar los siguientes predicados:
+
+* `#any-eq?`, `#any-not-eq?`: cualquiera de los nodos capturados es igual/no es igual al segundo argumento.
+* `#any-match?`, `#any-not-match?`: cualquiera de los nodos capturados coincide/no coincide con la expresión regular proporcionada como segundo argumento.
+
+```scheme
+(array-index
+ (identifier)* @ids
+ (#any-eq? @ids "exit")
+)
+; Matches `array-index` nodes with an `identifier` child node
+; that contains "exit".
+```
+
+Si necesitas comprobar si un argumento es igual a uno de varios valores, también existe un predicado para ello:
+
+* `#any-of?`, `#not-any-of?`: la captura es igual/no es igual a cualquiera del segundo, tercero, cuarto, etc., argumento.
+
+```scheme
+(function-call
+ name: _ @fn
+ (#any-of? @fn "system" "exit" "quit")
+)
+; Matches `function-call` nodes whose name field is equal
+; to "system", "exit", or "quit".
+```
+
+## Código JavaScript
+
+El código JavaScript de tu regla tendrá normalmente este aspecto:
+
+```javascript
+function visit(query, filename, code) {
+ const { cap1, cap2, cap3 } = query.captures;
+ const { cap4, cap5, cap6 } = query.capturesList;
+ /* check the captured nodes */
+ const err = /* generate a message for a finding */;
+ addError(err);
+}
+```
+
+### Función `visit()`
+
+Tras ejecutar la consulta, el analizador estático ejecuta la función `visit()` para cada coincidencia. Esta función recibe tres argumentos:
+
+* `query`: información sobre la coincidencia actual.
+* `filename`: nombre del archivo analizado.
+* `code`: contenido del archivo analizado.
+
+Los argumentos `filename` y `code` son cadenas. Sin embargo, el argumento `query` es un objeto que contiene las siguientes propiedades:
+
+* `captures`: un objeto que contiene los nodos capturados por la consulta, codificados por el nombre de la captura. Si una captura contiene más de un nodo, aquí solo aparece el primero.
+* `capturesList`: similar a `captures`, pero contiene listas de todos los nodos capturados con un nombre. Es adecuado para la captura de nodos repetidos mediante los modificadores `+` y `*`.
+
+Por ejemplo, con una consulta como esta:
+
+```scheme
+(var-assignment
+ left: (identifier)+ @ids
+ right: _ @expr
+) @assignment
+```
+
+El argumento `query` contendría algo similar a lo siguiente:
+
+```javascript
+query = {
+ captures: {
+ ids: /* the first `identifier` node in field `left` */,
+ expr: /* the node in field `right` */
+ },
+ capturesList: {
+ ids: [
+ /* first `identifier` node from `left` */,
+ /* second `identifier` node from `left` */,
+ /* etc */
+ ],
+ expr: [
+ /* the node in field `right` */
+ ]
+ }
+}
+```
+
+### Trabajar con capturas
+
+Los nombres de las capturas se utilizan como claves en los objetos `query.captures` y `query.capturesList`. Si asignas a esas capturas nombres compatibles con nombres de variables JavaScript, podrás encontrarlas fácilmente:
+
+```javascript
+const { id, expr, node } = query.captures;
+```
+
+El código anterior extrae las propiedades `id`, `expr` y `node` de `query.captures` y las asigna a constantes con los mismos nombres.
+
+Si los nombres de las capturas no son compatibles con nombres de variables JavaScript, aún podrás extraerlas, pero de forma un poco menos conveniente.
+
+```javascript
+const id = query.captures["id-node"];
+const expr = query.captures["20394];
+```
+
+Un nodo capturado está representado mediante un objeto que contiene las siguientes propiedades:
+
+* `cstType`: el tipo de nodo.
+* `start`: un objeto que contiene la posición inicial del nodo en el código fuente.
+* `end`: un objeto que contiene la posición del carácter que sigue al final del nodo.
+* `text`: el contenido del nodo.
+
+Las propiedades `start` y `end` son objetos que contienen propiedades `line` y `col`. Estas propiedades están basadas en 1: la primera línea de un archivo y la primera columna de una línea tienen el número 1. La posición en la propiedad `start` es inclusiva: apunta al primer carácter del nodo. La posición en la propiedad `end` es exclusiva: apunta al primer carácter después del nodo.
+
+Puedes utilizar las propiedades `start` y `end` para comprobar la longitud de un nodo o las posiciones relativas de dos nodos. Por ejemplo, si las propiedades `start` y `end` de un nodo tienen los mismos valores, el nodo está vacío. Si la propiedad `end` de un nodo tiene los mismos valores que la propiedad `start` de otro nodo, los nodos se suceden inmediatamente.
+
+(Nota sobre el código antiguo: puede que veas algunas reglas que utilizan la propiedad `astType` en lugar de `cstType`. Esas reglas son antiguas, y deberías utilizar `cstType`. También es posible que veas algunas reglas que utilizan `getCodeForNode(node, code)` o `getCodeForNode(node)` en lugar de `node.text`. Deberías utilizar `node.text`).
+
+### Navegación por el árbol de análisis
+
+Puedes utilizar las funciones `ddsa.getParent(node)` y `ddsa.getChildren(node)` para obtener los nodos primario y secundarios de un nodo, respectivamente.
+
+```javascript
+function visit(query, filename, code) {
+ const { funcDecl } = query.captures;
+ const parent = ddsa.getParent(funcDecl);
+ // Do something with the `funcDecl` node's parent
+ const children = ddsa.getChildren(funcDecl);
+ for (let child of children) {
+ // Do something with the `funcDecl` node's children
+ }
+}
+```
+
+Puedes seguir llamando a `ddsa.getParent(node)` y `ddsa.getChildren(node)` en los nodos devueltos por estas funciones para navegar por el árbol de análisis. Si se llama a `ddsa.getParent()` en el nodo raíz, se obtiene `undefined`, mientras que si se llama a `ddsa.getChildren()` en un árbol de hojas, se obtiene una lista vacía.
+
+```javascript
+function visit(query, filename, code) {
+ const { funcDecl } = query.captures;
+ let root = getRoot(funcDecl);
+ // Now `root` contains the parse tree's root
+ displayLeaves(root);
+}
+
+function getRoot(node) {
+ let parent = ddsa.getParent(node);
+ while (parent) {
+ node = parent;
+ parent = ddsa.getParent(node);
+ }
+ return node;
+}
+
+function displayLeaves(node) {
+ let children = ddsa.getChildren(root);
+ if (children.length == 0) console.log(node);
+ for (let child of children) {
+ displayLeaves(child);
+ }
+}
+```
+
+Si se llama a `ddsa.getChildren(node)` en un nodo con campos, los nodos contenidos en esos campos serán devueltos entre los secundarios y contendrán una propiedad adicional `fieldName`.
+
+```javascript
+// Get the content of the `then` and `else` fields of an `if_statement` node.
+let children = ddsa.getChildren(ifStatementNode);
+let thenField = children.find(n => n.fieldName === 'then');
+let elseField = children.find(n => n.fieldName === 'else');
+```
+
+Puedes comparar dos objetos de nodo con `==` para saber si apuntan al mismo nodo.
+
+```javascript
+function visit(query, filename, code) {
+ const { funcDecl } = query.captures;
+ displaySiblings(funcDecl);
+}
+
+// Prints out all siblings of this node, not counting itself
+function displaySiblings(node) {
+ let parent = ddsa.getParent(node);
+ if (!parent) return;
+ let allSiblings = ddsa.getChildren(parent);
+ for (let sibling of allSiblings) {
+ if (sibling != node) console.log(sibling);
+ }
+}
+```
+
+### Comunicación de resultados y sugerencias
+
+Utiliza la función `addError()` para informar de un hallazgo al usuario. Esta función toma un objeto `Violation` que puedes crear con la función `buildError()`. Esta función toma cinco argumentos: `startLine`, `startCol`, `endLine`, `endCol` y `message`. Generalmente, se utilizan las propiedades `start` y `end` de un nodo para obtener los valores de los cuatro primeros argumentos.
+
+```javascript
+function visit(query, filename, code) {
+ const { funcCall } = query.captures;
+ addError(
+ buildError(
+ funcCall.start.line, funcCall.start.col,
+ funcCall.end.line, funcCall.end.col,
+ "Function calls are not allowed"
+ )
+ );
+}
+```
+
+Sin embargo, puedes utilizar las posiciones `start` y `end` de varios nodos, o incluso calcular las tuyas propias, si es necesario.
+
+El `message` que proporciones se mostrará al usuario.
+
+También puedes adjuntar propuestas de corrección al mensaje de error. Para ello, llama al método `addFix()` del objeto `Violation`. Este método toma un objeto `Fix` que puedes crear con la función `buildFix()`. Esta función toma dos argumentos: una `description` y `edits`, una matriz de ediciones propuestas.
+
+Puede crear las ediciones propuestas con las funciones `buildEditAdd()`, `buildEditRemove()` y `buildEditUpdate()`.
+
+* `buildEditAdd()` genera una sugerencia para insertar texto. Toma tres argumentos: `startLine`, `startCol` y `newContent`.
+* `buildEditRemove()` genera una sugerencia para borrar texto. Toma cuatro argumentos: `startLine`, `startCol`, `endLine` y `endCol`.
+* `buildEditUpdate()` genera una sugerencia para modificar el texto. Toma cinco argumentos: `startLine`, `startCol`, `endLine`, `endCol` y `newContent`.
+
+```javascript
+function visit(query, filename, code) {
+ const { fname } = query.captures;
+ if (fname.text != "oldFunction") return;
+ addError(
+ buildError(
+ fname.start.line, fname.start.col,
+ fname.end.line, fname.end.col,
+ "This function is deprecated"
+ ).addFix(
+ buildFix(
+ "Use the new function instead",
+ [
+ buildEditUpdate(
+ fname.start.line, fname.start.col,
+ fname.end.line, fname.end.col,
+ "newFunction")
+ ]
+ )
+ )
+ );
+}
+```
+
+## Trucos y consejos
+
+### Coincidencia con un nodo que no tiene un secundario determinado
+
+Aunque puedes utilizar un signo de exclamación (`!`) para buscar un nodo que no tiene un campo concreto, no hay forma de escribir una consulta para un nodo que no tiene un nodo secundario concreto. Por ejemplo, no puedes escribir una consulta para "un nodo `function_declaration` que no contenga un nodo secundario `return_statement`".
+
+Sin embargo, puedes combinar una consulta y código JavaScript para lograr ese resultado.
+
+Para ello, utiliza el modificador de interrogación (`?`) y una captura en el nodo secundario que quieras excluir. Luego, tu código JavaScript puede comprobar si el nodo fue capturado. Si no lo fue, significa que el nodo no está presente.
+
+```scheme
+; Query:
+(function_declaration
+ name: (identifier) @id
+ result: _
+ body:
+ (block
+ (return_statement)? @ret ; This is the node we want to exclude
+ )
+)
+```
+
+```javascript
+// Code:
+function visit(query, filename, code) {
+ const { id, ret } = query.captures;
+ if (ret) return; // The return statement is present, so exit
+ addError(
+ buildError(
+ id.start.line, id.start.col,
+ id.end.line, id.end.col,
+ "Missing return statement"
+ )
+ );
+}
+```
+
+### Navegar por el árbol de análisis para buscar nodos
+
+Es tentador intentar escribir una consulta que seleccione y capture todos los nodos que necesitas, pero a veces es más fácil encontrar un nodo y luego utilizar `ddsa.getParent()` y `ddsa.getChildren()` para encontrar el resto.
+
+Por ejemplo, si quieres encontrar una definición de función que contenga una llamada a función, no puedes hacerlo en una consulta Tree-sitter sin especificar patrones para la llamada a función en diferentes niveles de anidamiento. Sin embargo, puedes hacerlo muy fácilmente si buscas la llamada a función en la consulta Tree-sitter y luego, en el código JavaScript, asciendes por el árbol de análisis utilizando `ddsa.getParent()` para encontrar la definición de la función.
+
+```scheme
+; Query:
+(call_expression
+ function:
+ (_ field: _ @methodName
+ (@eq? @methodName "DoSomething")
+ )
+) @fn
+```
+
+```javascript
+// Code:
+function visit(query, filename, code) {
+ const { fn } = query.captures;
+ let decl = ddsa.getParent(fn);
+ while (decl && decl.cstType != 'function_declaration')
+ decl = ddsa.getParent(decl);
+ // `decl` is now the `function_declaration` or undefined
+}
+```
+
+Puedes hacer muchas cosas con `ddsa.getParent()` y `ddsa.getChildren()`. Por ejemplo, puedes examinar los hermanos de un nodo:
+
+```javascript
+function getSiblings(node) {
+ return ddsa.getChildren(ddsa.getParent(node)).filter(n => n != node);
+}
+
+function getSiblingsAfter(node) {
+ return ddsa.getChildren(ddsa.getParent(node)).
+ reduce((a, n) => n == node ? [] : a && a.concat([n]), undefined);
+}
+
+function getSiblingsBefore(node) {
+ return ddsa.getChildren(ddsa.getParent(node)).
+ reduceRight((a, n) => n == node ? [] : a && [n].concat(a), undefined);
+}
+```
+
+A continuación, puedes inspeccionar y seleccionar los nodos que te interesen, comprobando sus propiedades `cstType` y `text`.
+
+## Errores
+
+### Añadir predicados no acelera la consulta
+
+Si tu consulta Tree-sitter es lenta, puedes intentar acelerarla añadiendo predicados para podar el árbol de búsqueda. Sin embargo, este método no funciona con el motor de consulta Tree-sitter. El motor ignora todos los predicados cuando recorre el árbol en busca de nodos que coincidan con el patrón y solo aplica los predicados al final para filtrar la lista de resultados.
+
+Por lo tanto, aunque añadir predicados puede reducir el número de veces que se llama a tu función `visit()`, no se reducirá la cantidad de trabajo que realizará el analizador estático en el momento de la consulta.
+
+Ten en cuenta también que los predicados de consulta no son necesariamente más rápidos que el filtrado de nodos en la función `visit()`. A veces es más fácil hacer el filtrado en el código que escribir un predicado complicado en la consulta. En este caso, no obtendrás una penalización de rendimiento, siempre que te asegures de hacer este filtrado lo antes posible en tu código.
+
+### Posible explosión combinatoria
+
+El motor de consulta Tree-sitter intenta devolver todas las combinaciones de nodos posibles que satisfagan la consulta. Esto significa que las consultas complicadas con dos o más alternativas podrían provocar una explosión combinatoria, ya que el motor de consulta explora todas las posibilidades de cada alternativa.
+
+Ten en cuenta que añadir predicados no ayudará, ya que solo se comprueban después de seleccionar los nodos.
+
+A continuación se analizan algunas causas.
+
+#### Dos patrones similares de nodos secundarios
+
+Algunos autores de reglas intentan hacer coincidir dos nodos a la vez utilizando patrones iguales o muy similares. Esto podría causar problemas si el archivo tiene muchos nodos que coinciden con todos esos patrones.
+
+Por ejemplo, puedes escribir una consulta como esta para capturar pares de métodos en una declaración de clase:
+
+```scheme
+(class_declaration
+ (method_declaration) @method1
+ (method_declaration) @method2
+)
+```
+
+Para una clase con solo dos métodos, esta consulta solo devolverá un nodo. Sin embargo, para una clase con 10 métodos, devolverá 45. Para una clase con 100 métodos, devolverá 4950 nodos. Para una clase con 100 métodos, devolverá 4950 nodos.
+
+Para evitar este problema, utiliza modificadores como `+` o `*` para capturar toda la lista de métodos en un único resultado de consulta. Alternativamente, utiliza `.` para indicar que los nodos secundarios deben aparecer uno al lado del otro.
+
+```scheme
+(class_declaration
+ (method_declaration)+ @methods
+)
+
+; or
+
+(class_declaration
+ (method_declaration) @method1
+ .
+ (method_declaration) @method2
+)
+```
+
+#### Intentar hacer coincidir dos nodos en la consulta
+
+Un tipo común de regla trata de encontrar variables de un tipo particular que se utilizan de una manera particular. La gente tiende a escribir la consulta como "encontrar todas las definiciones de variables y capturar el nombre, encontrar todos los usos de variables, capturar el nombre y comprobar que los nombres coinciden".
+
+```scheme
+(_
+ (var_declaration
+ (var_spec
+ name: _ @varName
+ type: _ @typeName
+ )
+ )
+
+ (_
+ (call_expression
+ function:
+ (_
+ operand: _ @opName
+ field: _ @methodName
+ )
+ )
+ )
+
+ (#eq? @typeName "myType")
+ (#eq? @methodName "DoSomething")
+ (#eq? @varName @opName)
+)
+```
+
+El problema es que el motor de consulta Tree-sitter obtendrá cada nodo de `var_declaration` y cada nodo de `call_expression`, los hará coincidir en pares y luego comprobará los predicados de cada par. Esto resulta en una operación O(nm).
+
+Una solución es escribir una consulta que encuentre uno de los nodos y luego utilizar `ddsa.getParent()` y `ddsa.getChildren()` para encontrar el otro nodo.
+
+Otra posible solución consiste en reunir todos los nodos candidatos sin intentar hacerlos coincidir y, a continuación, procesarlos en el código JavaScript.
+
+#### Intentar hacer coincidir un patrón en varios niveles de anidamiento
+
+Puedes escribir un patrón para encontrar un nodo que contenga un nodo secundario que coincida con un patrón. Sin embargo, no puedes escribir un patrón para encontrar un nodo que contenga un descendiente en un nivel de anidamiento arbitrario.
+
+Algunos redactores de reglas intentaron resolver esto especificando varias alternativas, cada una con el patrón de interés en un nivel de anidamiento diferente.
+
+```scheme
+; Query:
+(function_declaration
+ [
+ ; Find the same pattern at nesting levels 1 through 4
+ (_
+ (call_expression
+ function: (_ field: _ @methodName)
+ ) @fn
+ )
+
+ (_ (_
+ (call_expression
+ function: (_ field: _ @methodName)
+ ) @fn
+ ))
+
+ (_ (_ (_
+ (call_expression
+ function: (_ field: _ @methodName)
+ ) @fn
+ )))
+
+ (_ (_ (_ (_
+ (call_expression
+ function: (_ field: _ @methodName)
+ ) @fn
+ ))))
+ ]
+
+ (#eq? @methodName "DoSomething")
+) @decl
+```
+
+```javascript
+// Code:
+function visit(query, filename, code) {
+ const { decl, fn } = query.captures;
+ // ... do something with decl and fn
+}
+```
+
+Ya mencionamos los problemas de esta estrategia. En primer lugar, el motor de consulta recorre cada rama del árbol de análisis para intentar encontrar una coincidencia, lo que puede llevar mucho tiempo. Además, si hay dos o más alternativas, el motor de consulta devolverá una coincidencia por cada conjunto de nodos que coincida con una combinación de opciones.
+
+Una solución para este problema es escribir una consulta para el nodo secundario y luego utilizar `ddsa.getParent()` para encontrar el nodo antepasado. Esta acción también tiene la ventaja de que nos proporciona niveles de anidamiento ilimitados.
+
+```scheme
+; Query:
+(call_expression
+ function: (_field: _ @methodName (#eq? @methodName "doSomething))
+)
+```
+
+```javascript
+// Code:
+function visit(query, filename, code) {
+ const { fn } = query.captures;
+ let decl = ddsa.getParent(fn);
+ while (decl && decl.cstType != 'function_declaration') {
+ decl = ddsa.getParent(decl);
+ }
+ // ... do something with decl and fn
+}
+```
+
+
+
+[1]: /es/security/code_security/static_analysis/custom_rules/tutorial/
+[2]: https://tree-sitter.github.io/
+[3]: https://tree-sitter.github.io/tree-sitter/using-parsers/queries/index.html
\ No newline at end of file
diff --git a/content/es/security/sensitive_data_scanner/guide/redact_uuids_in_logs.md b/content/es/security/sensitive_data_scanner/guide/redact_uuids_in_logs.md
new file mode 100644
index 0000000000000..a3c502df1ac98
--- /dev/null
+++ b/content/es/security/sensitive_data_scanner/guide/redact_uuids_in_logs.md
@@ -0,0 +1,72 @@
+---
+disable_toc: false
+further_reading:
+- link: /security/sensitive_data_scanner/scanning_rules/custom_rules
+ tag: Documentación
+ text: Expresión regular para reglas de escaneo personalizadas
+title: Redactar identificadores únicos universales (UUID) en logs
+---
+
+## Información general
+
+Esta guía explica cómo crear una regla de escaneo personalizada utilizando un patrón de expresión regular (regex) para que coincida con un Identificador Único Universal (UUID) y lo redacte. Por ejemplo, tu organización puede tener un UUID para la identificación interna, con información adicional añadida, como la del usuario:
+- ID del usuario
+- Código del departamento
+- Código de estado
+
+Si deseas que los usuarios internos accedan a estos log sin exponer el UUID y el ID de usuario, puedes crear una regla de escaneo personalizada para redactar la información.
+
+## Configurar una regla personalizada para que coincida con un UUID
+
+Para esta guía, `01e2402104ca99-8641-43ba-b499-642610-0012` es el identificador interno de ejemplo que se utiliza, donde:
+- `01e2402104ca99-8641-43ba-b499` es el UUID.
+- `6462610` es un valor de 6 dígitos que representa el ID en formato byte.
+- `0012` es un código de departamento de 2 dígitos y un código de estado de 2 dígitos de un usuario:
+ - `00` se utiliza para un usuario activo.
+ - `12` para el código del departamento.
+
+En este ejemplo, deseas que coincida con el formato del identificador de ejemplo (`01e2402104ca99-8641-43ba-b499-642610-0012`) y:
+- Redacta el UUID, el ID de usuario y el ID en formato byte.
+- Pero no redactes el código de departamento y de estado del usuario.
+
+Puedes utilizar la siguiente expresión regular básica para hacer coincidir el UUID y el ID de usuario que deseas redactar:
+
+```
+[a-z0-9]{14}-\d{4}-[a-z0-9]{4}-[a-z0-9]{4}-\d{6}
+```
+
+1. Ve a la página de [configuración de Sensitive Data Scanner][1].
+1. Haz clic en **Add** (Añadir) y selecciona **Add Scanning Rule** (Añadir regla de escaneo).
+1. Haz clic en **Custom Rule** (Regla personalizada).
+1. Selecciona el grupo de escaneo al que deseas añadir esta regla.
+1. Introduce un nombre para la regla.
+1. Selecciona la prioridad que deseas para la regla.
+1. Introduce una descripción para la regla.
+1. En la sección **Match conditions** (Condiciones de coincidencia), introduce `[a-z0-9]{14}-\d{4}-[a-z0-9]{4}-[a-z0-9]{4}-\d{6}` en el campo de expresión regular.
+ {{< img src="sensitive_data_scanner/guides/regex_text_matched.png" alt="La sección de test de expresión regular que el UUID y el ID de usuario coinciden" style="width:100%;" >}}
+1. Utiliza un diccionario de palabras clave para refinar la precisión de la detección y evitar falsos positivos. En este ejemplo, deseas buscar coincidencias con un máximo de 10 caracteres de la palabra `user`:
+ 1. Introduce `user` como palabra clave.
+ 1. Introduce `10` para **Characters before match** (Caracteres antes de la coincidencia).
+1. En la sección **Action on Match** (Acción sobre la coincidencia) y para este ejemplo:
+1. Selecciona **Entire Event** (Evento completo) para saber qué parte del evento escanear. Si tienes el log analizado usando el Grok Parser, puedes escanear por atributos específicos.
+ 1. Selecciona **Redact** (Redactar) para la acción sobre la coincidencia.
+ 1. Introduce `[removed]` para el texto de sustitución.
+ 1. Introduce `matched_on:user_id` en el campo **Add tags** (Añadir etiquetas).
+1. Haz clic en **Add rule** (Añadir regla).
+
+Si este log de ejemplo, que contiene los distintos componentes del UUID, se envía a Datadog:
+
+```
+2024-11-14 14:20:22 INFO [transaction-logger] 200 OK shoe:200.000, pen:42.95. iron, 221.55, tasty-sandwich:10.95, big-coffee:11.95, user.name:fred91, user.id:01e2402104ca99-8641-43ba-b499-642610-0012, user.email:fred.jones@scooby.com function:transaction-complete.js, payment.ccn:1111-1111-1111-1111, payment.ccexp:10/30}
+```
+
+El resultado es que `user.id` se borra y se sustituye por `[removed]`:
+
+{{< img src="sensitive_data_scanner/guides/redacted_log.png" alt="El evento de log con el UUID y el ID de usuario redactado y reemplazado con el eliminado" style="width:100%;" >}}
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/organization-settings/sensitive-data-scanner/configuration
\ No newline at end of file
diff --git a/content/es/security/workload_protection/setup/agent/docker.md b/content/es/security/workload_protection/setup/agent/docker.md
new file mode 100644
index 0000000000000..6679b8208c783
--- /dev/null
+++ b/content/es/security/workload_protection/setup/agent/docker.md
@@ -0,0 +1,50 @@
+---
+code_lang: Docker
+code_lang_weight: 65
+title: Configuración de Workload Protection en Docker
+type: lenguaje de código múltiple
+---
+
+Sigue estas instrucciones para activar Workload Protection.
+
+{{< partial name="security-platform/WP-billing-note.html" >}}
+
+## Requisitos previos
+
+- Datadog Agent versión `7.46` o posterior.
+
+## Instalación
+
+El siguiente comando inicia el Runtime Security Agent y `system-probe` en un entorno Docker:
+
+{{< code-block lang="shell" filename="docker-runtime-security.sh" >}}
+
+docker run -d --name dd-agent \
+ --cgroupns host \
+ --pid host \
+ --security-opt apparmor:unconfined \
+ --cap-add SYS_ADMIN \
+ --cap-add SYS_RESOURCE \
+ --cap-add SYS_PTRACE \
+ --cap-add NET_ADMIN \
+ --cap-add NET_BROADCAST \
+ --cap-add NET_RAW \
+ --cap-add IPC_LOCK \
+ --cap-add CHOWN \
+ -v /var/run/docker.sock:/var/run/docker.sock:ro \
+ -v /proc/:/host/proc/:ro \
+ -v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \
+ -v /etc/passwd:/etc/passwd:ro \
+ -v /etc/group:/etc/group:ro \
+ -v /:/host/root:ro \
+ -v /sys/kernel/debug:/sys/kernel/debug \
+ -v /etc/os-release:/etc/os-release \
+ -e DD_COMPLIANCE_CONFIG_ENABLED=true \
+ -e DD_COMPLIANCE_CONFIG_HOST_BENCHMARKS_ENABLED=true \
+ -e DD_RUNTIME_SECURITY_CONFIG_ENABLED=true \
+ -e DD_RUNTIME_SECURITY_CONFIG_REMOTE_CONFIGURATION_ENABLED=true \
+ -e HOST_ROOT=/host/root \
+ -e DD_API_KEY= \
+ gcr.io/datadoghq/agent:7
+
+{{< /code-block >}}
\ No newline at end of file
diff --git a/content/es/security/workload_protection/troubleshooting/threats.md b/content/es/security/workload_protection/troubleshooting/threats.md
new file mode 100644
index 0000000000000..17b79d66169e4
--- /dev/null
+++ b/content/es/security/workload_protection/troubleshooting/threats.md
@@ -0,0 +1,233 @@
+---
+title: Solucionar problemas de Workload Protection
+---
+
+Si experimentas inconvenientes con Workload Protection, utiliza las siguientes instrucciones para la resolución de problemas. Si necesitas más ayuda, ponte en contacto con el [servicio de asistencia de Datadog][1].
+
+## Flare del Agent de seguridad
+
+De forma similar al [flare del Agent][1], puedes enviar la información necesaria de solucionar problemas al equipo de soporte de Datadog con un comando flare.
+
+El flare pide confirmación antes de la carga, por lo que puedes revisar el contenido antes de que el Agent de seguridad lo envíe.
+
+En los siguientes comandos, reemplaza `` con el identificador de tu caso de soporte de Datadog, si lo tienes, e introduce la dirección de correo electrónico asociada a él.
+
+Si no tienes el identificador, simplemente introduce la dirección de correo electrónico que utilizas para iniciar sesión en Datadog para crear uno nuevo.
+
+| Plataforma | Comando |
+| -------- | ------- |
+| Docker | `docker exec -it datadog-agent security-agent flare ` |
+| Kubernetes | `kubectl exec -it -c security-agent -- security-agent flare ` |
+| Host | `sudo /opt/datadog-agent/embedded/bin/security-agent flare ` |
+
+## Autotest del Agent
+
+Para garantizar que la comunicación entre `security-agent` y `system-probe` funciona según lo esperado y que Workload Protection es capaz de detectar eventos de sistema, puedes activar manualmente tests automáticos ejecutando el siguiente comando:
+
+| Plataforma | Comando |
+| -------- | ------- |
+| Docker | `docker exec -it datadog-agent security-agent runtime self-test` |
+| Kubernetes | `kubectl exec -it -c security-agent -- security-agent runtime self-test` |
+| Host | `sudo /opt/datadog-agent/embedded/bin/security-agent runtime self-test` |
+
+El procedimiento de autotest crea algunos archivos temporales y reglas para monitorizarlos y, a continuación, activa dichas reglas para asegurar que los eventos se propaguen correctamente.
+
+La siguiente respuesta aparece cuando se propagan las reglas.
+```
+Runtime self test: OK
+```
+
+Ahora puedes ver eventos procedente de `runtime-security-agent` en el Log Explorer.
+
+{{< img src="security/cws/self_test_logs.png" alt="Eventos de autotest en el Log Explorer" style="width:90%;">}}
+
+## Compatibilidad con complementos de red personalizados de Kubernetes
+
+Las detecciones basadas en la red de Workload Protection dependen del subsistema de control de tráfico del kernel de Linux. Se sabe que este subsistema introduce condiciones de carrera si varios proveedores intentan insertar, sustituir o eliminar filtros en el qdisc de entrada "clsact". Sigue la siguiente lista de comprobación para asegurarte de que Workload Protection está configurado correctamente:
+
+* Comprueba si tu proveedor utiliza clasificadores de control de tráfico eBPF. Si no lo hace, puedes ignorar este párrafo.
+* Comprueba si tu proveedor devuelve TC_ACT_OK o TC_ACT_UNSPEC después de conceder acceso en un paquete de red. Si devuelve TC_ACT_UNSPEC, puedes ignorar este párrafo.
+* Comprueba a qué prioridad asigna tu proveedor sus clasificadores eBPF:
+ * Si utilizan la prioridad 1, las detecciones de red de Workload Protection no funcionan en tus contenedores.
+ * Si utilizan la prioridad 2 a 10, asegúrate de configurar `runtime_security_config.network.classifier_priority` a un número estrictamente inferior a la prioridad elegida por tu proveedor.
+ * Si utilizan prioridad 11 o superior, puedes ignorar este párrafo.
+
+Por ejemplo, existe un problema conocido con Cilium 1.9 e inferiores con Datadog Agent (versiones 7.36 a 7.39.1, excluida 7.39.2) que puede producirse cuando se inicia un nuevo pod. La acción race puede llevar a la pérdida de conectividad dentro del pod, según cómo esté configurado Ciliumred.
+
+En última instancia, si no se pueden configurar el Datadog Agent o tus proveedores externos para evitar que se produzca el problema, debes desactivar las detecciones basadas en la red de Workload Protection siguiendo los pasos que se indican a continuación:
+
+* Añade el siguiente parámetro a tu archivo de configuración `system-probe.yaml` en instalaciones basadas en host:
+```yaml
+runtime_security_config:
+ network:
+ enabled: false
+```
+* Añade los siguientes valores si estás utilizando la Helm chart pública para desplegar el Datadog Agent:
+```yaml
+datadog:
+ securityAgent:
+ runtime:
+ network:
+ enabled: false
+```
+* Añade la siguiente variable de entorno si vas a desplegar manualmente el contenedor del Datadog Agent:
+```bash
+DD_RUNTIME_SECURITY_CONFIG_NETWORK_ENABLED=false
+```
+
+## Solucionar problemas de sesión remota de Kubernetes o interrupciones en la admisión de pods
+
+Workload Protection recopila identidades de usuario de Kubernetes y enriquece tus eventos de Workload Protection con el contexto necesario para diferenciar los accesos remotos a tu infraestructura de la actividad generada por tus cargas de trabajo. Esta integración se basa en un [webhook mutante de Kubernetes](https://kubernetes.io/docs/reference/access-authn-authz/extensible-admission-controllers/) para instrumentar sesiones de `kubectl exec`. En caso de que esta instrumentación provoque interrupciones en la admisión de pods o en la creación de sesiones `kubectl exec`, sigue la siguiente guía para desactivar esta función.
+
+{{< tabs >}}
+
+{{% tab "Datadog Operador" %}}
+
+1. Añade lo siguiente a la sección `spec` del archivo `datadog-agent.yaml`:
+
+ ```yaml
+ # datadog-agent.yaml file
+ apiVersion: datadoghq.com/v2alpha1
+ kind: DatadogAgent
+ metadata:
+ name: datadog
+ spec:
+ features:
+ # Integrate with Kubernetes to enrich Workload Protection events with Kubernetes user identities
+ admissionController:
+ cwsInstrumentation:
+ enabled: false
+ ```
+
+2. Aplica los cambios y reinicia el Agent.
+
+{{% /tab %}}
+
+{{% tab "Helm" %}}
+
+1. Añade lo siguiente a la sección `datadog` del archivo `datadog-values.yaml`:
+
+ ```yaml
+ # datadog-values.yaml file
+
+ # Integrate with Kubernetes to enrich Workload Protection events with Kubernetes user identities
+ clusterAgent:
+ admissionController:
+ cwsInstrumentation:
+ enabled: false
+ ```
+
+2. Reinicia el Agent.
+
+{{% /tab %}}
+
+{{% tab "DaemonSet" %}}
+
+1. (Opcional) Añade el siguiente parámetro a la sección `env` de `cluster-agent` en el archivo `cluster-agent-deployment.yaml`:
+
+ ```bash
+ # Source: datadog/templates/cluster-agent-deployment.yaml
+ apiVersion:app/1
+ kind: Deployment
+ [...]
+ spec:
+ [...]
+ template:
+ [...]
+ spec:
+ [...]
+ containers:
+ [...]
+ - name: cluster-agent
+ [...]
+ env:
+ - name: DD_RUNTIME_ADMISSION_CONTROLLER_CWS_INSTRUMENTATION_ENABLED
+ value: "false"
+ ```
+
+{{% /tab %}}
+{{< /tabs >}}
+
+## Desactivar Workload Protection
+
+Para desactivar Workload Protection, sigue los pasos correspondientes a la plataforma de tu Agent.
+
+### Helm
+
+En `values.yaml` del Helm, configura `securityAgent.runtime` como `enabled: false` de la siguiente manera:
+
+{{< code-block lang="yaml" filename="values.yaml" disable_copy="false" collapsible="true" >}}
+
+# values.yaml file
+datadog:
+
+# Set to false to Disable CWS
+securityAgent:
+ runtime:
+ enabled: false
+{{< /code-block >}}
+
+### Daemonset/Docker
+
+Aplica el siguiente cambio de variable de entorno al despliegue de la System Probe y del Security Agent para un Daemonset:
+
+{{< code-block lang="json" filename="daemon.json" disable_copy="false" collapsible="true" >}}
+
+DD_RUNTIME_SECURITY_CONFIG_ENABLED=false
+{{< /code-block >}}
+
+### host
+
+Modifica `system-probe.yaml` y `security-agent.yaml` para desactivar la configuración en tiempo de ejecución:
+
+1. Desactiva Workload Protection en `/etc/datadog-agent/system-probe.yaml`. Asegúrate de que `runtime_security_config` está configurado como `enabled: false`:
+ {{< code-block lang="yaml" filename="system-probe.yaml" disable_copy="false" collapsible="true" >}}
+
+ ##########################################
+ ## Security Agent Runtime Configuration ##
+ ## ##
+ ## Settings to send logs to Datadog are ##
+ ## fetched from section `logs_config` ##
+ ## in datadog-agent.yaml ##
+ ##########################################
+
+ runtime_security_config:
+ ## @param enabled - boolean - optional - default: false
+ ## Set to true to enable full Workload Protection.
+ #
+ enabled: false
+
+ ## @param fim_enabled - boolean - optional - default: false
+ ## Set to true to only enable the File Integrity Monitoring feature.
+ # fim_enabled: false
+
+ ## @param socket - string - optional - default: /opt/datadog-agent/run/runtime-security.sock
+ ## The full path of the unix socket where the security runtime module is accessed.
+ #
+ # socket: /opt/datadog-agent/run/runtime-security.sock
+ {{< /code-block >}}
+2. Desactiva Workload Protection en `/etc/datadog-agent/security-agent.yaml`. Asegúrate de que `runtime_security_config` está configurado como `enabled: false`:
+ {{< code-block lang="yaml" filename="security-agent.yaml" disable_copy="false" collapsible="true" >}}
+
+ ##########################################
+ ## Security Agent Runtime Configuration ##
+ ## ##
+ ## Settings to send logs to Datadog are ##
+ ## fetched from section `logs_config` ##
+ ## in datadog-agent.yaml ##
+ ##########################################
+
+ runtime_security_config:
+ ## @param enabled - boolean - optional - default: false
+ ## Set to true to enable the Security Runtime Module.
+ #
+ enabled: false
+
+ ## @param socket - string - optional - default: /opt/datadog-agent/run/runtime-security.sock
+ ## The full path of the unix socket where the security runtime module is accessed.
+ #
+ # socket: /opt/datadog-agent/run/runtime-security.sock
+ {{< /code-block >}}
+3. Reinicia tus Agents.
+
+[1]: /es/agent/troubleshooting/send_a_flare/?tab=agentv6v7
\ No newline at end of file
diff --git a/content/es/serverless/guide/serverless_warnings.md b/content/es/serverless/guide/serverless_warnings.md
index ffdaa464a94c8..92a03b49fccbc 100644
--- a/content/es/serverless/guide/serverless_warnings.md
+++ b/content/es/serverless/guide/serverless_warnings.md
@@ -7,6 +7,9 @@ further_reading:
- link: https://www.datadoghq.com/blog/serverless-insights/
tag: Blog
text: Lee más sobre la información de las aplicaciones serverless
+- link: https://www.datadoghq.com/blog/identifying-deprecated-lambda-functions/
+ tag: Blog
+ text: Identificar funciones obsoletas de Lambda con Datadog
title: Advertencias de las aplicaciones serverless
---
@@ -79,11 +82,11 @@ Al menos una invocación en el intervalo seleccionado caducó. Esto ocurre cuand
Más del 10 % de las invocaciones en el intervalo seleccionado estuvieron limitadas. Las limitaciones se producen cuando las aplicaciones serverless de Lambda reciben altos niveles de tráfico sin la [simultaneidad][9] adecuada.
-**Solución:** comprueba las [métricas de simultaneidad de Lambda][10] y confirma si `aws.lambda.concurrent_executions.maximum` se está acercando al nivel de simultaneidad de tu cuenta de AWS. Si es así, considera configurar la simultaneidad reservada o solicita un aumento de la cuota de servicio a AWS. Ten en cuenta que esto puede verse reflejado en tu factura de AWS.
+**Solución:** Comprueba las [métricas de simultaneidad de Lambda][10] y confirma si `aws.lambda.concurrent_executions.maximum` se está acercando al nivel de simultaneidad de tu cuenta de AWS. Si es así, considera configurar la simultaneidad reservada o solicita un aumento de la cuota de servicio a AWS. Ten en cuenta que esto puede verse reflejado en tu factura de AWS.
### Duración prolongada del iterador
-El iterador de la función tenía una duración de más de dos horas. La duración del iterador mide la duración del último registro de cada lote de registros procesados en un flujo (stream). Cuando este valor aumenta, significa que tu función no puede procesar datos lo suficientemente rápido.
+La edad del iterador de la función era demasiado alta. La edad del iterador mide la edad del último registro de cada lote de registros procesados de un stream (flujo). Cuando este valor aumenta, significa que tu función no puede procesar datos lo suficientemente rápido.
**Solución:** habilita el [rastreo distribuido][7] para aislar el motivo por el cual tu función recibe tantos datos. También puedes considerar aumentar el número de fragmentos y el tamaño de lotes en el flujo del que lee tu función.
@@ -97,9 +100,41 @@ Ninguna invocación en el intervalo seleccionado utilizó más del 10 % de la m
Se detectaron intentos de ataque dirigidos a la aplicación serverless.
-**Solución:** investiga los intentos de ataque en ASM haciendo clic en el botón **Security Signals** (Señales de seguridad) para determinar cómo responder. Si es necesaria una acción inmediata, puedes bloquear la IP del ataque en WAF a través de la [integración de flujos de trabajo][11].
+**Solución:** Investiga los intentos de ataque en AAP haciendo clic en el botón **Security Signals** (Señales de seguridad) para determinar cómo responder. Si es necesaria una acción inmediata, puedes bloquear la IP atacante en tu WAF a través de la [Integración de workflows / procesos (generic)][11].
+
+### Provisión insuficiente
+
+La utilización de la CPU para esta función superó el 80 % de la media. Esto significa que tu función puede obtener un mayor rendimiento de los recursos adicionales de la CPU.
+
+**Solución:** Considera aumentar la cantidad de [memoria asignada][12] en tu función Lambda. Aumentar la cantidad de memoria escala los recursos disponibles de la CPU. Ten en cuenta que esto puede afectar tu factura de AWS.
+
+### Concurrencia provisionada sobreasignada
+
+La utilización de la concurrencia provisionada de la función fue inferior al 60 %. Según AWS, [el costo de la concurrencia provisionada se optimiza mejor cuando la utilización es sistemáticamente superior al 60 %][13].
+
+**Solución:** Considera la posibilidad de disminuir la cantidad de concurrencia provisionada configurada para tu función.
+
+### Tiempo de ejecución obsoleto
+
+El tiempo de ejecución de la función[ya no es compatible][14].
+
+**Solución:** Actualiza al último tiempo de ejecución para asegurarte de que esté al día con los últimos estándares de seguridad, rendimiento y fiabilidad.
+
+### Alcanzar la duración máxima
+
+Al menos una invocación en el intervalo de tiempo seleccionado se acercó al límite máximo de duración de 15 minutos.
+
+El [rastreo distribuido][7] puede ayudarte a localizar las llamadas lentas a la API en tu aplicación.
+
+**Solución:** Las funciones de Lambda que se acercan al límite máximo de tiempo de espera de 15 minutos corren el riesgo de ser canceladas por el tiempo de ejecución de Lambda. Esto podría dar lugar a respuestas lentas o fallidas a las solicitudes entrantes. Considera la posibilidad de mejorar el rendimiento de tu función de Lambda, utilizando lambdas más pequeñas en una función step (UI) / paso (generic) o moviendo tu carga de trabajo a un entorno con un tiempo de ejecución más largo como ECS Fargate.
+
+### Se eliminan las invocaciones recursivas
+
+Las invocaciones de esta función tienen un bucle recursivo, generalmente causado por la activación recursiva entre entidades AWS (por ejemplo, Lambda -> SQS -> Lambda). Cuando esto excede tu `maxReceiveCount` (en forma predeterminada, 16), entonces se añade a este métrica. Para obtener más información, consulta [Utilizar la detección de bucles recursivos Lambda para evitar bucles infinitos][15].
+
+**Solución:** Busca llamadas recursivas en tus entidades AWS relacionadas con esta función. Busca entidades relacionadas como [SQS, SNS y S3][16].
-## Referencias adicionales
+## Para leer más
{{< partial name="whats-next/whats-next.html" >}}
@@ -113,4 +148,9 @@ Se detectaron intentos de ataque dirigidos a la aplicación serverless.
[8]: https://www.datadoghq.com/blog/monitor-aws-lambda-provisioned-concurrency/
[9]: https://docs.aws.amazon.com/lambda/latest/dg/configuration-concurrency.html
[10]: /es/integrations/amazon_lambda/#metrics
-[11]: https://app.datadoghq.com/workflow/blueprints?selected_category=SECURITY
\ No newline at end of file
+[11]: https://app.datadoghq.com/workflow/blueprints?selected_category=SECURITY
+[12]: https://docs.aws.amazon.com/lambda/latest/dg/configuration-memory.html
+[13]: https://aws.amazon.com/blogs/compute/optimizing-your-aws-lambda-costs-part-1/
+[14]: https://docs.aws.amazon.com/lambda/latest/dg/lambda-runtimes.html
+[15]: https://docs.aws.amazon.com/lambda/latest/dg/invocation-recursion.html
+[16]: https://docs.aws.amazon.com/lambda/latest/dg/invocation-recursion.html#invocation-recursion-supported
\ No newline at end of file
diff --git a/content/es/service_management/events/pipelines_and_processors/aggregation_key.md b/content/es/service_management/events/pipelines_and_processors/aggregation_key.md
new file mode 100644
index 0000000000000..ffcab382d5c40
--- /dev/null
+++ b/content/es/service_management/events/pipelines_and_processors/aggregation_key.md
@@ -0,0 +1,25 @@
+---
+title: Procesador de claves de agregación
+---
+
+Utiliza el procesador de claves de agregación para generar una clave de agregación personalizada (`@aggregation_key`) basada en atributos o etiquetas (tags) de eventos. Por ejemplo, puedes utilizar el procesador de claves de agregación para crear una clave de agregación personalizada basada en el título y la etiqueta de origen de un evento. Los eventos con valores coincidentes comparten la misma clave, lo que permite una deduplicación más eficaz y mejora la calidad de las [correlaciones de eventos][1].
+
+**Notas**:
+
+- Los atributos deben comenzar con el símbolo `@` y seguir la ruta del atributo estándar tal y como aparece en tu JSON. Por ejemplo, `@evt.category`.
+- Las claves de etiqueta deben seguir un formato de clave de etiqueta válido, como se indica en [Empezando con las etiquetas][2].
+- Se pueden añadir un máximo de 5 atributos o claves de etiqueta para generar una clave de agregación.
+- Los eventos procedentes de diferentes fuentes o integraciones reciben claves de agregación distintas.
+- Por defecto, este procesador sobrescribe las claves de agregación existentes. Ajusta el conmutador para configurar este comportamiento.
+
+Las claves de agregación se incluyen por defecto en las alertas de monitor de Datadog y no son modificadas por el procesador de claves de agregación. Esto garantiza que los eventos de alerta de monitor conserven sus claves originales y no se sobrescriban.
+
+El procesador de claves de agregación realiza las siguientes acciones:
+
+* Comprueba si alguno de los atributos o las claves de etiqueta seleccionados tienen valores. Si es así, se puede generar una clave de agregación.
+* En caso contrario, no se configura una clave de agregación en el evento procesado.
+* Si hay varios valores en la clave de la etiqueta, todos los valores se ordenan alfabéticamente y se concatenan para generar la clave de agregación.
+* Basándose en estos valores, genera un hash y añade la clave de agregación generada al evento.
+
+[1]: /es/service_management/events/correlation/
+[2]: /es/getting_started/tagging/
\ No newline at end of file
diff --git a/content/es/software_catalog/customize.md b/content/es/software_catalog/customize.md
new file mode 100644
index 0000000000000..bfe61b8a9bf7b
--- /dev/null
+++ b/content/es/software_catalog/customize.md
@@ -0,0 +1,156 @@
+---
+aliases:
+- /es/software_catalog/manage_entries/
+- /es/software_catalog/enrich_default_catalog/
+- /es/service_catalog/manage_entries/
+- /es/service_catalog/enrich_default_catalog/
+- /es/service_catalog/customize/
+- /es/software_catalog/best-practices
+- /es/software_catalog/guides/best-practices
+- /es/service_catalog/guides/best-practices
+- /es/service_catalog/use_cases/best_practices
+- /es/software_catalog/use_cases/best_practices
+further_reading:
+- link: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/service_definition_yaml
+ tag: Sitio externo
+ text: Crear y gestionar definiciones de servicio con Terraform
+- link: /api/latest/service-definition/
+ tag: API
+ text: Más información sobre la API de definición de servicio
+- link: /integrations/github
+ tag: Documentación
+ text: Más información sobre la integración GitHub
+- link: https://www.datadoghq.com/blog/service-catalog-backstage-yaml/
+ tag: Blog
+ text: Importar archivos YAML de Backstage a Datadog
+title: Personalizar Software Catalog
+---
+
+Personaliza la experiencia de tu equipo de ingenieros en Software Catalog con las siguientes funciones.
+
+## Crear una página de inicio personalizada con Developer Homepage (en vista previa)
+
+{{< callout url="https://forms.gle/nkAu2z4gc2dGWcGw5" d_target="#signupModal" btn_hidden="false" >}}
+Developer Homepage es una experiencia personalizada de dashboard que permite a los desarrolladores acceder a tareas priorizadas, solicitudes pull, alertas e información, todo en un solo lugar. Solicita acceso para participar.
+{{< /callout >}}
+
+
+## Mejorar con metadatos los servicios autodetectados
+Para especificar la disponibilidad, el código fuente o la documentación de tus servicios, puedes añadir metadatos a cualquier servicio existente mediante la interfaz de usuario, las APIs u [otro tipo de automatización][10]. v3 es la versión recomendada.
+
+### Entity Definition Schema (v3) (Recomendado)
+Entity Definition Schema es una estructura que contiene información básica sobre un componente de software.
+
+Para más detalles, consulta [Definition Schema v3.0][3].
+
+### Service Definition Schema (v2.2)
+
+Service Definition Schema es una estructura que contiene información básica sobre un servicio. Consulta el [esquema completo en GitHub][5].
+
+#### Ejemplo
+{{< code-block lang="yaml" filename="service.datadog.yaml" collapsible="true" >}}
+schema-version: v2.2
+dd-service: shopping-cart
+team: e-commerce
+application: shopping-app
+tier: "1"
+type: web
+languages:
+ - go
+ - python
+contacts:
+ - type: slack
+ contact: https://yourorg.slack.com/archives/e-commerce
+ - type: email
+ contact: ecommerce@example.com
+ - type: microsoft-teams
+ contact: https://teams.microsoft.com/example
+links:
+ - name: Runbook
+ type: runbook
+ url: http://runbook/shopping-cart
+ - name: Source
+ type: repo
+ provider: github
+ url: https://github.com/shopping-cart
+ - name: Deployment
+ type: repo
+ provider: github
+ url: https://github.com/shopping-cart
+ - name: Config
+ type: repo
+ provider: github
+ url: https://github.com/consul-config/shopping-cart
+ - name: E-Commerce Team
+ type: doc
+ provider: wiki
+ url: https://wiki/ecommerce
+ - name: Shopping Cart Architecture
+ type: doc
+ provider: wiki
+ url: https://wiki/ecommerce/shopping-cart
+ - name: Shopping Cart RFC
+ type: doc
+ provider: google doc
+ url: https://doc.google.com/shopping-cart
+tags:
+ - business-unit:retail
+ - cost-center:engineering
+integrations:
+ pagerduty:
+ service-url: https://www.pagerduty.com/service-directory/PSHOPPINGCART
+ opsgenie:
+ service-url: "https://www.opsgenie.com/service/uuid"
+ region: "US"
+ci-pipeline-fingerprints:
+ - id1
+ - id2
+extensions:
+ additionalProperties:
+ customField1: customValue1
+ customField2: customValue2
+{{< /code-block >}}
+
+## Buscar acciones de Software Catalog
+Para explorar el conjunto completo de acciones específicamente relacionadas con Software Catalog, navega hasta [Datadog Action Catalog][6]. Filtra las acciones que necesites:
+
+1. **Acceso a Action Catalog**: busca Action Catalog dentro de tu entorno de Datadog Workflow Automation.
+2. **Buscar funcionalidad**: utiliza la barra de búsqueda para buscar palabras clave como "Software Catalog" o términos más específicos relacionados con las acciones deseadas (por ejemplo, "obtener dependencias de servicio").
+
+### Acciones disponibles en el catálogo de software
+
+A continuación, encontrarás una lista completa de las acciones disponibles para Software Catalog en Datadog Workflow Automation. Ten en cuenta que esta lista puede modificarse a medida que se añadan nuevas acciones.
+
+- **Retrieve Service Information** (Recuperar información de servicio)
+ - "Get service definition" (Obtener definición de servicio) para un solo servicio
+ - "List service definitions" (Enumerar definiciones de servicio) para obtener todas las definiciones del catálogo de software de Datadog
+ - "Get service dependencies" (Obtener las dependencias de servicio) para consultar los servicios ascendentes y descendentes
+- **Incident Triage** (Triaje de incidencias)
+ - "Get service PagerDuty on call" (Llamar al servicio PagerDuty de guardia)
+ - Cuando se integra con otras acciones, puedes desencadenar flujos de trabajo basados en eventos críticos (por ejemplo, ejecutar runbooks).
+
+## Cambiar el color de servicio
+El color de servicio se utiliza en las visualizaciones de trazas. Haz clic en el icono de tipo de servicio para cambiarlo.
+
+{{< img src="tracing/software_catalog/change_service_color.png" alt="Haz clic en el icono de servicio para seleccionar un color de icono diferente." style="width:80%;" >}}
+
+## Actualizar el tipo y el lenguaje del servicio
+Con el [Esquema de metadatos de Software Catalog 2.2][5], puedes especificar el tipo y el lenguaje de los servicios definidos por el usuario o sobrescribir el tipo y el lenguaje autodetectados de los servicios instrumentados. Etiqueta correctamente el tipo y el lenguaje de servicio para ayudar a que otros equipos comprendan mejor lo que tus servicios hacen y cómo interactuar con ellos.
+
+
+## Referencias adicionales
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /es/universal_service_monitoring/
+[2]: /es/tracing/
+[3]: /es/software_catalog/service_definitions/v3-0/
+[4]: https://forms.gle/zbLfnJYhD5Ab4Wr18
+[5]: https://github.com/DataDog/schema/tree/main/service-catalog/v2.2
+[6]: /es/actions/actions_catalog/
+[7]: /es/tracing/services/inferred_services
+[8]: /es/tracing/guide/service_overrides/#remove-service-overrides
+[9]: /es/tracing/guide/service_overrides/
+[10]: /es/software_catalog/service_definitions/#add-metadata-with-automation
+[11]: /es/software_catalog/endpoints/discover_endpoints/
+[12]: /es/integrations/github/
\ No newline at end of file
diff --git a/content/es/synthetics/api_tests/ssl_tests.md b/content/es/synthetics/api_tests/ssl_tests.md
index 23d6b9242c6da..81f30abf22621 100644
--- a/content/es/synthetics/api_tests/ssl_tests.md
+++ b/content/es/synthetics/api_tests/ssl_tests.md
@@ -29,38 +29,50 @@ title: Tests SSL
## Información general
-Los tests SSL/TLS te permiten monitorizar proactivamente la validez y la caducidad de tus certificados SSL/TLS para garantizar las conexiones seguras entre tus servicios claves y los usuarios. Si tu certificado está a punto de caducar o está en riesgo, Datadog te envía una alerta con los detalles del error. De esta manera podrás identificar rápidamente la causa del problema y solucionarlo.
+Los tests SSL te permiten monitorizar proactivamente la validez y la caducidad de tus certificados SSL para garantizar las conexiones seguras entre tus servicios claves y los usuarios. Si tu certificado está a punto de caducar o está en riesgo, Datadog te envía una alerta con los detalles del error. De esta manera podrás identificar rápidamente la causa del problema y solucionarlo.
Los tests SSL pueden ejecutarse tanto desde [localizaciones gestionadas](#select-locations) como [privadas][1], dependiendo de si prefieres ejecutarlos desde fuera o dentro de tu red. Los tests SSL pueden ejecutarse de forma programada, bajo demanda o directamente dentro de tus [pipelines CI/CD][2].
## Configuración
-Cuando decidas crear un test `SSL`, define la solicitud de tu test.
+Puedes crear un test utilizando una de las siguientes opciones:
-### Definición de la solicitud
+- **Crea un test a partir de una plantilla**:
-1. Especifica el **Host** y el **Puerto** donde se ejecutará el test. De forma predeterminada, el puerto SSL es `443`.
-2. Añade **Opciones avanzadas** (opcional) a tu test:
- * **Acepta certificados autofirmados**: Esta opción omite los errores de servidor relacionados con un certificado autofirmado.
- * **Falla si el certificado está revocado en el stapling OCSP**: Falla el test si el certificado está etiquetado como revocado por el stapling OCSP.
- * **Tiempo de espera**: Especifica la cantidad de tiempo en segundos antes de que se inicie un tiempo de espera en el test.
- * **Nombre de servidor**: Especifica en qué servidor quieres iniciar el enlace TLS. Esto permite que el servidor presente uno de los múltiples certificados posibles en la misma dirección IP y el mismo número de puerto TCP. Por defecto, el valor del **Host** se utiliza para rellenar el parámetro.
- * **Certificado de cliente**: Autentícate a través de mTLS cargando tu certificado de cliente (`.crt`) y la clave privada asociada (`.key`) en formato `PEM`.
+ 1. Pasa el ratón por encima de una de las plantillas ya rellenadas y haz clic en **View Template** (Ver plantilla). Se abrirá un panel lateral en el que se mostrará la información de configuración rellenada previamente, que incluye: detalles de tests, detalles de solicitudes, aserciones, condiciones de alerta y parámetros de monitor.
+ 2. Haz clic en **+Create Test** (+Crear test) para abrir la página **Define Request** (Definir solicitud), en la que podrás revisar y editar las opciones de configuración rellenadas previamente. Los campos presentados son idénticos a aquellos disponibles cuando se crea un test desde cero.
+ 3. Haz clic en **Save Details** (Guardar detalles) para enviar tu test de API.
+ {{< img src="getting_started/synthetics/synthetics_templates_api_video.mp4" alt="Vídeo de la página de inicio del test de la API de Synthetics" video="true" >}}
- Puedes utilizar la librería `openssl` para convertir tus certificados. Por ejemplo, puedes convertir un certificado `PKCS12` en certificados y claves privadas en formato `PEM`.
+- **Crea un test desde cero**:
- ```
- openssl pkcs12 -in .p12 -out