From fda2c2da8ebf2195f547380f346ff5d9e7969132 Mon Sep 17 00:00:00 2001 From: "webops-guacbot[bot]" <214537265+webops-guacbot[bot]@users.noreply.github.com> Date: Sat, 11 Oct 2025 15:07:24 +0000 Subject: [PATCH 1/8] Translated file updates --- .../deployments/ciproviders.md | 26 +- .../es/continuous_delivery/explorer/facets.md | 114 ++++ .../rollup-cardinality-visualizations.md | 85 +++ .../ddsql_preview/window_functions.md | 70 +++ .../ide_plugins/idea/continuous_profiler.md | 80 +++ .../capturing_handled_errors/python.md | 62 +++ content/es/error_tracking/explorer.md | 125 +++++ .../es/error_tracking/guides/enable_infra.md | 150 ++++++ content/es/error_tracking/troubleshooting.md | 55 ++ content/es/glossary/terms/security_agent.md | 7 + content/es/integrations/agentprofiling.md | 67 +++ .../crest_data_systems_cofense_triage.md | 179 +++++++ .../crest_data_systems_whylabs.md | 145 ++++++ content/es/integrations/crowdstrike.md | 82 ++- .../google_workspace_alert_center.md | 65 +-- content/es/integrations/gsuite.md | 114 ++-- content/es/integrations/hbase_master.md | 245 +++++++++ content/es/integrations/jira.md | 148 ++++++ .../es/integrations/juniper_srx_firewall.md | 246 +++++++++ .../kubernetes_cluster_autoscaler.md | 187 +++++++ content/es/integrations/kubevirt_api.md | 161 ++++++ content/es/integrations/lighttpd.md | 168 +++--- content/es/integrations/logzio.md | 59 +++ content/es/integrations/meraki.md | 182 +++---- content/es/integrations/orca_security.md | 114 ++++ content/es/integrations/snmp.md | 8 +- content/es/integrations/tekton.md | 135 +++++ content/es/integrations/temporal_cloud.md | 136 +++++ content/es/integrations/tibco_ems.md | 190 +++++++ .../trend_micro_email_security.md | 116 +++++ .../trend_micro_vision_one_xdr.md | 125 +++++ content/es/integrations/velero.md | 195 +++++++ content/es/integrations/wazuh.md | 252 +++++++++ .../scorecards/scorecard_configuration.md | 133 +++++ .../destinations/crowdstrike_ng_siem.md | 31 ++ .../get_started_with_the_custom_processor.md | 478 +++++++++++++++++ .../run_multiple_pipelines_on_a_host.md | 137 +++++ .../integrations/apache_metrics.md | 38 ++ .../integrations/nginx_metrics.md | 39 ++ content/es/opentelemetry/mapping/_index.md | 2 +- .../opentelemetry/setup/otlp_ingest/_index.md | 34 ++ .../guide/rum_and_product_analytics.md | 87 ++++ .../profiler/profiler_troubleshooting/java.md | 105 ++-- .../profiler_troubleshooting/nodejs.md | 62 +++ .../browser/setup/server/ibm.md | 126 +++++ .../browser/setup/server/nginx.md | 213 ++++++++ .../react_native/setup/expo.md | 295 +++++++++++ content/es/security/access_control.md | 42 ++ .../application_security/setup/php.md | 115 ++++ .../application_security/setup/ruby.md | 238 +++++++++ .../threats/protection.md | 126 +++++ .../threats/setup/compatibility/envoy.md | 31 ++ .../threats/setup/compatibility/nginx.md | 32 ++ .../threats/setup/standalone/dotnet.md | 215 ++++++++ .../standalone/gcp-service-extensions.md | 489 ++++++++++++++++++ .../threats/setup/standalone/go.md | 131 +++++ .../review_remediate/jira.md | 28 +- .../setup/agent/ecs_ec2.md | 176 +++---- .../setup/cloud_integrations.md | 77 +++ .../vulnerabilities/_index.md | 6 - .../aws_lambda/distributed_tracing.md | 107 ++-- .../migrating-from-your-current-providers.md | 154 ++++++ .../synthetics/browser_tests/test_results.md | 8 +- .../es/synthetics/guide/email-validation.md | 9 +- content/es/tests/browser_tests.md | 70 +++ content/es/tests/troubleshooting/_index.md | 72 ++- .../es/tracing/trace_explorer/visualize.md | 56 +- content/fr/api/latest/_index.md | 2 +- .../billing/custom_metrics.md | 37 +- .../datadog_operator/secret_management.md | 251 +++++++++ .../environments/multiple_env.md | 151 ++++++ .../setup/otlp_ingest_in_the_agent.md | 324 ++++++++++++ .../service_definitions/v3-0.md | 396 ++++++++++++++ .../explore/results_explorer/search_runs.md | 272 ++++++++++ .../install_worker/docker.es.md | 17 + .../datadog_archives_amazon_s3.es.md | 1 + .../prerequisites/fluent.es.md | 4 + 77 files changed, 8870 insertions(+), 640 deletions(-) create mode 100644 content/es/continuous_delivery/explorer/facets.md create mode 100644 content/es/dashboards/guide/rollup-cardinality-visualizations.md create mode 100644 content/es/ddsql_reference/ddsql_preview/window_functions.md create mode 100644 content/es/developers/ide_plugins/idea/continuous_profiler.md create mode 100644 content/es/error_tracking/backend/capturing_handled_errors/python.md create mode 100644 content/es/error_tracking/explorer.md create mode 100644 content/es/error_tracking/guides/enable_infra.md create mode 100644 content/es/error_tracking/troubleshooting.md create mode 100644 content/es/glossary/terms/security_agent.md create mode 100644 content/es/integrations/agentprofiling.md create mode 100644 content/es/integrations/crest_data_systems_cofense_triage.md create mode 100644 content/es/integrations/crest_data_systems_whylabs.md create mode 100644 content/es/integrations/hbase_master.md create mode 100644 content/es/integrations/jira.md create mode 100644 content/es/integrations/juniper_srx_firewall.md create mode 100644 content/es/integrations/kubernetes_cluster_autoscaler.md create mode 100644 content/es/integrations/kubevirt_api.md create mode 100644 content/es/integrations/logzio.md create mode 100644 content/es/integrations/orca_security.md create mode 100644 content/es/integrations/tekton.md create mode 100644 content/es/integrations/temporal_cloud.md create mode 100644 content/es/integrations/tibco_ems.md create mode 100644 content/es/integrations/trend_micro_email_security.md create mode 100644 content/es/integrations/trend_micro_vision_one_xdr.md create mode 100644 content/es/integrations/velero.md create mode 100644 content/es/integrations/wazuh.md create mode 100644 content/es/internal_developer_portal/scorecards/scorecard_configuration.md create mode 100644 content/es/observability_pipelines/destinations/crowdstrike_ng_siem.md create mode 100644 content/es/observability_pipelines/guide/get_started_with_the_custom_processor.md create mode 100644 content/es/observability_pipelines/set_up_pipelines/run_multiple_pipelines_on_a_host.md create mode 100644 content/es/opentelemetry/integrations/apache_metrics.md create mode 100644 content/es/opentelemetry/integrations/nginx_metrics.md create mode 100644 content/es/opentelemetry/setup/otlp_ingest/_index.md create mode 100644 content/es/product_analytics/guide/rum_and_product_analytics.md create mode 100644 content/es/profiler/profiler_troubleshooting/nodejs.md create mode 100644 content/es/real_user_monitoring/browser/setup/server/ibm.md create mode 100644 content/es/real_user_monitoring/browser/setup/server/nginx.md create mode 100644 content/es/real_user_monitoring/mobile_and_tv_monitoring/react_native/setup/expo.md create mode 100644 content/es/security/access_control.md create mode 100644 content/es/security/application_security/setup/php.md create mode 100644 content/es/security/application_security/setup/ruby.md create mode 100644 content/es/security/application_security/threats/protection.md create mode 100644 content/es/security/application_security/threats/setup/compatibility/envoy.md create mode 100644 content/es/security/application_security/threats/setup/compatibility/nginx.md create mode 100644 content/es/security/application_security/threats/setup/standalone/dotnet.md create mode 100644 content/es/security/application_security/threats/setup/standalone/gcp-service-extensions.md create mode 100644 content/es/security/application_security/threats/setup/standalone/go.md create mode 100644 content/es/security/cloud_security_management/setup/cloud_integrations.md create mode 100644 content/es/service_management/on-call/guides/migrating-from-your-current-providers.md create mode 100644 content/es/tests/browser_tests.md create mode 100644 content/ja/containers/datadog_operator/secret_management.md create mode 100644 content/ja/continuous_testing/environments/multiple_env.md create mode 100644 content/ja/opentelemetry/setup/otlp_ingest_in_the_agent.md create mode 100644 content/ja/software_catalog/service_definitions/v3-0.md create mode 100644 content/ja/synthetics/explore/results_explorer/search_runs.md create mode 100644 layouts/shortcodes/observability_pipelines/configure_existing_pipelines/install_worker/docker.es.md create mode 100644 layouts/shortcodes/observability_pipelines/destination_env_vars/datadog_archives_amazon_s3.es.md create mode 100644 layouts/shortcodes/observability_pipelines/prerequisites/fluent.es.md diff --git a/content/es/continuous_delivery/deployments/ciproviders.md b/content/es/continuous_delivery/deployments/ciproviders.md index b47df3bfda172..e957134a4e751 100644 --- a/content/es/continuous_delivery/deployments/ciproviders.md +++ b/content/es/continuous_delivery/deployments/ciproviders.md @@ -7,29 +7,29 @@ further_reading: text: Más información sobre Deployment Visibility - link: /continuous_delivery/explorer tag: Documentación - text: Aprende a consultar y visualizar las ejecuciones de despliegue + text: Aprende a consultar y visualizar los despliegues is_beta: true title: Monitorizar los despliegues de proveedores de CI --- -{{< callout url="https://docs.google.com/forms/d/e/1FAIpQLScNhFEUOndGHwBennvUp6-XoA9luTc27XBwtSgXhycBVFM9yA/viewform?usp=sf_link" btn_hidden="false" header="¡Únete a la vista previa!" >}} -CD Visibility para despliegues de proveedor de CI está en vista previa. Si te interesa esta característica, completa el formulario para acceder. +{{< callout url="https://docs.google.com/forms/d/e/1FAIpQLScNhFEUOndGHwBennvUp6-XoA9luTc27XBwtSgXhycBVFM9yA/viewform?usp=sf_link" btn_hidden="false" header="Únete a la vista previa" >}} +CD Visibility para los despliegues del proveedor de CI está en vista previa. Si estás interesado en esta función, completa el formulario para solicitar acceso. {{< /callout >}} ## Información general -Se pueden realizar [Despliegues][10] en tus pipelines de integración continua (CI). En general, estos pipelines tienen un paso de despliegue que se ejecuta después que el código fuente se pruebe y la imagen esté creada. +Los [Despliegues][10] pueden realizarse en tus pipelines de integración continua (CI). Típicamente, estos pipelines tienen un paso de despliegue que se ejecuta después de que el código fuente se testea y la imagen se construye. -Si estás ejecutando despliegues mediante un proveedor de CI, puedes monitorizar tus despliegues con Deployment Visibility. Asegúrate de que se cumplan los siguientes requisitos: +Si estás ejecutando despliegues utilizando un proveedor de CI, puedes monitorizar tus despliegues con Deployment Visibility. Asegúrate de que se cumplen los siguientes requisitos: -1. Estás usando [Pipeline Visibility][1] para monitorizar tus pipelines de CI. -2. Tu proveedor de CI admite la característica **Custom tags and measures at runtime** (Etiquetas y medidas personalizadas en el tiempo de ejecución), que te permite añadir [texto y etiquetas numéricas definidas por el usuario][2] a los pipelines y trabajos en Pipeline Visibility. -3. Estás ejecutando despliegues en un trabajo de CI (o un [nivel relacionado][9] en tu proveedor de CI). El concepto de un trabajo de CI puede variar según tu proveedor. Para obtener más información sobre cómo Datadog define un trabajo de Ci, consulta la [sección Terminología][9]. +1. Estás utilizando [Pipeline Visibility][1] para monitorizar tus pipelines de CI. +2. Tu proveedor de CI admite la función **Etiquetas y medidas personalizadas en tiempo de ejecución**, que te permite añadir [etiquetas numéricas y de texto definidas por el usuario][2] a pipelines y trabajos en Pipeline Visibility. +3. Estás ejecutando despliegues en un trabajo de CI (o un [nivel relacionado][9] en tu proveedor de CI). El concepto de un trabajo de CI puede variar dependiendo de tu proveedor. Para más información sobre cómo Datadog define un trabajo de CI, consulta la [sección Terminología][9]. -## Configuración +## Configurar
-La configuración requiere la CLI datadog-ci versión `2.26.0` o posterior. +La configuración requiere la versión de la CLI de datadog-ci `2.26.0` o posterior.
Para configurar CD Visibility, utiliza el comando `datadog-ci deployment mark` dentro del trabajo de CI que está realizando el despliegue. @@ -55,8 +55,8 @@ Utiliza `--no-fail` (por defecto: `false`) para evitar que el comando de desplie Si estás utilizando acciones de GitHub como tu proveedor de CI, consulta la [sección siguiente][11] para consideraciones adicionales. -Una vez que hayas añadido el comando a un trabajo de CI, la [página **Deployments** (Despliegues)][5] y el [Deployment Executions Explorer][6] se rellenan con datos después de que se ejecuten los pipelines. -Para obtener más información, consulta [Buscar y gestionar despliegues][7] y la [documentación del CD Visibility Explorer][8]. +Una vez que hayas añadido el comando a un trabajo de CI, la [página **Despliegues**][5] y la [página Ejecuciones de despliegue][6] se rellenan con datos después de que se ejecuten pipelines. +Para obtener más información, consulta [Explorar despliegues de CD Visibility][8]. ### Ejemplos @@ -120,7 +120,7 @@ la variable de entorno `DD_GITHUB_JOB_NAME` necesita ser expuesta, apuntando al - run: datadog-ci deployment mark ... ``` -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/continuous_delivery/explorer/facets.md b/content/es/continuous_delivery/explorer/facets.md new file mode 100644 index 0000000000000..04a3e914884c8 --- /dev/null +++ b/content/es/continuous_delivery/explorer/facets.md @@ -0,0 +1,114 @@ +--- +description: Conoce las facetas para filtrar y agrupar tus ejecuciones de despliegue. +further_reading: +- link: continuous_delivery/explorer/ + tag: Documentación + text: Aprende a consultar y visualizar los despliegues +title: Facetas de ejecución del despliegue +--- + +{{< callout url="https://docs.google.com/forms/d/e/1FAIpQLScNhFEUOndGHwBennvUp6-XoA9luTc27XBwtSgXhycBVFM9yA/viewform?usp=sf_link" btn_hidden="false" header="Únete a la vista previa" >}} +CD Visibility está en Vista previa. Si te interesa esta función, rellena el formulario para solicitar acceso. +{{< /callout >}} + +## Información general + +Las facetas son etiquetas y atributos definidos por el usuario a partir de tus pipelines. Son útiles para el análisis de datos tanto [cualitativo](#qualitative-facets) como [cuantitativo](#quantitative-measures). Las facetas te permiten manipular tus despliegues en las consultas de búsqueda que aparecen en [dashboards][2] y en [notebools][3]. + +[Crear facetas](#creating-facets) no es **necesario** para [buscar ejecuciones de despliegue][5]. Las capacidades de autocompletar utilizan las facetas existentes, pero también se aplica cualquier entrada que coincida con las ejecuciones de despliegue entrantes. + +La [página de Ejecuciones de despliegue][4] incluye facetas predefinidas como `Environment`, `Deployment Status` y `Deployment Provider`. Puedes utilizar facetas en el CD Visibility Explorer para: + +- [Buscar y filtrar ejecuciones de despliegue][5]. +- Realizar análisis de despliegue o de entorno. +- Comienza a solucionar los problemas una vez finalizado el despliegue. + +Navega a [**Software Delivery** > **CD Visibility** > **Executions**][4] (Entrega de software > CD Visibility > Ejecuciones) para acceder a la lista de facetas a la izquierda de la lista de ejecuciones de despliegue. + +{{< img src="/continuous_delivery/explorer/facets.png" text="Lista de facetas en la página de Ejecuciones de despliegue en el CD Visibility Explorer" style="width:100%" >}} + +### Facetas cualitativas + +Utiliza facetas cualitativas cuando tengas que hacer lo siguiente: + +- **Obtener información relativa** de los valores. +- **Contar valores únicos**. +- Con frecuencia **filtra** tus ejecuciones de despliegue en función de determinados valores. Por ejemplo, utiliza la faceta de la etiqueta de entorno para limitar la solución de problemas a los entornos de desarrollo, preparación o producción.
+ +**Nota:** Aunque las facetas no son necesarias para filtrar las etiquetas, la definición de facetas para las etiquetas que se utilizan durante las investigaciones puede reducir el tiempo de resolución. + +### Medidas cuantitativas + +Utiliza medidas cuantitativas cuando necesites: + +- **Agrega** valores de múltiples ejecuciones de despliegue. +- **Filtra por rangos** tus ejecuciones de despliegue. +- **Ordena** tus ejecuciones de despliegue en función de ese valor. + +#### Tipos + +Las medidas tienen un valor entero largo o doble para capacidades equivalentes. + +#### Unidades + +Las medidas admiten unidades (**tiempo** en segundos o **tamaño** en bytes) para manejar órdenes de magnitud en tiempo de consulta y tiempo de visualización. La unidad es una propiedad de la propia medida, no del campo. + +Por ejemplo, considera una medida `duration` en nanosegundos. Supongamos que los despliegues de `env:staging` tienen `duration:10000000`, lo que significa `10 milliseconds`. Supongamos que los despliegues de `env:qa` tienen `duration:5000000`, que significa `5 milliseconds`. Utiliza `duration:>2ms` para consultar de forma coherente las etiquetas de ejecución de despliegue de ambos entornos a la vez. Para obtener más información sobre las consultas de búsqueda, consulta [Sintaxis de búsqueda][6]. + +## Panel de facetas + +La barra de búsqueda ofrece el conjunto más completo de interacciones para filtrar y agrupar los datos. Sin embargo, en muchos casos, el panel de facetas es una forma más sencilla de navegar por tus datos. Abre una faceta para ver un resumen de su contenido en el contexto de la consulta actual. + +La barra de búsqueda y la URL reflejan automáticamente las opciones seleccionadas del panel de facetas. + +- Las **Facetas (cualitativas)** vienen con una lista principal de valores únicos y un recuento de ejecuciones de despliegue que coinciden con cada uno de ellos. +- Las **medidas (cuantitativas)** incluyen un regulador que indica los valores mínimo y máximo. Utiliza este regulador o indica valores numéricos para seleccionar diferentes límites del contexto de la consulta de búsqueda. + +### Agrupar facetas + +Las facetas se agrupan en temas significativos en la lista de facetas. Asignar o reasignar un grupo a una faceta solo afecta a la lista de facetas, y no tiene ningún impacto en la búsqueda o los análisis. + +### Filtrar facetas + +Utiliza el cuadro de facetas de búsqueda del panel de facetas para examinar toda la lista de facetas y navegar hasta la faceta con la que deseas interactuar. *Buscar facetas* utiliza el nombre de la faceta y el nombre del campo para delimitar los resultados. + +## Crear facetas + +No es necesario crear una faceta en un atributo o etiqueta de ejecución de despliegue para buscar ejecuciones de despliegue. Las facetas son útiles si deseas añadir una descripción significativa a un atributo de ejecución de despliegue específico, o si deseas que los valores del atributo aparezcan en la lista de facetas. + +### Creación de facetas desde el panel lateral de Detalles de despliegue + +Crea una faceta desde el panel lateral de Detalles de despliegue para que la mayoría de los detalles de la faceta estén rellenados previamente. + +{{< img src="continuous_delivery/explorer/create_facet.png" alt="Crea una faceta desde el panel lateral de Detalles de despliegue" style="width:100%;">}} + +1. Navega hasta una ejecución de despliegue de interés en la [página de Ejecuciones de despliegue][4] que contenga el campo sobre el que crear una faceta. +2. Abre el panel lateral de Detalles de despliegue seleccionando la ejecución del despliegue de la lista. +3. Haz clic en el campo deseado y crea una faceta a partir de ahí: + + - Si el campo contiene un valor numérico, puedes crear una faceta o una medida. + - Si el campo contiene un valor de cadena, solo está disponible la creación de facetas. + +### Crear facetas a partir de la lista de facetas + +Si no es posible encontrar una ejecución de despliegue que contenga el campo deseado, crea una faceta directamente desde el panel de facetas haciendo clic en **+ Add** (+ Añadir). + +{{< img src="continuous_delivery/explorer/add_facet.png" alt="Añade una faceta desde el panel lateral de facetas" style="width:30%;">}} + +Define el nombre del campo subyacente (clave) de esta faceta: + +- Utiliza el nombre de la clave de etiqueta para las etiquetas de entorno. +- Utiliza la ruta de atributos para los atributos de ejecución de despliegue, con el prefijo `@`. + +La función de autocompletar basada en el contenido de las ejecuciones de despliegue de las vistas actuales te ayuda a definir el nombre de campo adecuado. Pero puedes utilizar prácticamente cualquier valor aquí, específicamente en caso que aún no tienes ejecuciones de despliegue coincidentes recibidas por Datadog. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/monitors/types/ci +[2]: /es/dashboards/ +[3]: /es/notebooks/ +[4]: https://app.datadoghq.com/ci/deployments/executions +[5]: /es/continuous_delivery/explorer#deployment-executions +[6]: /es/continuous_delivery/explorer/search_syntax \ No newline at end of file diff --git a/content/es/dashboards/guide/rollup-cardinality-visualizations.md b/content/es/dashboards/guide/rollup-cardinality-visualizations.md new file mode 100644 index 0000000000000..8bcfd5267da95 --- /dev/null +++ b/content/es/dashboards/guide/rollup-cardinality-visualizations.md @@ -0,0 +1,85 @@ +--- +description: Aprende cómo afecta la función de rollup a la cardinalidad en las visualizaciones + y cómo interpretar correctamente los resultados. +further_reading: +- link: /dashboards/functions/rollup/ + tag: Documentación + text: Más información sobre la función de rollup +title: Comprender la función de rollup y la cardinalidad en visualizaciones +--- + +{{< jqmath-vanilla >}} + +## Información general + +Las visualizaciones en el análisis de datos a menudo se basan en funciones de agregación para resumir los datos a lo largo del tiempo. Un problema habitual surge cuando la función de rollup y las medidas de cardinalidad distintas o únicas interactúan entre sí, lo que provoca resultados inesperados al visualizar los datos. + +Combinando las expectativas con la naturaleza de los resultados de rollup y empleando consultas claras puedes obtener información valiosa sobre tus datos. En este documento se explica el mecanismo de la función de rollup, especialmente en el contexto de la cardinalidad, y se proporcionan prácticas recomendadas para interpretar con precisión los resultados de las visualizaciones. + +## Comprender la cardinalidad en las series temporales + +Supongamos que realizas un seguimiento de los usuarios que visitan un sitio web. Cada día observas a 100 usuarios, lo que te lleva a suponer que en siete días obervarás a un total de 700 usuarios. Sin embargo, el número real de usuarios **únicos** a lo largo de la semana podría ser de 400, ya que muchos usuarios visitan el sitio web varios días. Esta discrepancia se debe a que cada periodo de tiempo (por ejemplo, cada día) cuenta de forma independiente los usuarios únicos, lo que infla el total en comparación con un periodo de tiempo de rollup único y más largo. + +Este resultado contraintuitivo se debe a la cardinalidad, que se refiere a cómo se cuentan los elementos únicos de un conjunto de datos. La cardinalidad de cada bucket temporal puede ser compleja. Al analizar los usuarios, considera la siguiente pregunta: "¿Cuántos usuarios *únicos* visitaron el sitio cada día de esta semana?". Si un usuario visita el sitio dos días distintos, cuenta como único para cada día. + +### Cómo afecta el rollup a los promedios + +La función de [rollup][1] también influye significativamente en la forma en que se calculan y muestran los promedios en las visualizaciones: + +- **Efecto suavizante**: + - Los periodos de tiempo más cortos (rollups de 5 minutos) muestran picos y variaciones más detallados. + - Los periodos de tiempo más largos (rollups de 30 minutos) crean gráficos más suaves. + +- **Cálculos de promedios**: + - En periodos de tiempo más cortos, los promedios pueden ser más bajos, ya que Datadog solo capta a los usuarios en ese momento exacto. + - En periodos de tiempo más largos, los promedios pueden ser más altos, ya que Datadog capta más casos de usuarios que utilizan distintos dispositivos. + +## Ejemplo: Cómo afecta el rollup al recuento de usuarios únicos + +Las visualizaciones muestran la suma de valores en diferentes intervalos, lo que puede crear confusión cuando se comparan totales a lo largo de periodos de tiempo. Por ejemplo, un gráfico puede mostrar diferentes totales para la misma métrica cuando se visualiza en diferentes escalas de tiempo (como intervalos de 5 minutos frente a intervalos de 30 minutos). Esta diferencia se produce porque los usuarios pueden contarse varias veces en intervalos de tiempo más cortos, pero solo una vez en intervalos de tiempo más largos. + +Esta sección presenta un ejemplo que demuestra cómo interactúan en la práctica las funciones rollup y la cardinalidad. Consideremos un sitio web que realiza un seguimiento de las sesiones de usuarios en móviles y ordenadores. + +Cuando se toma un promedio de sesiones en móviles y se procede a su rollup cada 30 minutos, se obtiene una versión suavizada del gráfico. Este efecto de suavizado es un resultado natural de la función de rollup, que facilita la interpretación de las tendencias a largo plazo. + +{{< img src="/dashboards/guide/rollup-cardinality-visualizations/pct_total_mobile_sessions.png" alt="Gráfico de líneas que muestra el porcentaje de sesiones totales en móviles con un rollup cada 5 minutos (línea púrpura), en comparación con 30 minutos (línea rosada). La línea púrpura presenta picos, mientras que la línea rosada es pareja y se superpone con la línea azul." style="width:100%;" >}} + +{{% collapse-content title="Configuración" level="h4" expanded=false %}} +{{< img src="/dashboards/guide/rollup-cardinality-visualizations/pct_total_mobile_sessions_config.png" alt="Configuración que muestra los parámetros de consulta del procentaje de sesiones móviles totales con la función de rollupt aplicada" style="width:100%;" >}} +{{% /collapse-content %}} + +Sin embargo, cuando se agrupan por usuarios, los dos gráficos no se superponen: el gráfico de 30 minutos es significativamente superior al de 5 minutos. Esto puede parecer un error a primera vista, pero en realidad está mostrando cómo interactúan los usuarios con el servicio en distintos periodos de tiempo. + +{{< img src="/dashboards/guide/rollup-cardinality-visualizations/pct_unique_users_mobile.png" alt="Gráfico de líneas que muestra el porcentaje de usuarios únicos en móviles con un rollup cada 5 minutos (línea púrpura), en comparación con 30 minutos (línea rosada). La línea rosada pareja es más alta que la línea púrpura con picos" style="width:100%;" >}} + +{{% collapse-content title="Configuration" level="h4" expanded=false %}} +{{< img src="/dashboards/guide/rollup-cardinality-visualizations/pct_unique_users_mobile_config.png" alt="Configuración que muestra los parámetros de consulta del procentaje de usuarios únicos en móviles con la función de rollupt de 5 y 30 minutos aplicada" style="width:100%;" >}} +{{% /collapse-content %}} + +El siguiente gráfico muestra los rollups de 5 minutos en comparación con los de 30 minutos para usuarios en móviles distintos y usuarios totales distintos. Como los rollups de 30 minutos son naturalmente mayores que los de 5 minutos, este gráfico muestra los rollups de 30 minutos reducidos por un factor de 0,75. Para el total de usuarios distintos, los rollups de 5 y 30 minutos coinciden aproximadamente. Sin embargo, para los usuarios en móviles distintos, el rollup de 30 minutos es significativamente mayor que el rollup de 5 minutos. ¿Por qué? + +{{< img src="/dashboards/guide/rollup-cardinality-visualizations/count_total_mobile_users.png" alt="Gráfico de líneas que muestra cuatro líneas: usuarios totales distintos (rollup de 5 minutos), usuarios totales distintos (rollup de 30 minutos), usuarios en móviles distintos (rollup de 5 minutos), usuarios en móviles distintos (rollup de 30 minutos)." style="width:100%;" >}} + +{{% collapse-content title="Configuration" level="h4" expanded=false %}} +{{< img src="/dashboards/guide/rollup-cardinality-visualizations/count_total_mobile_users_config.png" alt="Configuración de la comparación de rollups escalados" style="width:100%;" >}} +{{% /collapse-content %}} + +Esto ocurre porque cuando un usuario aparece varias veces durante un periodo de rollup, aparece una vez en el denominador pero varias veces en el numerador. + +$$\text"cardinality:@usr.name[@type:session @device.type:Mobile]" / \text"cardinality:@usr.name[@type:session]" * 100\$$ + +Otra forma de entenderlo es que cuando un usuario aparece varias veces en un periodo, cada aparición representa una oportunidad de aparecer en el numerador. En un periodo de tiempo más largo, cada usuario aparecerá más veces, creando más oportunidades de (en este caso) ver la página en el móvil. + +Para ilustrar esto de forma concreta, imaginemos que los usuarios consultan el sitio web en el ordenador durante el día y solo lo hacen en el móvil durante sus trayectos matutinos o verpertinos. Si la mitad lo consulta por la mañana, la otra mitad por la tarde y la otra mitad en ambos casos (lo que deja una cuarta parte que no lo consulta en el móvil): + +* Un rollup de 12 horas mostraría que el 50% de los usuarios consultan el móvil de medianoche a mediodía (trayecto matutino) y el 50% de mediodía a medianoche (trayecto vespertino). + +* Un rollup de 24 horas mostraría que el 75% de los usuarios consultan el móvil (en ambos trayectos). + +Del mismo modo, un rollup de 1 hora puede mostrar que el 10-20% de los usuarios consultan el móvil durante sus horas de trayecto y <1% durante las horas que no están en ningún trayecto. Este porcentaje es mucho menor que el de los periodos más largos, pero sigue siendo correcto. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/dashboards/functions/rollup/ \ No newline at end of file diff --git a/content/es/ddsql_reference/ddsql_preview/window_functions.md b/content/es/ddsql_reference/ddsql_preview/window_functions.md new file mode 100644 index 0000000000000..a79ab8b3632e7 --- /dev/null +++ b/content/es/ddsql_reference/ddsql_preview/window_functions.md @@ -0,0 +1,70 @@ +--- +aliases: +- /es/dashboards/ddsql_editor/reference/window_functions/ +- /es/ddsql_editor/reference/window_functions/ +private: true +title: Funciones de ventana DDSQL (Vista previa) +--- + +## Información general + +Una función de ventana aplica una agregación a un subconjunto de las filas seleccionadas por una consulta. Las filas seleccionadas se conservan en el resultado de la consulta, en lugar de agruparse en una única fila como ocurriría en una agregación sin ventana. + +Para obtener más información sobre el funcionamiento de las funciones de ventana, consulta la [documentación de Postgres para funciones de ventana][1]. + +## Sintaxis + +{{< code-block lang="sql" >}} +function_name ([expression [, expression ...]]) OVER ( + [ PARTITION BY expression [, ...] ] + [ ORDER BY expression [ ASC | DESC ] [ NULLS { FIRST | LAST } ] [, ...] ] + [ frame_clause ] +) +{{< /code-block >}} + +La `frame_clause` opcional tiene la siguiente sintaxis: + +{{< code-block lang="sql" >}} +{ RANGE | ROWS } frame_start +| { RANGE | ROWS } BETWEEN frame_start AND frame_end +{{< /code-block >}} + +Las expresiones `frame_start` y `frame_end` pueden ser una de las siguientes: + +- `UNBOUNDED PRECEDING` +- `offset PRECEDING` +- `CURRENT ROW` +- `offset FOLLOWING` +- `UNBOUNDED FOLLOWING` + +## Funciones + +Las siguientes funciones pueden utilizarse en ventanas, junto con [funciones de agregación][2]. + +### número_de_fila +| Nombre | Tipo de devolución | Descripción | +|------|-------------|-------------| +| número_filas() | entero | Devuelve el número de la fila actual dentro de su partición, contando desde 1. | + +### rango +| Nombre | Tipo de devolución | Descripción | +|------|-------------|-------------| +| rango() | entero | Devuelve el rango de la fila actual, con espacios (el `row_number` de la primera fila en su grupo de pares). | + +### rango_denso +| Nombre | Tipo de devolución | Descripción | +|------|-------------|-------------| +| rango_denso() | entero | Devuelve el rango de la fila actual, sin espacios. Esta función efectivamente cuenta grupos de pares. | + +### primer_valor +| Nombre | Tipo de devolución | Descripción | +|------|-------------|-------------| +| primer_valor(valor *T*) | *T* | Devuelve el valor evaluado en la fila que es la primera fila del marco de la ventana. | + +### último_valor +| Nombre | Tipo de devolución | Descripción | +|------|-------------|-------------| +| último_valor(valor *T*) | *T* | Devuelve el valor evaluado en la fila que es la última fila del marco de la ventana. | + +[1]: https://www.postgresql.org/docs/current/sql-expressions.html#SYNTAX-WINDOW-FUNCTIONS +[2]: /es/ddsql_reference/ddsql_preview/functions/#aggregation-functions \ No newline at end of file diff --git a/content/es/developers/ide_plugins/idea/continuous_profiler.md b/content/es/developers/ide_plugins/idea/continuous_profiler.md new file mode 100644 index 0000000000000..ca580444f45b3 --- /dev/null +++ b/content/es/developers/ide_plugins/idea/continuous_profiler.md @@ -0,0 +1,80 @@ +--- +further_reading: +- link: /getting_started/profiler/ + tag: Documentación + text: Empezando con Continuous Profiler. +- link: /integrations/guide/source-code-integration/ + tag: Documentación + text: Más información sobre la integración del código fuente. +title: Continuous Profiler +type: documentación +--- + +## Información general +El **Continuous Profiler** destaca el consumo de recursos (como CPU, asignación de memoria y excepciones lanzadas) utilizando datos de perfiles recopilados de servicios desplegados. Esta información ayuda a los desarrolladores a eliminar cuellos de botella y escribir código más eficiente. + +## Pestaña del Profiler + +La pestaña Continuous Profiler muestra información de perfiles del servicio en un entorno seleccionado, agregada en un periodo de tiempo específico. Las vistas disponibles son: +- [Lista principal](#top-list): muestra una lista de los métodos que consumen más recursos para la medida de perfil actual. +- [Gráfico de llamas](#flame-graph): un gráfico de llamas que representa stack traces en los perfiles. + +Puedes especificar los siguientes parámetros para los datos de perfiles: +- El tipo de perfil que se mostrará +- El entorno en el que se ejecuta el servicio +- El plazo para agregar las muestras de perfiles + +Los tipos de perfiles disponibles suelen incluir opciones como **CPU Time** (Tiempo de CPU) y **Allocated Memory** (Memoria asignada), pero vienen determinados por la plataforma y varían según el idioma. + +## Lista principal + +La subpestaña **Top List** (Lista principal) muestra los métodos que consumen más recursos según los datos de perfil agregados cargados desde los servidores de Datadog. Estos son los métodos que son candidatos más probables para la optimización. + +{{< img src="/developers/ide_plugins/idea/continuous_profiler/top-list.png" alt="Vista de los principales" style="width:100%;" >}} + +- Haz doble clic en un elemento de la lista (o selecciona **Jump to Source** (Saltar a la fuente) en el menú contextual) para abrir un editor de código fuente que muestra dónde está definido el método. +- Para visualizar un gráfico de llama de un método, selecciona **Search in Flame Graph** (Buscar en gráfico de llama) en el menú contextual. + +### Árbol de llamadas + +El árbol de llamadas situado a la derecha de **Top List** (Lista principal) muestra las rutas que conducen a (y desde) el método seleccionado. + +La vista por defecto **Caller Hierarchy** (Jerarquía de llamadas) muestra quién hizo la llamada (o predecesores) del método de destino y la frecuencia con la que aparecen en la pila de llamadas. Para ver los invocadores (o sucesores), haz clic en el botón **Callee Hierarchy** (Jerarquía de invocadores) en la barra de herramientas. + +Haz clic con el botón derecho en un método del árbol de llamadas para ver las opciones de navegación al editor de fuentes o al gráfico de llamas. + +## Gráfico de llama + +Un gráfico de llama es una visualización de muestras de perfiles que muestra trazas de stack tecnológico y su frecuencia relativa durante el periodo de muestreo. El complemento Datadog recopila varios perfiles individuales del intervalo de tiempo solicitado y los agrega. Cada perfil individual cubre un intervalo de 60 segundos dentro del marco de tiempo solicitado. + +{{< img src="/developers/ide_plugins/idea/continuous_profiler/flamegraph.png" alt="Gráfico de llama que muestra tiempo de CPU durante la última hora" style="width:100%;" >}} + +Cada vez que cambies el tipo de perfil, el marco temporal o el entorno, el plugin de Datadog genera un nuevo gráfico de llama. + +Puedes navegar por el gráfico de llamas de varias maneras: +- Haz doble clic en cualquier marco para centrarte en ese método y en todos los métodos llamados durante el periodo de muestreo. +- Utiliza el minimapa para desplazarte por el gráfico. +- Haz clic con el botón derecho en un método y selecciona **Jump to Source** (Saltar a la fuente) para ir al punto correspondiente del código fuente. + +Al pasar el ratón por encima de un método, aparece un cuadro de herramienta con la siguiente información: +- El nombre de la clase y la firma del método +- El nombre del paquete +- El valor de la métrica de perfil y el desglose del porcentaje. + +Las muestras de perfiles incluyen información sobre stack trace y el número de línea. Utiliza el botón **Separate Flame Graph by** (Separar gráfico de llamas por) para cambiar entre separar los marcos por método o por número de línea. + +{{< img src="/developers/ide_plugins/idea/separate-flamegraph-by.png" alt="Usa el botón del cuadro de herramientas para separar marcos por método o número de línea" style="width:40%;" >}} + +## Destacar fuente + +Cuando la pestaña Continuous Profiler está activa, el plugin resalta el código en el margen del editor de código fuente. En el caso de los métodos principales, aparece un icono en el margen del editor y se resalta en la línea del código en función de los datos de perfil activos. +- Pasa el ratón sobre el icono para ver más información. +- Haz clic en el icono para abrir la pestaña Perfiles principales o abre Perfiles en Datadog. + {{< img src="/developers/ide_plugins/idea/interest-options.png" alt="Haz clic en el ícono de Datadog para abrir los datos de Perfiles en una pestaña o en Datadog" style="width:100%;" >}} + +La pestaña de Perfiles activa también afecta a la vista en árbol del proyecto, que se anota con las métricas del perfil seleccionado: +{{< img src="/developers/ide_plugins/idea/project-tree-view.png" alt="El árbol de proyecto anotado con métricas de perfil de una pestaña de perfil" style="width:60%;" >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/error_tracking/backend/capturing_handled_errors/python.md b/content/es/error_tracking/backend/capturing_handled_errors/python.md new file mode 100644 index 0000000000000..347f250f2fd33 --- /dev/null +++ b/content/es/error_tracking/backend/capturing_handled_errors/python.md @@ -0,0 +1,62 @@ +--- +code_lang: python +code_lang_weight: 10 +title: Captura de excepciones gestionadas en aplicaciones Python +type: multi-code-lang +--- + +## Requisitos de compatibilidad +Esta función está disponible en `Python3.10+` y `ddtrace 3.8.0+`. + +## Empezando + +Antes de empezar, asegúrate de que ya has [instalado y configurado el Agent][1]. También necesitas [añadir la biblioteca de rastreo][2] directamente en la aplicación para instrumentarla. + +### Instrumentación automática + +Para habilitar la notificación automática de errores gestionados, puedes definir una de estas dos variables de entorno: + +- ``DD_ERROR_TRACKING_HANDLED_ERRORS``. Accepted values are: `user`, `third_party` or ,`all`. +Esta variable de entorno permite informar de errores gestionados respectivamente desde el código de usuario, los paquetes de terceros o ambos. +- ``DD_ERROR_TRACKING_HANDLED_ERRORS_INCLUDE`` = ``module1, module2...``. +Enumera los módulos de los que deben informarse los errores gestionados. Es necesario especificar el nombre completo del módulo. Por ejemplo, para instrumentar el módulo `security` en tu aplicación `mysite`, debes especificar +`mysite.security` + +Los errores gestionados se informarán en Error Tracking y se adjuntarán a los tramos (spans) mediante [eventos de tramos][3]. + +Si estás ejecutando `Python3.10` o `Python3.11` y quieres instrumentar el módulo ``__main__``, tienes que añadir: + +```Python +from ddtrace.errortracking._handled_exceptions.bytecode_reporting import instrument_main + +if __name__ == "__main__": + instrument_main() +``` + +Este código debe añadirse después de las definiciones de las funciones que contienen errores gestionados. + +### Instrumentación manual + +Puedes notificar manualmente los errores gestionados mediante ``span.record_exception(e)``: + +```Python +from ddtrace import tracer + +try: + raise ValueError("foo") +except ValueError as e: + span = tracer.current_span() + if span: + span.record_exception(e) +``` + +Esta llamada creará un evento de tramo en el tramo con la información del error y lo informará a Error Tracking. +También puedes proporcionar atributos adicionales utilizando: + +```Python +span.record_exception(e, {"foo": "bar"}) +``` + +[1]: /es/error_tracking/backend/getting_started/#getting-started-with-backend-error-tracking +[2]: /es/tracing/trace_collection/automatic_instrumentation/dd_libraries/python/ +[3]: /es/tracing/trace_collection/custom_instrumentation/python/otel/#adding-span-events \ No newline at end of file diff --git a/content/es/error_tracking/explorer.md b/content/es/error_tracking/explorer.md new file mode 100644 index 0000000000000..56210b7489cc3 --- /dev/null +++ b/content/es/error_tracking/explorer.md @@ -0,0 +1,125 @@ +--- +description: Más información sobre el Explorador de Error Tracking. +further_reading: +- link: /monitors/types/error_tracking + tag: Documentación + text: Más información sobre los monitores de Error Tracking. +title: Explorador de Error Tracking +--- + +## Información general + +{{< img src="error_tracking/error-tracking-overview-2.png" alt="Detalles de un incidente en el Explorador de Error Tracking" style="width:100%;" >}} + +El Explorador de Error Tracking permite ver, filtrar e investigar incidentes. Un incidente es un grupo de errores similares relacionados con el mismo fallo. Datadog crea incidentes contando una huella digital por cada error, utilizando algunos de sus atributos como el tipo de error, el mensaje de error o la traza (trace) de stack tecnológico. Los errores con la misma huella digital se agrupan en el mismo incidente. + +## Explorar tus incidentes + +Cada elemento listado en el Explorador de Error Tracking es un incidente que contiene información clara sobre el error, incluyendo lo siguiente: + +- El tipo de error y el mensaje de error +- La ruta al archivo en el que se activan los errores subyacentes +- Información importante sobre la duración del incidente: + - Cuándo fue visto por primera y última vez + - Gráfico de casos a lo largo del tiempo + - Número de casos en el periodo de tiempo seleccionado + +El tema también está etiquetado como: +- `New`, si el incidente fue visto por primera vez hace menos de dos días y está en estado **PARA REVISIÓN** (Para revisión) (consulta [Estados de incidentes][5]) +- `Regression`, si el incidente se **RESOLVIÓ** y volvió a producirse en una versión más reciente (consulta [Detección de regresiones][6]) +- `Crash`, si la aplicación se bloquea +- Con una [causa sospechada][3] + +### Rango de tiempo + +{{< img src="real_user_monitoring/error_tracking/time_range.png" alt="Rango de tiempo de Error Tracking" style="width:80%;" >}} + +El rango de tiempo aparece en la parte superior derecha del Explorador como una línea de tiempo. Esta función te permite visualizar los incidentes con errores ocurridos dentro del periodo de tiempo seleccionado. Cambia el rango de tiempo seleccionando un rango preestablecido en el menú desplegable. + +### Clasificación + +Clasifica incidentes en la lista utilizando una de estas opciones: +- **Relevancia** combina varias características de incidentes para priorizar aquellos relacionados con el código, recientes o con picos de error. Error Tracking analiza la antigüedad de los incidentes, los casos del último día, el aumento significativo en la última hora o si han provocado un bloqueo de la aplicación. +- **Recuento** clasifica los incidentes en función del recuento total de casos en el rango de tiempo seleccionado. +- **Más recientes** ordena los incidentes en función de cuándo fueron vistos por primera vez. +- **Sesiones afectadas** ordena los incidentes por el número de [sesiones RUM][4] afectadas. + +### Facetas + +{{< img src="/error_tracking/facets-panel.png" alt="Facetas de Error Tracking" style="width:100%;" >}} + +Error Tracking indexa automáticamente una lista predefinida de atributos de tus incidentes y crea facetas a partir de ella. Una faceta muestra todos los miembros distintos de un atributo para el periodo de tiempo seleccionado y proporciona algunos análisis básicos, como el número de incidentes representados. Las facetas permiten pivotar o filtrar los incidentes en función de un atributo determinado. + +Algunos de los atributos de error más utilizados son +| Atributo | Descripción +|-----------|-------------| +| `error.message`| El mensaje asociado con el error. | +| `error.type` | El tipo o la clase de error. | +| `error.stack` | La traza de stack tecnológico asociada al error. | +| `error.handling` | Indica si el error fue gestionado. Los errores APM se consideran `handled` si un tramo (span) principal informa una operación exitosa (`HTTP 200`, `gRPC OK`) o una gestión de error exitosa (`HTTP 400`, `gRPC NOT_FOUND`). Los errores RUM se consideran `unhandled` si no se capturan manualmente en el código. | + +Haz clic en el icono Edit (Editar) para ver la lista de facetas disponibles que puedes mostrar u ocultar de la vista. + +{{< img src="/error_tracking/error-tracking-facets.png" alt="Haz clic en el ícono del lápiz para ocultar o mostrar facetas de Error Tracking disponibles en la vista." style="width:100%;" >}} + +### Filtros de nivel de incidente + +Además de los eventos de error, Error Tracking ofrece filtros de nivel de incidente para refinar la lista de incidentes mostrados. + +{{< img src="error_tracking/issue-level-filters.png" alt="Filtros de nivel de incidente en Error Tracking" style="width:100%;" >}} + +#### Fuentes + +Error Tracking consolida los errores de varios productos de Datadog (RUM, logs, APM) en una vista unificada, lo que te permite observar y solucionar errores en todo el stack tecnológico. En el Explorador puedes elegir mostrar **Todos los incidentes**, o incidentes de **Navegador**, **Móvil** o **Backend**. + +Para un filtrado más granular, puedes limitar los incidentes por fuentes específicas de logs o por SDK y delimitarlos a un lenguaje de programación. + +#### Parche disponible + +Muestra solo los incidentes que tienen un parche generado por AI, disponible para corregir rápidamente los incidentes. + +#### Filtros de equipos + +[Issue Team Ownership][2] te ayuda a identificar rápidamente los incidentes relevantes para tu equipo mediante `CODEOWNERS` Git y propietarios de servicios. + +#### Asignado a + +Realiza un seguimiento de los incidentes, asígnalos a los miembros del equipo con más conocimientos y refina fácilmente la lista de incidentes por destinatario. + +#### Causa sospechada + +[Causa sospechada][3] ayuda a filtrar y priorizar los errores con mayor rapidez, lo que permite a los equipos abordar las posibles causas con mayor eficacia. + +## Inspeccionar un incidente + +Haz clic en cualquier incidente para abrir el panel de incidentes y ver más información sobre este. + +{{< img src="real_user_monitoring/error_tracking/issue_summary.png" alt="Parte superior del panel de incidentes de Tracking que ofrece una vista resumida del incidente" style="width:80%;" >}} + +Los detalles claros que necesitas para solucionar un incidente se encuentran en la parte superior del panel. Desde allí, podrás entender su ciclo de vida: las fechas del primero y el último caso, el recuento total, así como el recuento a lo largo del tiempo para el incidente en cuestión. + +{{< img src="real_user_monitoring/error_tracking/error_sample.png" alt="Parte inferior del panel de incidentes de Error Tracking que ofrece ejemplos de error" style="width:80%;" >}} + +La información mostrada en el panel de incidentes varía en función de la fuente del error. Por ejemplo, un incidente creado a partir de errores APM muestra etiquetas del tramo de error, como el recurso o el nombre de la operación, con acceso directo a la traza relacionada o a los logs vinculados a ella. + +La parte inferior del panel de incidentes te ofrece la posibilidad de navegar por los ejemplos de error del incidente relacionado. Cada ejemplo de error ofrece información para la resolución de problemas, como la traza de stack tecnológico del error y las características de los usuarios afectados. + +## Recibir alertas sobre errores nuevos o impactantes + +Ver un nuevo incidente en cuanto se produce te da la oportunidad de identificarlo y solucionarlo de forma proactiva antes de que se convierta en crítico. Los monitores de Error Tracking te permiten realizar un seguimiento de cualquier incidente nuevo o incidentes que tengan un alto impacto en tus sistemas o en tus usuarios (consulta [Monitores de Error Tracking][7]). + +Puedes exportar directamente tu consulta de búsqueda desde el Explorador para crear un monitor de Error Tracking en el contexto relacionado: + +{{< img src="/error_tracking/create-monitor.mp4" alt="Exportar tu consulta de búsqueda a un monitor de Error Tracking" video=true >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/events +[2]: /es/error_tracking/issue_team_ownership +[3]: /es/error_tracking/suspected_causes +[4]: /es/real_user_monitoring/explorer/search/#event-types +[5]: /es/error_tracking/issue_states +[6]: /es/error_tracking/regression_detection +[7]: /es/monitors/types/error_tracking \ No newline at end of file diff --git a/content/es/error_tracking/guides/enable_infra.md b/content/es/error_tracking/guides/enable_infra.md new file mode 100644 index 0000000000000..663b3060e8dea --- /dev/null +++ b/content/es/error_tracking/guides/enable_infra.md @@ -0,0 +1,150 @@ +--- +further_reading: +- link: /infrastructure + tag: Documentación + text: Más información sobre la monitorización de infraestructuras +- link: /error_tracking/guides/enable_apm + tag: Guía + text: Activar APM +title: Activar la monitorización de infraestructuras +--- + +La [Monitorización de infraestructuras][1] incluye funciones básicas de Datadog que visualizan, monitorizan y miden el rendimiento de tus hosts, contenedores y procesos. Esta guía explica cómo actualizar la configuración del Datadog Agent para habilitar la monitorización de infraestructuras y aprovechar sus funciones además del seguimiento de errores de backend independiente. + +{{< tabs >}} +{{% tab "Linux host or VM" %}} + +Si tu Agent está desplegado en un host Linux, la actualización de la configuración depende del método que hayas utilizado para instalar el Agent. + +{{< collapse-content title="Instrumentación de un solo paso" level="h5" >}} +Para un Datadog Agent instalado con el comando de instalación de una línea: + +1. Abre el [archivo de configuración datadog.yaml][2]. +2. Elimina el atributo de nivel superior `enable_payloads`: + + ```diff + - enable_payloads: + - series: false + - events: false + - service_checks: false + - sketches: false + + apm_config: + enabled: true + error_tracking_standalone: + enabled: true + ``` + +3. [Reinicia el Agent][3]. + {{< /collapse-content >}} + +{{< collapse-content title="Using Datadog tracing libraries" level="h5" >}} +Para un Datadog Agent configurado manualmente para el Seguimiento de errores de backend: + +1. Abre el [archivo de configuración datadog.yaml][2]. +2. Elimina el atributo de nivel superior `core_agent`: + + ```diff + - core_agent: + - enabled: false + apm_config: + error_tracking_standalone: + enabled: true + ``` + +3. [Reinicia el Agent][3]. + {{< /collapse-content >}} + +[2]: /es/agent/configuration/agent-configuration-files +[3]: /es/agent/configuration/agent-commands/#restart-the-agent + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +Si tu Agent está desplegado en Kubernetes, necesitas actualizar su configuración en Datadog Operator o Helm dependiendo del método que hayas utilizado para instalar el Agent. + +{{< collapse-content title="Helm" level="h5" >}} +Para un Datadog Agent instalado con Helm: + +1. Actualiza tu archivo `datadog-values.yaml`, sustituyendo los valores `site` y `env` adecuadamente: + + ```diff + agents: + containers: + agent: + env: + [...] + - - name: DD_CORE_AGENT_ENABLED + - value: "false" + datadog: + - processAgent: + - enabled: false + - containerCollection: false + apiKeyExistingSecret: datadog-secret + site: + tags: + - env: + apm: + errorTrackingStandalone: + enabled: true + # Required to enable Single-Step Instrumentation + instrumentation: + enabled: true + libVersions: + java: "1" + dotnet: "3" + python: "2" + js: "5" + php: "1" + ``` + +2. Una vez realizados los cambios, actualiza tu Datadog Helm chart: + ```shell + helm upgrade -f datadog-values.yaml datadog-agent datadog/datadog + ``` +{{< /collapse-content >}} + +{{< collapse-content title="Datadog Operator" level="h5" >}} +Para un Datadog Agent instalado con el Datadog Operator: + +1. Actualiza tu archivo `datadog-agent.yaml`, sustituyendo los valores `site` y `env` adecuadamente: + ```diff + apiVersion: datadoghq.com/v2alpha1 + kind: DatadogAgent + metadata: + name: datadog + spec: + global: + site: + tags: + - env: + credentials: + apiSecret: + secretName: datadog-secret + keyName: api-key + env: + - - name: DD_CORE_AGENT_ENABLED + - value: "false" + features: + apm: + errorTrackingStandalone: + enabled: true + instrumentation: + enabled: true + libVersions: + java: "1" + dotnet: "3" + python: "2" + js: "5" + php: "1" + ``` +2. Despliega el Datadog Agent con el archivo de configuración actualizado: + ```shell + kubectl apply -f path/to/your/datadog-agent.yaml + ``` +{{< /collapse-content >}} + +{{% /tab %}} +{{< /tabs >}} + +[1]: /es/infrastructure \ No newline at end of file diff --git a/content/es/error_tracking/troubleshooting.md b/content/es/error_tracking/troubleshooting.md new file mode 100644 index 0000000000000..a72e295984904 --- /dev/null +++ b/content/es/error_tracking/troubleshooting.md @@ -0,0 +1,55 @@ +--- +title: Solucionar problemas de Error Tracking +--- + +Si experimentas un comportamiento inesperado de Error Tracking, los pasos para la resolución de problemas que se indican a continuación pueden ayudarte a resolver el incidente rápidamente. Si sigues teniendo problemas, ponte en contacto con el [servicio de asistencia de Datadog][1]. + +Datadog recomienda actualizar regularmente a la última versión de las bibliotecas de rastreo de Datadog, los SDK para móviles y los SDK web, ya que cada versión contiene mejoras y correcciones. + +## No se encuentran errores en Error Tracking + +### Logs + +Asegúrate de que el mensaje de error tiene los [atributos requeridos][2] y de que Error Tracking para logs está [activado][7]. + +Este [ejemplo de consulta][3] busca logs que cumplan los criterios de inclusión en Error Tracking. + +### APM + +Para ser procesado por Error Tracking, un tramo (span) debe tener estos atributos: + +- `error.type` +- `error.message` +- `error.stack` + +
+Nota: El stack tecnológico debe tener al menos dos líneas y un marco significativo (un marco con un nombre de función y un nombre de archivo en la mayoría de los lenguajes). +
+ +Este [ejemplo de consulta][5] busca tramos que cumplan los criterios de inclusión en Error Tracking. + +### RUM + +Error Tracking solo procesa errores que se envían con la fuente configurada como `custom`, `source`, `report` o `console` y contienen una traza de stack tecnológico. Los errores enviados con cualquier otra fuente (como `network`) o enviados desde extensiones del navegador no son procesados por Error Tracking. + +Este [ejemplo de consulta][6] muestra los errores RUM que cumplen los criterios de inclusión en Error Tracking. + +### Filtros de inclusión/exclusión + +Asegúrate de que los errores que buscas coinciden con al menos un filtro de inclusión y ningún filtro de exclusión. Comprueba la configuración de tus filtros (más información en [Gestionar la recopilación de datos][8]). + +## No se encontraron ejemplos de error de un incidente + +Se procesan todos los errores, pero solo los errores retenidos están disponibles en el panel de incidentes como un ejemplo de error. + +### APM + +Los tramos asociados al error deben retenerse con un filtro de retención personalizado para que los ejemplos de ese error aparezcan en el panel de incidentes. + +[1]: /es/help/ +[2]: /es/logs/error_tracking/backend/?tab=serilog#attributes-for-error-tracking +[3]: https://app.datadoghq.com/logs?query=status%3A%28emergency%20OR%20alert%20OR%20critical%20OR%20error%29%20AND%20%28%40error.stack%3A%2A%20OR%20%40error.kind%3A%2A%29%20 +[5]: https://app.datadoghq.com/apm/traces?query=%40_top_level%3A1%20%40error.stack%3A%2A%20AND%20%40error.message%3A%2A%20AND%20error.type%3A%2A%20 +[6]: https://app.datadoghq.com/rum/sessions?query=%40type%3Aerror%20%40error.stack%3A%2A +[7]: https://app.datadoghq.com/error-tracking/settings +[8]: /es/error_tracking/manage_data_collection/ \ No newline at end of file diff --git a/content/es/glossary/terms/security_agent.md b/content/es/glossary/terms/security_agent.md new file mode 100644 index 0000000000000..f3f2eab89831a --- /dev/null +++ b/content/es/glossary/terms/security_agent.md @@ -0,0 +1,7 @@ +--- +core_product: +- workload protection +- seguridad +title: Agent de seguridad +--- +Security Agent es un componente de la plataforma Datadog diseñado para proporcionar una capacidad de observación de la seguridad de tu infraestructura. Recopila datos relacionados con la seguridad, como la actividad del sistema y la red, para ayudarte a detectar posibles amenazas y vulnerabilidades de seguridad en tu entorno. \ No newline at end of file diff --git a/content/es/integrations/agentprofiling.md b/content/es/integrations/agentprofiling.md new file mode 100644 index 0000000000000..7f8f853e01374 --- /dev/null +++ b/content/es/integrations/agentprofiling.md @@ -0,0 +1,67 @@ +--- +custom_kind: integración +description: Genera flares con perfiles basados en umbrales de memoria y CPU definidos + por el usuario. +git_integration_title: agentprofiling +integration_id: agentprofiling +integration_title: Check de Agent Profiling +is_public: true +name: agentprofiling +public_title: Datadog-Agent Profiling +short_description: Genera flares con perfiles basados en umbrales de memoria y CPU + definidos por el usuario. +supported_os: +- linux +- mac_os +- windows +updated_for_agent: 7.66 +--- + +## Información general + +Este check debe utilizarse cuando se soluciona un problema de memoria o de CPU en el Agent. Una vez superado un umbral de memoria o de CPU configurado por el usuario, se genera automáticamente un flare con perfiles. Este flare puede generarse localmente o enviarse directamente a un caso del servicio de asistencia de Datadog. Para que el flare se envíe directamente a un caso del servicio de asistencia de Datadog, se deben proporcionar un `ticket_id` y un `user_email` en `conf.yaml`. De lo contrario, se genera localmente. + +## Configuración + +### Instalación + +El check de sistema está incluido en el paquete del [Datadog Agent][1]. No es necesaria ninguna instalación adicional en tu servidor. + +### Configuración + +1. Edita el archivo `agentprofiling.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][2]. Para ver todas las opciones de configuración disponibles, consulta el [agentprofiling.d/conf.yaml de ejemplo][3]. *Nota**: Al menos una entrada es obligatoria en `instances` para activar el check, por ejemplo: + + ```yaml + init_config: + instances: + - memory_threshold: 1GB + cpu_threshold: 50 + ticket_id: # Given by Support + user_email: # Email used in correspondence with Support + ``` + +2. [Reinicia el Agent][4]. + +### Validación + +[Ejecuta el subcomando de estado del Agent][1] y busca `agentprofiling` en la sección **Checks**. + +## Datos recopilados + +### Métricas + +El check de Agent Profiling no incluye métricas. + +### Eventos + +El check de Agent Profiling no incluye eventos. + +### Checks de servicio + +El check de Agent Profiling no incluye checks de servicios. + +[1]: /es/agent/guide/agent-commands/#agent-status-and-information +[2]: /es/agent/guide/agent-configuration-files/#agent-configuration-directory +[3]: https://github.com/DataDog/datadog-agent/blob/main/cmd/agent/dist/conf.d/agentprofiling.d/conf.yaml.example +[4]: /es/agent/guide/agent-commands/#start-stop-restart-the-agent +[5]: https://github.com/DataDog/integrations-core/blob/master/system_swap/datadog_checks/system_swap/data/conf.yaml.example \ No newline at end of file diff --git a/content/es/integrations/crest_data_systems_cofense_triage.md b/content/es/integrations/crest_data_systems_cofense_triage.md new file mode 100644 index 0000000000000..1c207fd3f10bd --- /dev/null +++ b/content/es/integrations/crest_data_systems_cofense_triage.md @@ -0,0 +1,179 @@ +--- +algolia: + subcategory: Integraciones de Marketplace +app_id: crest-data-systems-cofense-triage +app_uuid: 186de352-c901-4479-aa8b-429e99210856 +assets: + dashboards: + Cofense Triage - Executive Summary: assets/dashboards/crest_data_systems_cofense_triage_executive_summary.json + Cofense Triage - Overview: assets/dashboards/crest_data_systems_cofense_triage_overview.json + Cofense Triage - Reporting Output: assets/dashboards/crest_data_systems_cofense_triage_reporting_output.json + Cofense Triage - System Status: assets/dashboards/crest_data_systems_cofense_triage_system_status.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: true + metrics: + check: cds.cofense_triage.health.cpu_usage_percent + metadata_path: metadata.csv + prefix: cds.cofense_triage + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 33375357 + source_type_name: crest_data_systems_cofense_triage + logs: + source: crest-data-systems-cofense-triage + monitors: + Cofense Triage - CPU Usage Monitor: assets/monitors/crest_data_systems_cofense_triage_cpu_usage_monitor.json + Cofense Triage - Free Memory Available: assets/monitors/crest_data_systems_cofense_triage_memory_available.json + Cofense Triage - Partition Usage Monitor: assets/monitors/crest_data_systems_cofense_triage_partition_usage_monitor.json + Cofense Triage - System Status Monitor: assets/monitors/crest_data_systems_cofense_triage_system_status.json +author: + homepage: https://www.crestdata.ai + name: Crest Data + sales_email: datadog-sales@crestdata.ai + support_email: datadog.integrations@crestdata.ai + vendor_id: crest-data-systems +categories: +- marketplace +- seguridad +- recopilación de logs +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: crest_data_systems_cofense_triage +integration_id: crest-data-systems-cofense-triage +integration_title: Cofense Triage +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: crest_data_systems_cofense_triage +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.crest_data_systems.cofense_triage + product_id: cofense-triage + short_description: Por host de Cofense Triage + tag: cds_cofense_triage_host + unit_label: Hosts de Cofense Triage + unit_price: 95.0 +public_title: Cofense Triage +short_description: Monitorizar incidentes de phishing de Cofense Triage en Datadog +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Marketplace + - Category::Security + - Category::Log Collection + - Offering::Integration + - Submitted Data Type::Metrics + - Submitted Data Type::Logs + - Submitted Data Type::Events + configuration: README.md#Setup + description: Monitorizar incidentes de phishing de Cofense Triage en Datadog + media: + - caption: 'Cofense Triage: información general' + image_url: images/crest-data-systems-cofense-triage-overview.png + media_type: imagen + - caption: 'Cofense Triage: estado del sistema' + image_url: images/crest-data-systems-cofense-triage-system-status.png + media_type: imagen + - caption: 'Cofense Triage: resumen ejecutivo' + image_url: images/crest-data-systems-cofense-triage-executive-summary.png + media_type: imagen + - caption: 'Cofense Triage: generación de informes' + image_url: images/crest-data-systems-cofense-triage-reporting-output.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Cofense Triage + uninstallation: README.md#Uninstallation +--- + + + + +## Información general + +Cofense Triage es una plataforma de gestión de amenazas de phishing que automatiza la detección, el análisis y la respuesta a correos electrónicos de phishing aprovechando los datos notificados por los usuarios. Esta integración mejora los flujos de trabajo de seguridad al proporcionar visibilidad en tiempo real de los incidentes de phishing identificados por Cofense Triage directamente en Datadog para ofrecer respuestas más rápidas y coordinadas. + +Esta integración recopila lo siguiente: + +### Métricas + +- Estado +- Resumen ejecutivo + +### Logs + +- Informes +- Indicadores de amenaza +- Urls +- Dominios +- Archivos adjuntos +- Cargas útiles de adjuntos +- Clústeres +- Encabezados +- Nombres de host +- Cuadernos de estrategias +- Reglas +- Categorías +- Comentarios +- Proveedores de identidad +- Integraciones +- Generación de informes dinámicos + +### Eventos + +- Autenticación +- Validación de la configuración + + +### Dashboards + +Esta integración incluye los siguientes dashboards predefinidos: + +1. **Estado**: proporciona información sobre el estado del sistema, incluido el uso de la CPU y de la partición del servidor de Cofense Triage. +2. **Resumen ejecutivo**: ofrece un resumen de los datos de informes de Cofense Triage. +3. **Generación de informes**: muestra una generación de informes detallada, que incluye los informes y sus datos correspondientes. +4. **Información general**: incluye detalles seleccionados de los dashboards mencionados. + +## Asistencia + +Para solicitar asistencia o funciones, ponte en contacto con Crest Data a través de los siguientes canales: + +- Correo electrónico de asistencia: [datadog.integrations@crestdata.ai][1] +- Correo electrónico de ventas: [datadog-sales@crestdata.ai][2] +- Página web: [crestdata.ai][3] +- FAQ: [FAQ sobre integraciones Crest Data de Datadog Marketplace][10] + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][6]. + + +[1]: mailto:datadog.integrations@crestdata.ai +[2]: mailto:datadog-sales@crestdata.ai +[3]: https://www.crestdata.ai/ +[4]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/?tab=agentv6v7 +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/?tab=agentv6v7#start-stop-and-restart-the-agent +[6]: https://docs.datadoghq.com/es/help/ +[7]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[8]: https://docs.datadoghq.com/es/agent/?tab=Linux +[9]: https://docs.datadoghq.com/es/account_management/api-app-keys +[10]: https://www.crestdatasys.com/datadog-integrations-readme/Crest_Data_Datadog_Integrations_FAQ.pdf +[11]: https://www.crestdatasys.com/datadog-integrations-readme/Cofense_Triage.pdf +--- +Esta aplicación está disponible a través de Datadog Marketplace y cuenta con el respaldo de un socio tecnológico de Datadog. Para utilizar esta aplicación, adquiérela en el Marketplace. \ No newline at end of file diff --git a/content/es/integrations/crest_data_systems_whylabs.md b/content/es/integrations/crest_data_systems_whylabs.md new file mode 100644 index 0000000000000..4b094c6ab8ae1 --- /dev/null +++ b/content/es/integrations/crest_data_systems_whylabs.md @@ -0,0 +1,145 @@ +--- +algolia: + subcategory: Integraciones de Marketplace +app_id: crest-data-systems-whylabs +app_uuid: a53f983e-7d18-4e25-98d9-35cb3ce7c181 +assets: + dashboards: + WhyLabs - Datasets: assets/dashboards/crest_data_systems_whylabs_datasets.json + WhyLabs - Models: assets/dashboards/crest_data_systems_whylabs_models.json + WhyLabs Overview: assets/dashboards/crest_data_systems_whylabs_overview.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: true + metrics: + check: cds.whylabs.dataset_metric.classification_prediction_count + metadata_path: metadata.csv + prefix: cds.whylabs. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 39158566 + source_type_name: crest_data_systems_whylabs + logs: + source: crest-data-systems-whylabs +author: + homepage: https://www.crestdata.ai + name: Crest Data + sales_email: datadog-sales@crestdata.ai + support_email: datadog.integrations@crestdata.ai + vendor_id: crest-data-systems +categories: +- marketplace +- recopilación de logs +- ai/ml +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: crest_data_systems_whylabs +integration_id: crest-data-systems-whylabs +integration_title: WhyLabs +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: crest_data_systems_whylabs +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: whylabs + short_description: Cuota fija mensual. + unit_price: 50.0 +public_title: WhyLabs +short_description: Recopilación de datos de recursos, incluidos fuentes de anomalías, + entradas/salidas, columnas, segmentos y métricas de rendimiento del modelo. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Marketplace + - Category::Log Collection + - Categoría::IA/ML + - Offering::Integration + - Submitted Data Type::Logs + - Tipo de datos enviados::Métricas + - Submitted Data Type::Events + configuration: README.md#Setup + description: Recopilación de datos de recursos, incluidos fuentes de anomalías, + entradas/salidas, columnas, segmentos y métricas de rendimiento del modelo. + media: + - caption: Información general de WhyLabs + image_url: images/crest_data_systems_whylabs_overview.png + media_type: imagen + - caption: WhyLabs - Modelos + image_url: images/crest_data_systems_whylabs_models.png + media_type: imagen + - caption: WhyLabs - Conjuntos de datos + image_url: images/crest_data_systems_whylabs_datasets.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: WhyLabs + uninstallation: README.md#Uninstallation +--- + + + + +## Información general +[**WhyLabs**][1] es una plataforma creada para ayudar a organizaciones a monitorizar, gestionar y optimizar aplicaciones de inteligencia artificial (IA). Proporciona un conjunto de herramientas para garantizar que los modelos de aprendizaje automático (ML) sigan siendo fiables, transparentes y justos durante todo su ciclo de vida. La plataforma aprovecha la monitorización y las técnicas de observabilidad para rastrear el rendimiento del modelo, identificar problemas como la desviación de datos o anomalías y ayudar a los equipos a mantener predicciones de alta calidad. + +Esta integración ingiere datos de WhyLabs como logs, métricas y eventos en Datadog: + +### Métricas + - Rendimiento de la clasificación + - Rendimiento de la regresión + +### Logs + - Recursos + - Esquema de entidad + - Anomalías + - Segmentos + +### Eventos +La configuración de la integración de Datadog se valida para garantizar que todos los parámetros requeridos estén correctamente configurados antes de continuar, seguido de un rastreo de eventos de autenticación durante la ingesta de datos para garantizar un acceso seguro y una correcta verificación del usuario tras la validación de la configuración. + +### Dashboards +Esta integración incluye **tres dashboards predefinidos**: + + 1. **Información general de WhyLabs**: Proporciona una visión completa de la plataforma, que te permite monitorizar y gestionar modelos de aprendizaje automático y conjuntos de datos. Destaca áreas clave como recursos, anomalías, segmentos, entradas, salidas y columnas. + 2. **WhyLabs - Modelos**: Se centra en elementos esenciales como el resumen del modelo, las anomalías detectadas, los segmentos, los monitores activos, las entradas y las salidas. Ofrece una visión detallada del rendimiento y el comportamiento del modelo en producción. + 3. **WhyLabs - Conjuntos de datos**: Muestra una información general del tipo de datos del conjunto de datos, que hace hincapié en áreas clave como el resumen del modelo, anomalías, segmentos, monitores activos, columnas y estado de discreción. + +## Asistencia técnica +Para solicitar asistencia o características, ponte en contacto con Crest Data a través de los siguientes canales: + +- Correo electrónico de asistencia técnica: [datadog.integrations@crestdata.ai][9] +- Correo electrónico de ventas: [datadog-sales@crestdata.ai][10] +- Página web: [crestdata.ai][11] +- FAQ: [FAQ de integraciones de marketplace de Crest Data y Datadog][3] + + +[1]: https://whylabs.ai/ +[2]: https://docs.crestdata.ai/datadog-integrations-readme/whylabs.pdf +[3]: https://docs.crestdata.ai/datadog-integrations-readme/Crest_Data_Datadog_Integrations_FAQ.pdf +[4]: https://docs.datadoghq.com/es/agent/?tab=Linux +[5]: https://docs.datadoghq.com/es/agent/configuration/agent-configuration-files/ +[6]: https://docs.datadoghq.com/es/account_management/api-app-keys/ +[7]: https://docs.datadoghq.com/es/agent/configuration/agent-commands/#start-stop-and-restart-the-agent +[8]: https://docs.datadoghq.com/es/agent/configuration/agent-commands/#agent-status-and-information +[9]: mailto:datadog.integrations@crestdata.ai +[10]: mailto:datadog-sales@crestdata.ai +[11]: https://www.crestdata.ai/ + +--- +Esta aplicación está disponible a través de Datadog Marketplace y cuenta con el apoyo de un socio tecnológico de Datadog. Para utilizarla, adquiere esta aplicación en el Marketplace. \ No newline at end of file diff --git a/content/es/integrations/crowdstrike.md b/content/es/integrations/crowdstrike.md index 792f932cc2baf..ae9ed2d85607c 100644 --- a/content/es/integrations/crowdstrike.md +++ b/content/es/integrations/crowdstrike.md @@ -1,34 +1,19 @@ --- +app_id: crowdstrike categories: - nube - recopilación de logs - recopilación de logs - la red - seguridad -custom_kind: integration -dependencies: [] -description: CrowdStrike -doc_link: https://docs.datadoghq.com/integrations/crowdstrike/ -draft: false -git_integration_title: crowdstrike -has_logo: true -integration_id: '' -integration_title: CrowdStrike -integration_version: '' -is_public: true -manifest_version: '1.0' -name: crowdstrike -public_title: CrowdStrike -short_description: Recopila eventos de detección y alertas de CrowdStrike en tiempo - real como logs de Datadog. -team: integraciones-web -version: '1.0' +custom_kind: integración +description: Recopila eventos de detección y alertas de CrowdStrike en tiempo real + como logs de Datadog. +title: CrowdStrike --- - - ## Información general -[CrowdStrike][1] es una solución de agente única cuyo objetivo es poner fin a las infracciones, el ransomware y los ciberataques mediante una visibilidad y una protección integrales en endpoints, cargas de trabajo, datos e identidades. +[CrowdStrike](https://www.crowdstrike.com/) es una solución de agent único para detener brechas, ransomware y ciberataques con visibilidad y protección completas en endpoints, cargas de trabajo, datos e identidad. La integración CrowdStrike te permite recopilar eventos de detección y alertas de CrowdStrike en tiempo real como logs de Datadog. @@ -36,20 +21,20 @@ La integración CrowdStrike te permite recopilar eventos de detección y alertas ### Instalación -No se requiere ninguna instalación. +No requiere instalación. ### Configuración #### Activación del streaming de eventos -Antes de conectarte al [flujo (stream) de eventos][2], [ponte en contacto con el equipo de asistencia de CrowdStrike][3] para habilitar el streaming de API en tu cuenta de cliente. +Antes de poder conectarte al [Event Stream](https://docs.datadoghq.com/service_management/events/explorer/), [ponte en contacto con el equipo de asistencia de CrowdStrike](https://supportportal.crowdstrike.com/) para habilitar el flujo de APIs en tu cuenta de cliente. #### Conexión de tu cuenta de CrowdStrike Una vez habilitado el streaming, añade un nuevo cliente de API en CrowdStrike: 1. Inicia sesión en la consola Falcon. -1. Ve a [Support > API Clients and Keys (Soporte > Clientes y claves de API][4]. +1. Ve a [Support > API Clients and Keys] (Soporte > Clientes y claves de API)(https://falcon.crowdstrike.com/support/api-clients-and-keys). 1. Haz clic en **Add new API client** (Añadir nuevo cliente de API). 1. Introduce un nombre de cliente descriptivo que identifique a tu cliente de API en Falcon y en los logs de acciones de API (por ejemplo, `Datadog`). 1. También puedes introducir una descripción como el uso previsto de tu cliente de API. @@ -58,14 +43,14 @@ Una vez habilitado el streaming, añade un nuevo cliente de API en CrowdStrike: #### Habilitación de la recopilación de logs -Añade los detalles del cliente de API en el [cuadro de la integración CrowdStrike][5] en Datadog: +Añade los detalles del cliente de API en el [cuadro de integración de CrowdStrike](https://app.datadoghq.com/integrations/crowdstrike) en Datadog: 1. Haz clic en **Connect a CrowdStrike Account** (Conectar una cuenta de CrowdStrike). 1. Copia tu ID de cliente de API, secreto de cliente y dominio de API. 1. También puedes introducir una lista de etiquetas (tags) separadas por comas. 1. Haz clic en **Submit** (Enviar). -Al cabo de unos minutos, aparecen [logs][6] con el origen `crowdstrike` en el [dashboard de información general de logs de Crowdstrike][7]. +Al cabo de unos minutos, aparecen [logs](https://app.datadoghq.com/logs/) con la fuente `crowdstrike` en el [dashboard de información general de logs de Crowdstrike](https://app.datadoghq.com/dash/integration/32115/crowdstrike-overview). ## Datos recopilados @@ -77,36 +62,27 @@ La integración CrowdStrike no incluye métricas. La integración CrowdStrike permite a Datadog ingerir los siguientes eventos: -* Resumen de detecciones -* Coincidencia de cortafuegos -* Protección de la identidad -* Resumen de detecciones de LDP -* Resumen de incidentes -* Eventos de autenticación -* Actualización de estados de detección -* IoC (Indicadores de riesgo) cargados -* Eventos de contención en red -* Eventos de listas de IP permitidas -* Eventos de gestión de políticas -* Actividad de la tienda CrowdStrike -* Inicio/fin de sesión de respuesta en tiempo real -* Inicio/fin de flujos de eventos - -Estos eventos aparecen en el [dashboard de información general de logs de Crowdstrike][7]. +- Resumen de detecciones +- Coincidencia de cortafuegos +- Protección de la identidad +- Resumen de detecciones de LDP +- Resumen de incidentes +- Eventos de autenticación +- Actualización de estados de detección +- IoC (Indicadores de riesgo) cargados +- Eventos de contención en red +- Eventos de listas de IP permitidas +- Eventos de gestión de políticas +- Actividad de la tienda CrowdStrike +- Inicio/fin de sesión de respuesta en tiempo real +- Inicio/fin de flujos de eventos + +Estos eventos aparecen en el [dashboard de información general de logs de Crowdstrike](https://app.datadoghq.com/dash/integration/32115/crowdstrike-overview). ### Checks de servicio La integración CrowdStrike no incluye checks de servicio. -## Resolución de problemas - -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. +## Solucionar problemas -[1]: https://www.crowdstrike.com/ -[2]: https://docs.datadoghq.com/es/service_management/events/explorer/ -[3]: https://supportportal.crowdstrike.com/ -[4]: https://falcon.crowdstrike.com/support/api-clients-and-keys -[5]: https://app.datadoghq.com/integrations/crowdstrike -[6]: /es/logs/ -[7]: https://app.datadoghq.com/dash/integration/32115/crowdstrike-overview -[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/google_workspace_alert_center.md b/content/es/integrations/google_workspace_alert_center.md index d1392f3f1f37e..6cc8d8a3335e3 100644 --- a/content/es/integrations/google_workspace_alert_center.md +++ b/content/es/integrations/google_workspace_alert_center.md @@ -1,40 +1,25 @@ --- +app_id: google_workspace_alert_center categories: - recopilación de logs - seguridad custom_kind: integración -dependencies: [] description: Recopila logs del Centro de alertas de Google Workspace. -doc_link: https://docs.datadoghq.com/integrations/google_workspace_alert_center/ -draft: false further_reading: - link: https://www.datadoghq.com/blog/google-workspace-monitoring tag: Blog text: Monitorización de Google Workspace con Datadog -git_integration_title: google_workspace_alert_center -has_logo: true -integration_id: '' -integration_title: Centro de alertas de Google Workspace -integration_version: '' -is_public: true -manifest_version: '1.0' -name: google_workspace_alert_center -public_title: Centro de alertas de Google Workspace -short_description: Recopila logs del Centro de alertas de Google Workspace. -team: integraciones-web -version: '1.0' +title: Centro de alertas de Google Workspace --- - - ## Información general El Centro de alertas ofrece una vista completa de las alertas, las acciones y las notificaciones relacionadas con la seguridad, en todo Google Workspace. Realiza la integración del Centro de alertas de Google Workspace con Datadog para: -- Visualiza y analiza tus logs de alertaa utilizando [productos de logs de Datadog][1]. -- Configura [monitores][2] para [eventos][3] de tu dominio Google Workspace. -- Aprovecha la [Plataforma de seguridad][4] de Datadog para monitorizar y detectar amenazas en todo tu dominio Google Workspace. +- Ve y analiza tus logs de alerta utilizando el [producto Logs de Datadog](https://app.datadoghq.com/logs/). +- Establece [monitores](https://app.datadoghq.com/monitors/monitor_types/) en [eventos](https://app.datadoghq.com/events/) desde tu dominio de Google Workspace. +- Aprovecha la [Plataforma de seguridad] de Datadog(https://app.datadoghq.com/security_platform/) para monitorizar y detectar amenazas en todo tu dominio de Google Workspace. ## Configuración @@ -45,19 +30,19 @@ una conexión API entre Google y Datadog. A continuación se ofrecen instruccion de servicio y proporcionar a Datadog las credenciales de esa cuenta de servicio, para que comience a realizar llamadas a la API. en tu nombre. -**Nota**: Asegúrate de haber activado la [API del Centro de alertas de Google Workspace][5]. +**Nota**: Asegúrate de que has activado la [API de Google Workspace Alert Center](https://developers.google.com/admin-sdk/alertcenter/reference/rest). -1. Sigue las [instrucciones para la creación y la autorización de cuentas de servicio][6]. Necesitas - acceso de superadministrador para completar estos pasos. Anota la ubicación en que guardas el archivo JSON de clave privada como parte de este proceso. Delega autoridad en todo el dominio a la cuenta de servicio, como se ha descrito, concediendo el contexto `https://www.googleapis.com/auth/apps.alerts` en el proceso. - 1. En la página `Service account details` de tu consola GCP, haz clic en el botón `Create Google Workspace Marketplace-Compatible OAuth Client` situado en la parte inferior de la sección `Advanced settings`. -2. Ve al [cuadro de la integración del Centro de alertas de Google Workspace en Datadog][7]. -3. En la pestaña **Configuración**, selecciona Upload Private Key File (Cargar archivo de clave privada) para integrar este proyecto. +1. Sigue las [instrucciones de creación y autorización de cuentas de servicio](https://developers.google.com/identity/protocols/oauth2/service-account). Necesitas + acceso de superadministrador para completar estos pasos. Ten en cuenta la ubicación en la que guardas el archivo JSON de la clave privada como parte de ese proceso. Delega autoridad en todo el dominio a la cuenta de servicio como se ha descrito, concediendo el alcance `https://www.googleapis.com/auth/apps.alerts` en el proceso. +1. En la página `Service account details` de tu consola GCP, haz clic en el botón `Create Google Workspace Marketplace-Compatible OAuth Client` situado en la parte inferior de la sección `Advanced settings`. +1. Navega hasta el cuadro [de integración de Datadog Google Workspace Alert Center](http://app.datadoghq.com/integrations/google-workspace-alert-center). +1. En la pestaña **Configuración**, selecciona Upload Private Key File (Cargar archivo de clave privada) para integrar este proyecto. con Datadog. Selecciona el archivo JSON de clave privada que guardaste en el primer paso. -4. Introduce el Correo electrónico del asunto, que es la dirección de correo electrónico de una cuenta de usuario o robot con - acceso al Centro de Alertas. No utilices la dirección de correo electrónico asociada a la propia cuenta de servicio. +1. Introduce el Correo electrónico del asunto, que es la dirección de correo electrónico de una cuenta de usuario o robot con + Acceso a Alert Center. No utilices la dirección de correo electrónico asociada a la propia cuenta de servicio. La integración se hace pasar por este usuario al realizar llamadas a la API. -Si quieres monitorizar varios proyectos, puedes repetir el proceso anterior para utilizar varias +Si deseas monitorizar múltiples proyectos, puedes repetir el proceso anterior para utilizar múltiples cuentas de servicio. ### Configuración @@ -67,8 +52,8 @@ de ese proyecto en Datadog. ### Resultados -Espera al menos cinco minutos hasta que veas aparecer [logs][1] debajo de la fuente `google.workspace.alert.center`. Puede que tengas que esperar -más tiempo, si tu entorno genera alertas del Centro de alertas con poca frecuencia. +Espera al menos cinco minutos para ver los [logs](https://app.datadoghq.com/logs/) debajo de la fuente `google.workspace.alert.center` . Puede que tengas que esperar +más tiempo si tu entorno genera alertas de Alert Center con poca frecuencia. ## Datos recopilados @@ -78,7 +63,7 @@ Este Centro de alertas de Google Workspace no incluye datos de métricas. ### Eventos -Para obtener la lista completa de los eventos de logs, consulta la [documentación del Centro de alertas de Google Workspace][8]. +Para obtener la lista completa de eventos de log, consulta la [documentación de Google Workspace Alert Center](https://support.google.com/a/answer/9104586?hl=en&ref_topic=9105077). ### Checks de servicio @@ -86,18 +71,8 @@ La integración del Centro de alertas de Google Workspace no incluye checks de s ## Solucionar problemas -¿Necesitas ayuda? [Consulta el servicio de asistencia de Datadog][9]. - -## Leer más +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). -{{< partial name="whats-next/whats-next.html" >}} +## Referencias adicionales -[1]: /es/logs/ -[2]: /es/monitors/monitor_types/ -[3]: /es/events/ -[4]: /es/security_platform/ -[5]: https://developers.google.com/admin-sdk/alertcenter/reference/rest -[6]: https://developers.google.com/identity/protocols/oauth2/service-account -[7]: http://app.datadoghq.com/integrations/google-workspace-alert-center -[8]: https://support.google.com/a/answer/9104586?hl=en&ref_topic=9105077 -[9]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/integrations/gsuite.md b/content/es/integrations/gsuite.md index 2226e8476034d..16801bca0f082 100644 --- a/content/es/integrations/gsuite.md +++ b/content/es/integrations/gsuite.md @@ -1,96 +1,62 @@ --- app_id: gsuite -app_uuid: a1ec70d4-dbe1-4e76-8e40-062df1fff1a5 -assets: - integration: - auto_install: false - events: - creates_events: false - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 601 - source_type_name: Google Workspace -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - recopilación de logs - colaboración - seguridad custom_kind: integración -dependencies: [] -display_on_public_website: true -draft: false -git_integration_title: gsuite -integration_id: gsuite -integration_title: Google Workspace -integration_version: '' -is_public: true -manifest_version: 2.0.0 -name: gsuite -public_title: Google Workspace -short_description: Importación de tus logs de auditoría y seguridad de Google Workspace +description: Importación de tus logs de auditoría y seguridad de Google Workspace a Datadog -supported_os: [] -tile: - changelog: CHANGELOG.md - classifier_tags: - - Categoría::Recopilación de logs - - Categoría::Colaboración - - Categoría::Seguridad - - Oferta::Integración - configuration: README.md#Configuración - description: Importación de tus logs de auditoría y seguridad de Google Workspace - a Datadog - media: [] - overview: README.md#Información general - support: README.md#Soporte - title: Google Workspace +integration_version: 1.0.0 +media: [] +title: Google Workspace --- - - ## Información general Importa tus logs de auditoría y seguridad de Google Workspace a Datadog. Cuando se habilita esta integración, Datadog empieza a extraer automáticamente logs para los siguientes servicios Google Workspace: -|Servicio|Descripción| -|---------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| -|Transparencia del acceso|Los informes de actividad de Transparencia del acceso de Google Workspace devuelven información sobre distintos tipos de eventos de actividad de Transparencia del acceso.| -|Administración|Los informes de actividad de la aplicación Consola de administración devuelven información sobre diferentes tipos de eventos de actividad del administrador.| -|Calendario|Los informes de actividad de la aplicación Google Calendar devuelven información sobre diferentes eventos de actividad del Calendar.| -|Chrome|El informe de actividad de Chrome devuelve información sobre la actividad de ChromeOS de todos los usuarios de tu cuenta. Cada informe utiliza la solicitud de endpoint básica y proporciona parámetros específicos del informe, como inicios de sesión, adición o eliminación de usuarios o eventos de navegación insegura.| -|Acceso contextual|El informe de actividad de acceso contextual devuelve información sobre denegaciones de acceso a aplicaciones a los usuarios de tu cuenta. Utiliza la solicitud de endpoint de informe básico y proporciona parámetros específicos como el ID del dispositivo y la aplicación a la que se denegó el acceso.| -|Google Drive|Los informes de actividad de la aplicación Google Drive devuelven información sobre diferentes eventos de actividad de Google Drive. El informe de actividad de Drive sólo está disponible para los clientes de Google Workspace Business.| -|Google Chat|El informe de actividad de Google Chat devuelve información sobre cómo los usuarios de tu cuenta utilizan y gestionan Spaces. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como cargas u operaciones de mensajes.| -|Google Cloud|El informe de actividad de Google Cloud devuelve información sobre diferentes eventos de actividad relacionados con la API de inicio de sesión en sistemas operativos en la nube (Cloud OS).| -|Google Keep|El informe de actividad de Google Keep devuelve información sobre cómo los usuarios de tu cuenta gestionan y modifican sus notas. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como información de carga de archivos adjuntos u operaciones de notas.| -|Google Meet|El informe de actividad Google Meet devuelve información sobre diferentes aspectos de eventos de llamadas. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como datos de informes de abuso o datos de observación de transmisiones en directo.| -|GPlus|Los informes de actividad de la aplicación GPlus devuelven información sobre diferentes eventos de actividad de GPlus.| -|Grupos|Los informes de actividad de la aplicación Grupos de Google proporcionan información sobre diferentes eventos de actividad de Grupos.| -|Grupos de empresas|Los informes de actividad de Grupos de empresas devuelven información sobre diferentes eventos de actividad de Grupos de empresa.| -|Jamboard|El informe de actividad de Jamboard devuelve información sobre los cambios en los parámetros del dispositivo Jamboard. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como la licencia o los parámetros de emparejamiento de dispositivos.| -|Inicio de sesión|Los informes de actividad de la aplicación de Inicio de sesión devuelven información contable sobre diferentes tipos de eventos de actividad de Inicio de sesión.| -|Móvil|Los informes de actividad de Auditoría móvil devuelven información sobre diferentes tipos de eventos de actividad de Auditoría móvil.| -|Reglas|Los informes de actividad de Reglas devuelven información sobre diferentes tipos de eventos de actividad de Reglas.| -|Token|Los informes de actividad de la aplicación Token devuelven información contable sobre distintos tipos de eventos de actividad de Token.| -|SAML|El informe de actividad de SAML devuelve información sobre los resultados de los intentos de inicio de sesión SAML. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como el tipo de fallo y el nombre de la aplicación SAML.| -|Cuentas de usuario|Los informes de actividad de la aplicación Cuentas de usuario ofrecen información sobre diferentes tipos de eventos de actividad de Cuentas de usuario.| +| Servicio | Descripción | +| -------------------- | ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | +| Transparencia del acceso | Los informes de actividad de Transparencia del acceso de Google Workspace devuelven información sobre distintos tipos de eventos de actividad de Transparencia del acceso. | +| Admin | Los informes de actividad de la aplicación Consola de administración devuelven información sobre diferentes tipos de eventos de actividad del administrador. | +| Calendario | Los informes de actividad de la aplicación Google Calendar devuelven información sobre diferentes eventos de actividad del Calendar. | +| Chrome | El informe de actividad de Chrome devuelve información sobre la actividad de ChromeOS de todos los usuarios de tu cuenta. Cada informe utiliza la solicitud de endpoint básica y proporciona parámetros específicos del informe, como inicios de sesión, adición o eliminación de usuarios o eventos de navegación insegura. | +| Acceso contextual | El informe de actividad de acceso contextual devuelve información sobre denegaciones de acceso a aplicaciones a los usuarios de tu cuenta. Utiliza la solicitud de endpoint de informe básico y proporciona parámetros específicos como el ID del dispositivo y la aplicación a la que se denegó el acceso. | +| Google Drive | Los informes de actividad de la aplicación Google Drive devuelven información sobre diferentes eventos de actividad de Google Drive. El informe de actividad de Drive sólo está disponible para los clientes de Google Workspace Business. | +| Google Chat | El informe de actividad de Google Chat devuelve información sobre cómo los usuarios de tu cuenta utilizan y gestionan Spaces. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como cargas u operaciones de mensajes. | +| Google Cloud | El informe de actividad de Google Cloud devuelve información sobre diferentes eventos de actividad relacionados con la API de inicio de sesión en sistemas operativos en la nube (Cloud OS). | +| Google Keep | El informe de actividad de Google Keep devuelve información sobre cómo los usuarios de tu cuenta gestionan y modifican sus notas. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como información de carga de archivos adjuntos u operaciones de notas. | +| Google Meet | El informe de actividad Google Meet devuelve información sobre diferentes aspectos de eventos de llamadas. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como datos de informes de abuso o datos de observación de transmisiones en directo. | +| GPlus | Los informes de actividad de la aplicación GPlus devuelven información sobre diferentes eventos de actividad de GPlus. | +| Grupos | Los informes de actividad de la aplicación Grupos de Google proporcionan información sobre diferentes eventos de actividad de Grupos. | +| Grupos de empresas | Los informes de actividad de Grupos de empresas devuelven información sobre diferentes eventos de actividad de Grupos de empresa. | +| Jamboard | El informe de actividad de Jamboard devuelve información sobre los cambios en los parámetros del dispositivo Jamboard. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como la licencia o los parámetros de emparejamiento de dispositivos. | +| Inicio de sesión | Los informes de actividad de la aplicación de Inicio de sesión devuelven información contable sobre diferentes tipos de eventos de actividad de Inicio de sesión. | +| Móvil | Los informes de actividad de Auditoría móvil devuelven información sobre diferentes tipos de eventos de actividad de Auditoría móvil. | +| Reglas | Los informes de actividad de Reglas devuelven información sobre diferentes tipos de eventos de actividad de Reglas. | +| Token | Los informes de actividad de la aplicación Token devuelven información contable sobre distintos tipos de eventos de actividad de Token. | +| SAML | El informe de actividad de SAML devuelve información sobre los resultados de los intentos de inicio de sesión SAML. Cada informe utiliza la solicitud de endpoint básica con parámetros específicos del informe, como el tipo de fallo y el nombre de la aplicación SAML. | +| Cuentas de usuario | Los informes de actividad de la aplicación Cuentas de usuario ofrecen información sobre diferentes tipos de eventos de actividad de Cuentas de usuario. | +| Vault | Los logs de las acciones realizadas en la consola de Vault, como qué usuarios editaron reglas de retención o descargaron archivos de exportación. | ## Configuración + ### Instalación -Sigue la documentación [API de informes: Requisitos previos][1] del SDK de administración de Google Workspace antes de configurar la integración Google Workspace en Datadog. +1. Consulta la documentación de [API de informes: requisitos previos](https://developers.google.com/admin-sdk/reports/v1/guides/prerequisites) para Google Workspace Admin SDK para confirmar los requisitos previos antes de configurar la integración Datadog y Google Workspace. -**Nota**: Es posible que la configuración requiera ciertos contextos OAuth. Consulta la documentación [Autorizar solicitudes][2] del SDK de administración de Google Workspace. +1. Es posible que se requieran determinados alcances de OAuth para la configuración, tal y como se documenta en la página [Solicitudes de autorización](https://developers.google.com/workspace/guides/configure-oauth-consent) de Google Workspace Admin SDK. Sigue los pasos de la sección [Configurar el consentimiento de OAuth](https://app.datadoghq.com/account/settings#integrations/gsuite) de la página para definir el alcance adecuado.
+ **Notas**:
+ \- [Elige los alcances de la API de informes](https://developers.google.com/admin-sdk/reports/v1/reference/activities/list) para proporcionar el nivel mínimo de acceso necesario.
+ \- **No** necesitas [crear credenciales de acceso](https://docs.datadoghq.com/help/) para la aplicación. -Para configurar la integración Google Workspace en Datadog, haz clic en el botón *Connect a new Google Workspace domain* (Conectar un nuevo dominio de Google Workspace) en el [cuadro de tu integración Google Workspace en Datadog][3] y autoriza a Datadog a acceder a la API de administración de Google Workspace. +1. Para configurar la integración de Google Workspace en Datadog, haz clic en el botón _Connect a new Google Workspace domain_ (Conectar un nuevo dominio de Google Workspace) en tu [cuadro de integración de Datadog y Google Workspace](https://app.datadoghq.com/account/settings#integrations/gsuite) y autoriza a Datadog a acceder a la API de Google Workspace Admin. ## Datos recopilados + ### Logs -Para obtener información detallada de los logs y su contenido, consulta la [documentación del SDK de administración de Google Workspace][4]. +Consulta la [documentación de Google Workspace Admin SDK](https://developers.google.com/admin-sdk/reports/v1/reference/activities/list) para obtener la lista completa de logs recopilados y su contenido. **Nota**: Los logs de Groups, Grupos de empresa, Inicio de sesión, Token y Calendar se rastrean cada 90 minutos debido a una limitación en la frecuencia con la que Google sondea estos logs. Los logs de esta integración solo se envían cada 1,5-2 horas. @@ -108,10 +74,4 @@ La integración Google Workspace no incluye checks de servicio. ## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5]. - -[1]: https://developers.google.com/admin-sdk/reports/v1/guides/prerequisites -[2]: https://developers.google.com/admin-sdk/reports/v1/guides/authorizing#OAuth2Authorizing -[3]: https://app.datadoghq.com/account/settings#integrations/gsuite -[4]: https://developers.google.com/admin-sdk/reports/v1/reference/activities/list -[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/hbase_master.md b/content/es/integrations/hbase_master.md new file mode 100644 index 0000000000000..66fa36901ff91 --- /dev/null +++ b/content/es/integrations/hbase_master.md @@ -0,0 +1,245 @@ +--- +app_id: hbase-master +app_uuid: e53ed650-6454-4f69-abfc-2cedd35ec2c3 +assets: + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: hbase.master.assignmentmanager.rit_oldest_age + metadata_path: metadata.csv + prefix: hbase. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10228 + source_type_name: HBase maestro + logs: + source: hbase +author: + homepage: https://github.com/DataDog/integrations-extras + name: Comunidad + sales_email: everpeace@gmail.com + support_email: everpeace@gmail.com +categories: +- almacenes de datos +- recopilación de logs +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/hbase_master/README.md +display_on_public_website: true +draft: false +git_integration_title: hbase_master +integration_id: hbase-master +integration_title: Hbase maestro +integration_version: 1.1.1 +is_public: true +manifest_version: 2.0.0 +name: hbase_master +public_title: Hbase maestro +short_description: Integración de HBase maestro. +supported_os: +- linux +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Supported OS::Windows + - Category::Data Stores + - Categoría::Recopilación de logs + - Offering::Integration + configuration: README.md#Setup + description: Integración de HBase maestro. + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: Hbase maestro +--- + + + + +## Información general + +Obtén métricas del servicio Hbase_master en tiempo real para: + +- Visualiza y monitoriza estados de Hbase_master. +- Recibe notificaciones sobre conmutaciones por error y eventos de Hbase_master. + +## Configuración + +El check de Hbase_master no está incluido en el paquete del [Datadog Agent][1], por lo que es necesario instalarlo. + +### Instalación + +Para el Agent v7.21/v6.21 o posteriores, sigue las instrucciones a continuación para instalar el check de Hbase_master en tu host. Para instalarlo con el Agent Docker o versiones anteriores del Agent, consulta [Uso de integraciones de la comunidad][2]. + +1. Ejecuta el siguiente comando para instalar la integración del Agent: + + ```shell + datadog-agent integration install -t datadog-hbase_master== + ``` + +2. Configura tu integración como una [integración][3] de base. + +### Configuración + +1. Edita el archivo `hbase_master.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][4] para empezar a recopilar las [métricas](#metrics) de Hbase_master. Consulta el [hbase_master.d/conf.yaml de ejemplo][5] para conocer todas las opciones de configuración disponibles. + + **NOTA**: Si utilizas el Agent v6, asegúrate de modificar el archivo [`hbase_master.d/metrics.yaml`][6] y entrecomilla las claves booleanas. + + ```yaml + - include: + domain: Hadoop + bean: + - Hadoop:service=HBase,name=Master,sub=Server + attribute: + # Is Active Master + tag.isActiveMaster: + metric_type: gauge + alias: hbase.master.server.tag.is_active_master + values: {"true": 1, "false": 0, default: 0} + ``` + +2. [Reinicia el Agent][7] + +### Recopilación de logs + +1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent; debes habilitarla en el archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Añade este bloque de configuración a tu archivo `hbase_master.d/conf.yaml` para empezar a recopilar tus logs de Hbase_master: + + ```yaml + logs: + - type: file + path: /path/to/my/directory/file.log + source: hbase + ``` + + Cambia el valor del parámetro `path` y configúralo para tu entorno. + Para conocer todas las opciones de configuración disponibles, consulta el [hbase_master.d/conf.yaml de ejemplo][8]. + +3. [Reinicia el Agent][7]. + +### Validación + +[Ejecuta el subcomando de estado del Agent][8] y busca `hbase_master` en la sección **Checks**. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "hbase_master" >}} + + +### Eventos + +El check de Hbase_master no incluye eventos. + +### Checks de servicios + +El check de Hbase_master no incluye checks de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? [Consulta el servicio de asistencia de Datadog][9]. + + + + + +## Integración HBase RegionServer + +## Información general + +Obtén métricas del servicio HBase RegionServer en tiempo real para: + +- Visualiza y monitoriza estados de HBase RegionServer. +- Recibe notificaciones sobre fallos y eventos de HBase RegionServer. + +## Configuración + +El check de y eventos no está incluido en el paquete del [Datadog Agent][1], por lo que es necesario instalarlo. + +### Instalación + +Para el Agent v7.21/v6.21 o posteriores, sigue las instrucciones a continuación para instalar el check de y eventos en tu host. Para instalarlo con el Agent Docker o versiones anteriores del Agent, consulta [Uso de integraciones de la comunidad][2]. + +1. Ejecuta el siguiente comando para instalar la integración del Agent: + + ```shell + datadog-agent integration install -t datadog-hbase_regionserver== + ``` + +2. Configura tu integración como una [integración][3] de base. + +### Configuración + +1. Edita el archivo `hbase_regionserver.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][4] para empezar a recopilar las [métricas](#metrics) de HBase RegionServer. Consulta el [hbase_regionserver.d/conf.yaml de ejemplo][10] para conocer todas las opciones de configuración disponibles. + +2. [Reinicia el Agent][7] + +### Recopilación de logs + +1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent; debes habilitarla en el archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Añade este bloque de configuración a tu archivo `hbase_regionserver.d/conf.yaml` para empezar a recopilar tus logs de Hbase_regionserver: + + ```yaml + logs: + - type: file + path: /path/to/my/directory/file.log + source: hbase + ``` + + Cambia el valor del parámetro `path` y configúralo para tu entorno. + Para conocer todas las opciones de configuración disponibles, consulta el [hbase_regionserver.d/conf.yaml de ejemplo][10]. + +3. [Reinicia el Agent][7]. + +## Validación + +[Ejecuta el subcomando de estado del Agent][8] y busca `hbase_regionserver` en la sección **Checks**. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "hbase_regionserver" >}} + + +### Eventos + +El check de HBase RegionServer check no incluye eventos. + +### Checks de servicios + +El check de HBase RegionServer check no incluye checks de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? [Consulta el servicio de asistencia de Datadog][9]. + + + +[1]: https://app.datadoghq.com/account/settings/agent/latest +[2]: https://docs.datadoghq.com/es/agent/guide/use-community-integrations/ +[3]: https://docs.datadoghq.com/es/getting_started/integrations/ +[4]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/#agent-configuration-directory +[5]: https://github.com/DataDog/integrations-extras/blob/master/hbase_master/datadog_checks/hbase_master/data/conf.yaml.example +[6]: https://github.com/DataDog/integrations-extras/blob/master/hbase_master/datadog_checks/hbase_master/data/metrics.yaml +[7]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[8]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#service-status +[9]: http://docs.datadoghq.com/help +[10]: https://github.com/DataDog/integrations-extras/blob/master/hbase_regionserver/datadog_checks/hbase_regionserver/data/conf.yaml.example \ No newline at end of file diff --git a/content/es/integrations/jira.md b/content/es/integrations/jira.md new file mode 100644 index 0000000000000..a3c88443a74ba --- /dev/null +++ b/content/es/integrations/jira.md @@ -0,0 +1,148 @@ +--- +app_id: jira +categories: +- collaboration +- developer tools +- issue tracking +- notifications +custom_kind: integración +description: Haz que tus alertas de Datadog se autogeneren y posteriormente actualicen + tickets de Jira. +title: Jira +--- +## Información general + +Jira es un sistema de rastreo de problemas y proyectos para equipos de software. La integración de Datadog Jira permite crear problemas a partir de alertas, incidentes y casos activados en Datadog y ver los problemas creados en Jira como eventos de Datadog. + +## Configuración + +### Crear un enlace de aplicación en Jira + +#### Instrucciones de Jira Cloud + +1. Ve a Jira. + +1. Haz clic en el icono de engranaje de la esquina derecha y selecciona **Products** (Productos). + +1. En el menú de la izquierda, en **Integrations** (Integraciones), haz clic en **Application links** (Enlaces de aplicación) y, a continuación, en **Create link** (Crear enlace). + +1. Selecciona la casilla **Direct application link** (Enlace directo a la aplicación), introduce la URL `https://{{< region-param key="dd_full_site" code="true" >}}` y haz clic en **Continue** (Continuar). + +1. Ignora la advertencia "No response was received from the URL you entered" (No se ha recibido respuesta de la URL introducida) y haz clic en **Continue** (Continuar). + +1. Rellena el formulario como se indica a continuación y haz clic en **Continue** (Continuar). + + | Campo | Entrada | + |-----------------------|--------------------------------| + | Nombre de la aplicación | `{Enter a name (e.g. Datadog)}`| + | Tipo de aplicación | Aplicación genérica | + | Nombre del proveedor de servicios | `{leave blank}` | + | Clave del consumidor | `{leave blank}` | + | Secreto compartido | `{leave blank}` | + | URL del token de solicitud | `{leave blank}` | + | URL del token de acceso | `{leave blank}` | + | Autorizar URL | `{leave blank}` | + | Crear enlace de entrada | Marcar la casilla | + +1. Rellena el siguiente formulario y haz clic en **Continue** (Continuar). Para encontrar la clave pública en el [cuadro de la integración Datadog Jira](https://app.datadoghq.com/integrations/jira), haz clic en **Add Account** (Añadir cuenta). + + | Campo | Entrada | + |---------------|------------------------------------------------------------| + | Clave del consumidor | `{Enter a key name (e.g. datadog)}` | + | Nombre del consumidor | Datadog | + | Clave pública | `{Enter the public key from Datadog Jira integration tile}`| + +#### Instrucciones de Jira Data Center + +1. Ve a Jira. +1. Haz clic en el icono de engranaje de la esquina derecha y selecciona **Applications** (Aplicaciones). +1. En el menú de la izquierda, en **Integrations** (Integraciones), haz clic en **Application links** (Enlaces de aplicación) y, a continuación, en **Create link** (Crear enlace). +1. En el cuadro de diálogo **Create link** (Crear enlace), selecciona **Atlassian product** (Producto Atlassian) y proporciona la URL de la aplicación como `https://{{< region-param key="dd_full_site" code="true" >}}`. Haz clic en **Continue** (Continuar). +1. Ignora la advertencia "No response was received from the URL you entered" (No se ha recibido respuesta de la URL introducida) y haz clic en **Continue** (Continuar). +1. Rellena el formulario utilizando los mismos parámetros que se muestran arriba en las instrucciones de Jira Cloud. + +### Conectar Datadog a tu instancia de Jira + +
+Datadog recomienda especialmente tener una cuenta de servicio Jira exclusiva (no personal) específicamente para esta integración, para obtener resultados óptimos y más coherentes. +
+ +1. Ve al [cuadro de la integración Datadog Jira](https://app.datadoghq.com/integrations/jira) y haz clic en **Add Account** (Añadir cuenta). +1. Introduce la URL de tu instancia de Jira y la clave de consumidor del enlace de aplicación que creaste anteriormente. +1. Haz clic en **Connect** (Conectar) y sigue las instrucciones de la página de autorización de Jira. Asegúrate de iniciar sesión en esta cuenta antes de pulsar **Connect** (Conectar). + **Nota**: La integración Datadog Jira puede conectarse a instancias On-Premises/Jira Data Center. Sin embargo, muchas de estas instancias tienen listas negras de rangos de IP. Para que la integración funcione, sigue la documentación de filtrado de IP que aparece a continuación. + +### Filtrado de IP + +Si tu instancia de Jira filtra el tráfico por dirección IP, necesitas permitir conexiones desde los prefijos IP de **webhooks** +pertenecientes a Datadog para que la integración funcione. Para consultar una lista de prefijos IP de **webhooks** de tu región, consulta [Rangos de IP de Datadog](https://docs.datadoghq.com/api/latest/ip-ranges/). + +### Configuración adicional + +Para configurar la creación automática de incidentes de Jira con sincronización bidireccional en Case Management, consulta las instrucciones para [configurar un webhook de Jira](#configure-a-jira-webhook) y la documentación de [Case Management](https://docs.datadoghq.com/service_management/case_management/settings/#jira). + +Para crear incidentes de Jira a partir de alertas de monitor de Datadog, consulta [Configurar una plantilla de incidentes](#configure-an-issue-template). + +## Configurar un webhook de Jira + +La configuración de un webhook permite que los casos creados en Case Management creen automáticamente incidentes en Jira y mantengan sincronizados ambos recursos. + +Para crear un webhook de Jira: + +1. En Jira, haz clic en el icono **Gear** (Engranaje) de la esquina superior derecha y selecciona **System** (Sistema). +1. En el menú de la izquierda, en *Advanced* (Avanzado), haz clic en **Webhooks**. +1. Haz clic en **Create a Webhook** (Crear un webhook) en la esquina derecha. +1. Introduce `Datadog Webhook` como nombre del webhook. +1. Mantén el estado como **Enabled** (Habilitado). +1. Ve al [cuadro de la integración Datadog Jira](https://app.datadoghq.com/account/settings#integrations/jira). +1. En la sección Webhooks, copia la URL del webhook. +1. Vuelve a Jira y pega la URL del webhook en *URL*. +1. Habilita los siguientes eventos relacionados con problemas. Si solo quieres enviar un subconjunto de eventos de problemas, puedes utilizar JQL para filtrarlos. En este ejemplo, estamos filtrando solo para los proyectos AB y CD. + {{< img src="integrations/jira/jira_issue_events.png" alt="Eventos de incidentes en Jira" style="width:80%;">}} +1. Habilita los eventos relacionados con el proyecto `deleted`. +1. Deja todo lo demás sin marcar. +1. Haz clic en el botón **Create** (Crear) situado en la parte inferior de la página. + +## Configurar una plantilla de problema + +Las plantillas de problemas definen cómo se crean los problemas en Jira a partir de eventos de alerta de Datadog. + +Para crear una plantilla de problemas: + +1. En Datadog, haz clic en **New Issue Template** (Nueva plantilla de problema) en la sección **Connect Jira to Monitor Notifications** (Conectar Jira a notificaciones de monitor). +1. Introduce un nombre para tu plantilla de problemas. Este nombre, prefijado con `jira-`, se convierte en el identificador que puedes utilizar en tu monitor para enviar notificaciones (como `jira-my-issue-template-name`). +1. Selecciona una cuenta de Jira. +1. Selecciona el proyecto y el tipo de proyecto (como **Historia**, **Épica**, **Tarea** o **Problema**). +1. Aparece una lista de campos configurables. Introduce los valores en los campos deseados y haz clic en **Save** (Guardar). + +### Configurar campos del problema + +Los campos de plantilla de problemas definen los datos que se incluyen al crear problemas en Jira. Por ejemplo, puedes configurar tu plantilla para crear problemas con una prioridad específica o un asignatario predeterminado. + +Puedes utilizar los datos del evento de alerta para rellenar los valores de los campos del incidente utilizando variables de plantilla como `${EVENT_TITLE}`. Para ver una lista de posibles variables, consulta la [integración de webhooks de Datadog](https://docs.datadoghq.com/integrations/webhooks/). + +## Utilización + +#### Creación automática de problemas a partir de las alertas de Datadog + +Para crear problemas de Jira a partir de eventos de alerta de Datadog, introduce el identificador de notificación de una o varias plantillas de problemas como `@jira-my-issue-template` al crear un monitor en las secciones **Notify your team** o **Say what's happening** (Notifica a tu equipo o Di lo que está pasando). + +Los problemas se crean cuando se activa el monitor. El monitor no crea nuevos problemas hasta que se resuelve el monitor. + +## Datos recopilados + +### Métricas + +La integración de Jira no incluye ninguna métrica. + +### Eventos + +Todos los problemas de Jira creados aparecen como eventos en Datadog. + +### Checks de servicio + +La integración de Jira no incluye ningún check de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/juniper_srx_firewall.md b/content/es/integrations/juniper_srx_firewall.md new file mode 100644 index 0000000000000..32c1eeb4516a3 --- /dev/null +++ b/content/es/integrations/juniper_srx_firewall.md @@ -0,0 +1,246 @@ +--- +app_id: juniper-srx-firewall +app_uuid: 0451c670-94dc-490e-86b7-b23b5a7cdceb +assets: + dashboards: + Juniper SRX Firewall - Authentication Logs: assets/dashboards/juniper_srx_firewall_authentication_logs.json + Juniper SRX Firewall - Overview: assets/dashboards/juniper_srx_firewall_overview.json + Juniper SRX Firewall - Security Logs: assets/dashboards/juniper_srx_firewall_security_logs.json + Juniper SRX Firewall - Session Logs: assets/dashboards/juniper_srx_firewall_session_logs.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + source_type_id: 40625309 + source_type_name: Juniper SRX Firewall + logs: + source: juniper-srx-firewall +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +- seguridad +- red +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/juniper_srx_firewall/README.md +display_on_public_website: true +draft: false +git_integration_title: juniper_srx_firewall +integration_id: juniper-srx-firewall +integration_title: Juniper SRX Firewall +integration_version: 1.0.0 +is_public: true +manifest_version: 2.0.0 +name: juniper_srx_firewall +public_title: Juniper SRX Firewall +short_description: Obtener información sobre logs de Juniper SRX Firewall +supported_os: +- linux +- windows +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Sistema operativo compatible::Linux + - Sistema operativo compatible::Windows + - Sistema operativo compatible::macOS + - Categoría::Recopilación de logs + - Categoría::Seguridad + - Categoría::Red + - Oferta::Integración + - Tipo de datos enviados::Logs + configuration: README.md#Configuración + description: Obtener información sobre logs de Juniper SRX Firewall + media: + - caption: Juniper SRX Firewall - Información general + image_url: images/juniper_srx_firewall_overview.png + media_type: imagen + - caption: Juniper SRX Firewall - Logs de sesión + image_url: images/juniper_srx_firewall_session_logs.png + media_type: imagen + - caption: Juniper SRX Firewall - Logs de seguridad + image_url: images/juniper_srx_firewall_security_logs.png + media_type: imagen + - caption: Juniper SRX Firewall - Logs de autenticación + image_url: images/juniper_srx_firewall_authentication_logs.png + media_type: imagen + overview: README.md#Información general + support: README.md#Soporte + title: Juniper SRX Firewall +--- + + +## Información general + +[Juniper SRX Firewall][1] protege tu borde de red, centro de datos y aplicaciones de nube mediante la detección y mitigación de intrusiones, software malicioso y otras amenazas. + +Esta integración analiza los siguientes tipos de logs: + +- **Logs de sesión**: Realiza un seguimiento del tráfico de red y las actividades de sesión, incluidas las sesiones iniciadas y denegadas, el tráfico relacionado con aplicaciones y los paquetes descartados. +- **Logs de seguridad**: Monitoriza eventos de seguridad como detecciones de software malicioso, intentos de intrusión, ataques DoS y actividades de filtrado de contenidos. +- **Logs de autenticación**: Captura las actividades de autenticación, incluidos los intentos exitosos y fallidos de inicio de sesión. + +Obtén una visibilidad detallada de estos logs mediante dashboards predefinidos y refuerza la seguridad con reglas de detección Cloud SIEM preconfiguradas para una monitorización y una respuesta proactiva en caso de amenazas. + +## Configuración + +### Instalación + +Para instalar la integración Juniper SRX Firewall, ejecuta el siguiente comando de instalación del Agent en tu terminal. Para obtener más información, consulta la documentación [Gestión de integraciones][2]. + +**Nota**: Este paso no es necesario para versiones >= 7.64.0 del Agent. + +```shell +sudo -u dd-agent -- datadog-agent integration install datadog-juniper_srx_firewall==1.0.0 +``` + +### Configuración + +#### Configurar la recopilación de log + +1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en el archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Añade el siguiente bloque de configuración a tu archivo `juniper_srx_firewall.d/conf.yaml` para empezar a recopilar logs. Consulta el [ejemplo `conf.yaml`][3] para ver las opciones de configuración disponibles. + + ```yaml + logs: + - type: udp + port: + source: juniper-srx-firewall + service: juniper-srx-firewall + ``` + + **Nota**: + + - `PORT`: Especifica el puerto UDP en el que escuchará Datadog (por defecto: 514). + - No modifiques los valores de `service` y `source`, ya que forman parte integrante del correcto procesamiento de pipelines de logs. + +3. [Reinicia el Agent][4]. + +#### Configurar el reenvío de mensajes Syslog desde Juniper SRX Firewall + +1. Inicia sesión en la CLI de Juniper SRX Firewall. + +2. Ingresa en el modo de configuración: + ```shell + configure + ``` + +3. Para enviar logs al Datadog Agent, ejecute los siguientes comandos: + ```shell + set system syslog host any any + set system syslog host port + set system syslog host structured-data brief + ``` + **Nota**: + - Sustituye `` por la dirección IP del Datadog Agent. + - Sustituye `` por el mismo puerto configurado en [Recopilación de logs][5]. + +4. Comprueba si `Security Logging` está activado: + ```shell + show security log mode + ``` + Si está activado, el resultado mostrará `mode stream;` o `mode event-stream;` + +5. Si `Security Logging` está activado, configura la transmisión de logs: + ```shell + set security log stream format sd-syslog + set security log stream category all + set security log stream host + set security log stream host port + set security log transport protocol udp + ``` + +6. Aplica los cambios y sal de la configuración: + ``` + commit + exit + ``` + +### Validación + +[Ejecuta el subcomando de estado del Agent][6] y busca `juniper_srx_firewall` en la sección Checks. + +## Datos recopilados + +### Log + +| Formato | Tipos de evento | +| ------------------------- | ------------------------------------------------ | +| Structured-Data(RFC 5424) | Logs de sesión, logs de seguridad, logs de autenticación | + +### Métricas + +La integración Juniper SRX Firewall no incluye métricas. + +### Eventos + +La integración Juniper SRX Firewall no incluye eventos. + +### Checks de servicio + +La integración Juniper SRX Firewall no incluye checks de servicios. + +## Solucionar problemas + +### Permiso denegado durante la vinculación de puertos + +Si aparece un error de **Permission denied** (Permiso denegado) al vincular puertos en los logs del Agent: + +1. La vinculación a un número de puerto inferior a 1024 requiere permisos elevados. Concede acceso al puerto mediante el comando `setcap`: + + ```shell + sudo setcap CAP_NET_BIND_SERVICE=+ep /opt/datadog-agent/bin/agent/agent + ``` + +2. Comprueba que la configuración es correcta ejecutando el comando `getcap`: + + ```shell + sudo getcap /opt/datadog-agent/bin/agent/agent + ``` + + Con el resultado esperado: + + ```shell + /opt/datadog-agent/bin/agent/agent = cap_net_bind_service+ep + ``` + + **Nota**: Vuelve a ejecutar este comando `setcap` cada vez que actualices el Agent. + +3. [Reinicia el Agent][4]. + +### No se recopilan datos + +Asegúrate de que la configuración del cortafuegos permite el tráfico a través del puerto configurado. + +### Puerto ya utilizado + +En los sistemas que ejecutan Syslog, el Agent puede fallar al intentar vincularse con el puerto 514 y mostrar el siguiente error: + + Can't start UDP forwarder on port 514: listen udp :514: bind: address already in use + +Este error se produce porque Syslog utiliza el puerto 514 por defecto. + +Para resolverlo: + - Desactivar Syslog, O + - Configura el Agent para escuchar en un puerto diferente, disponible. + +Para obtener más ayuda, ponte en contacto con el [soporte de Datadog][7]. + +[1]: https://www.juniper.net/us/en/products/security/srx-series.html +[2]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=linux#install +[3]: https://github.com/DataDog/integrations-core/blob/master/juniper_srx_firewall/datadog_checks/juniper_srx_firewall/data/conf.yaml.example +[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[5]: https://docs.datadoghq.com/es/integrations/juniper_srx_firewall/#configure-log-collection +[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[7]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/kubernetes_cluster_autoscaler.md b/content/es/integrations/kubernetes_cluster_autoscaler.md new file mode 100644 index 0000000000000..41885cc7334a3 --- /dev/null +++ b/content/es/integrations/kubernetes_cluster_autoscaler.md @@ -0,0 +1,187 @@ +--- +app_id: kubernetes-cluster-autoscaler +app_uuid: 3a3fc186-af02-48e5-8b68-ee9ef37ea566 +assets: + dashboards: + Kubernetes Cluster Autoscaler Overview: assets/dashboards/kubernetes_cluster_autoscaler_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: kubernetes_cluster_autoscaler.nodes.count + metadata_path: metadata.csv + prefix: kubernetes_cluster_autoscaler. + process_signatures: + - cluster-autoscaler + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 14391189 + source_type_name: Kubernetes Cluster Autoscaler + logs: + source: kubernetes_cluster_autoscaler + monitors: + Kubernetes Cluster Autoscaler is not safe to autoscale: assets/monitors/KCA_not_safe_to_autosclae.json + Kubernetes Cluster Autoscaler reporting errors: assets/monitors/KCA_unused_nodes_forecast.json + Kubernetes Cluster Autoscaler too many unused nodes forecast: assets/monitors/KCA_reporting_errors.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- métricas +- Kubernetes +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/kubernetes_cluster_autoscaler/README.md +display_on_public_website: true +draft: false +git_integration_title: kubernetes_cluster_autoscaler +integration_id: kubernetes-cluster-autoscaler +integration_title: Kubernetes Cluster Autoscaler +integration_version: 2.2.0 +is_public: true +manifest_version: 2.0.0 +name: kubernetes_cluster_autoscaler +public_title: Kubernetes Cluster Autoscaler +short_description: Integración para Kubernetes Cluster Autoscaler +supported_os: +- linux +- windows +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Sistema operativo compatible::Linux + - Sistema operativo compatible::Windows + - Sistema operativo compatible::macOS + - Categoría::Métricas + - Categoría::Kubernetes + - Tipo de datos enviados::Métricas + - Oferta::Integración + configuration: README.md#Configuración + description: Integración para Kubernetes Cluster Autoscaler + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: Kubernetes Cluster Autoscaler +--- + + + + +## Información general + +Este check monitoriza [Kubernetes Cluster Autoscaler][1] a través del Datadog Agent. + +## Configuración + +Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos contenedorizados, consulta las [plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones. + +### Instalación + +El check de Kubernetes Cluster Autoscaler está incluido en el paquete del [Datadog Agent][3]. (Agent >= 7.55.x) +No es necesaria ninguna instalación adicional en tu servidor. + +### Configuración + +1. Edita el archivo `kubernetes_cluster_autoscaler.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent para empezar a recopilar los datos de rendimiento de kubernetes_cluster_autoscaler. Para ver todas las opciones de configuración disponibles, consulta el [ejemplo de kubernetes_cluster_autoscaler.d/conf.yaml][4]. + +2. [Reinicia el Agent][5]. + +#### Recopilación de métricas + +Asegúrate de que las métricas con formato Prometheus están expuestas en tu clúster `kubernetes_cluster_autoscaler`. +Para que el Agent empiece a recopilar métricas, los pods `kubernetes_cluster_autoscaler` deben estar anotados. + +[Kubernetes Cluster Autoscaler][6] tiene métricas y endpoints livenessProbe a los que se puede acceder en el puerto `8085`. Estos endpoints se encuentran en `/metrics` y `/health-check`, y proporcionan información valiosa sobre el estado de tu clúster durante las operaciones de escalado. + +**Nota**: Para cambiar el puerto por defecto, utiliza el marcador `--address`. + +Para configurar el Cluster Autoscaler para exponer métricas, haz lo siguiente: + +1. a) Habilita el acceso a la ruta `/metrics` y expón el puerto `8085` del despliegue de tu Cluster Autoscaler: + +``` +ports: +--name: app +containerPort: 8085 +``` + +b) Ordena a tu Prometheus que lo depure, añadiendo la siguiente anotación a tu servicio de Cluster Autoscaler: +``` +prometheus.io/scrape: true +``` + +**Nota**: Los métricas enumeradas solo pueden recopilarse si están disponibles. Algunas métricas solo se generan cuando se realizan determinadas acciones. + +Los únicos parámetros necesarios para configurar el check `kubernetes_cluster_autoscaler` son: + +* NOMBRE_DEL_CONTENEDOR + Nombre del contenedor del controlador de Cluster Autoscaler. +* `openmetrics_endpoint` + Este parámetro debe configurarse en la ubicación donde se exponen las métricas con formato Prometheus. El puerto por defecto es `8085`. Para configurar un puerto diferente, utiliza la [variable de entorno][7] `METRICS_PORT`. En entornos contenedorizados, `%%host%%` debe utilizarse para la [detección automática de hosts][2]. + +```yaml +apiVersion: v1 +kind: Pod +# (...) +metadata: + name: '' + annotations: + ad.datadoghq.com/.checks: | + { + "kubernetes_cluster_autoscaler": { + "init_config": {}, + "instances": [ + { + "openmetrics_endpoint": "http://%%host%%:8085/metrics" + } + ] + } + } + # (...) +spec: + containers: + - name: '' +# (...) +``` + + +### Validación + +[Ejecuta el subcomando de estado del Agent][8] y busca `kubernetes_cluster_autoscaler` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "kubernetes_cluster_autoscaler" >}} + + +### Eventos + +La integración Kubernetes Cluster Autoscaler no incluye eventos. + +### Checks de servicio +{{< get-service-checks-from-git "kubernetes_cluster_autoscaler" >}} + + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [equipo de asistencia de Datadog][11]. + + +[1]: https://docs.datadoghq.com/es/integrations/kubernetes_cluster_autoscaler/ +[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://github.com/DataDog/integrations-core/blob/master/kubernetes_cluster_autoscaler/datadog_checks/kubernetes_cluster_autoscaler/data/conf.yaml.example +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/FAQ.md#how-can-i-monitor-cluster-autoscaler +[7]: https://kubernetes.io/docs/tasks/inject-data-application/define-environment-variable-container/ +[8]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[9]: https://github.com/DataDog/integrations-core/blob/master/kubernetes_cluster_autoscaler/metadata.csv +[10]: https://github.com/DataDog/integrations-core/blob/master/kubernetes_cluster_autoscaler/assets/service_checks.json +[11]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/kubevirt_api.md b/content/es/integrations/kubevirt_api.md new file mode 100644 index 0000000000000..d8a335975386f --- /dev/null +++ b/content/es/integrations/kubevirt_api.md @@ -0,0 +1,161 @@ +--- +app_id: kubevirt-api +app_uuid: 6b760149-4a9f-4ec7-a5bf-081fcd1d75b0 +assets: + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: + - kubevirt_api.process.cpu_seconds.count + - kubevirt_api.proceso.open_fds + metadata_path: metadata.csv + prefix: kubevirt_api. + process_signatures: + - virt-api + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 21556836 + source_type_name: KubeVirt API +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- rastreo +- Kubernetes +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/kubevirt_api/README.md +display_on_public_website: true +draft: false +git_integration_title: kubevirt_api +integration_id: kubevirt-api +integration_title: KubeVirt API +integration_version: 1.2.0 +is_public: true +manifest_version: 2.0.0 +name: kubevirt_api +public_title: KubeVirt API +short_description: Recopila métricas clave para monitorizar el estado de tu servicio + KubeVirt API. +supported_os: +- linux +- Windows +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Containers + - Categoría::Kubernetes + - Sistema operativo compatible::Linux + - Sistema operativo compatible::Windows + - Sistema operativo compatible::macOS + - Oferta::Integración + - Submitted Data Type::Metrics + configuration: README.md#Configuración + description: Recopila métricas clave para monitorizar el estado de tu servicio KubeVirt + API. + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: KubeVirt API +--- + + + + +
+Esta integración se encuentra en fase beta pública y debe activarse en cargas de trabajo de producción con precaución. +
+ +## Información general + +Este check monitoriza [KubeVirt API][1] a través del Datadog Agent. + +## Configuración + +Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones. + +### Instalación + +El check de KubeVirt API está incluido en el paquete del [Datadog Agent][3]. +No es necesaria ninguna instalación adicional en tu servidor. + +### Configuración + +El caso de uso principal para ejecutar el check `kubevirt_api` es como [check a nivel de clúster][4]. + +Para ello, tendrás que actualizar algunos permisos RBAC para proporcionar al servicio `datadog-agent` acceso de sólo lectura a los recursos `KubeVirt`, siguiendo los pasos que se indican a continuación: + +1. Vincula el ClusterRole `kubevirt.io:view` a la cuenta de servicio `datadog-agent`: + +```yaml +apiVersion: rbac.authorization.k8s.io/v1 +kind: ClusterRoleBinding +metadata: + name: datadog-agent-kubevirt +roleRef: + apiGroup: rbac.authorization.k8s.io + kind: ClusterRole + name: kubevirt.io:view +subjects: + - kind: ServiceAccount + name: datadog-agent + namespace: +``` + +Sustituye `` por el espacio de nombres donde instalaste la cuenta de servicio del `Datadog-Agent`. + +2. Anota la plantilla de pods de tu despliegue `virt-api` parcheando el recurso `KubeVirt` como se indica a continuación: + +```yaml +apiVersion: kubevirt.io/v1 +kind: KubeVirt +metadata: + name: kubevirt + namespace: kubevirt +spec: + certificateRotateStrategy: {} + configuration: {} + customizeComponents: + patches: + - resourceType: Deployment + resourceName: virt-api + patch: '{"spec":{"template":{"metadata":{"annotations":{"ad.datadoghq.com/virt-api.check_names":"[\"kubevirt_api\"]","ad.datadoghq.com/virt-api.init_configs":"[{}]","ad.datadoghq.com/virt-api.instances":"[{\"kubevirt_api_metrics_endpoint\":\"https://%%host%%:%%port%%/metrics\",\"kubevirt_api_healthz_endpoint\":\"https://%%host%%:%%port%%/healthz\",\"kube_namespace\":\"%%kube_namespace%%\",\"kube_pod_name\":\"%%kube_pod_name%%\",\"tls_verify\":\"false\"}]"}}}}}' + type: strategic +``` + +### Validación + +[Ejecuta el subcomando `clusterchecks` del Cluster Agent][5] dentro de tu contenedor del Cluster Agent y busca el check `kubevirt_api` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "kubevirt_api" >}} + + +### Eventos + +La integración KubeVirt API no incluye eventos. + +### Checks de servicio + +La integración KubeVirt API no incluye checks de servicios. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][7]. + +[1]: https://docs.datadoghq.com/es/integrations/kubevirt_api +[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://docs.datadoghq.com/es/containers/cluster_agent/clusterchecks/?tab=datadogoperator +[5]: https://docs.datadoghq.com/es/containers/troubleshooting/cluster-and-endpoint-checks/#dispatching-logic-in-the-cluster-agent +[6]: https://github.com/DataDog/integrations-core/blob/master/kubevirt_api/metadata.csv +[7]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/lighttpd.md b/content/es/integrations/lighttpd.md index 3e10223db33c0..7db49f3a6a91c 100644 --- a/content/es/integrations/lighttpd.md +++ b/content/es/integrations/lighttpd.md @@ -1,75 +1,23 @@ --- -"app_id": "lighttpd" -"app_uuid": "3d7ace6a-9efd-4d21-b4e6-a9956512a875" -"assets": - "dashboards": - "lighttpd": "assets/dashboards/lighttpd_dashboard.json" - "integration": - "auto_install": true - "configuration": - "spec": "assets/configuration/spec.yaml" - "events": - "creates_events": false - "metrics": - "check": "lighttpd.performance.uptime" - "metadata_path": "metadata.csv" - "prefix": "lighttpd." - "process_signatures": - - "lighttpd" - "service_checks": - "metadata_path": "assets/service_checks.json" - "source_type_id": !!int "58" - "source_type_name": "Lighttpd" - "saved_views": - "lighttpd_processes": "assets/saved_views/lighttpd_processes.json" -"author": - "homepage": "https://www.datadoghq.com" - "name": "Datadog" - "sales_email": "info@datadoghq.com" - "support_email": "help@datadoghq.com" -"categories": -- "log collection" -"custom_kind": "integración" -"dependencies": -- "https://github.com/DataDog/integrations-core/blob/master/lighttpd/README.md" -"display_on_public_website": true -"draft": false -"git_integration_title": "lighttpd" -"integration_id": "lighttpd" -"integration_title": "Lighttpd" -"integration_version": "5.1.0" -"is_public": true -"manifest_version": "2.0.0" -"name": "lighttpd" -"public_title": "Lighttpd" -"short_description": "Realiza un seguimiento del tiempo de actividad, de los bytes utilizados, de las solicitudes por segundo, de los códigos de respuesta y mucho más." -"supported_os": -- "linux" -- "windows" -- "macos" -"tile": - "changelog": "CHANGELOG.md" - "classifier_tags": - - "Category::Recopilación de logs" - - "Supported OS::Linux" - - "Supported OS::Windows" - - "Supported OS::macOS" - - "Offering::Integración" - "configuration": "README.md#Configuración" - "description": "Realiza un seguimiento del tiempo de actividad, de los bytes utilizados, de las solicitudes por segundo, de los códigos de respuesta y mucho más." - "media": [] - "overview": "README.md#Información general" - "resources": - - "resource_type": "blog" - "url": "https://www.datadoghq.com/blog/monitor-lighttpd-web-server-metrics" - "support": "README.md#Soporte" - "title": "Lighttpd" +app_id: lighttpd +categories: +- log collection +custom_kind: integración +description: Seguimiento del tiempo de actividad, de los bytes utilizados, de las + solicitudes por segundo, de los códigos de respuesta y mucho más more. +further_reading: +- link: https://www.datadoghq.com/blog/monitor-lighttpd-web-server-metrics + tag: blog + text: Monitorizar métricas del servidor web Lighttpd con Datadog +integration_version: 5.1.0 +media: [] +supported_os: +- linux +- windows +- macos +title: Lighttpd --- - - - - -![Dashboard de Lighttpd][1] +![Dashboard de Lighttpd](https://raw.githubusercontent.com/DataDog/integrations-core/master/lighttpd/images/lighttpddashboard_2.png) ## Información general @@ -79,20 +27,21 @@ El check de Lighttpd del Agent realiza un seguimiento del tiempo de actividad, d ### Instalación -El check de Lighttpd está incluido en el paquete del [Datadog Agent][2], por lo que no necesitas instalar nada más en tus servidores de Lighttpd. +El check de Lighttpd está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest), por lo que no necesitas instalar nada más en tus servidores Lighttpd. Además, instala `mod_status` en tus servidores de Lighttpd. ### Configuración {{< tabs >}} + {{% tab "Host" %}} -#### Host +#### host Para configurar este check para un Agent que se ejecuta en un host: -1. Edita el archivo `lighttpd.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del [directorio de configuración del Agent][1]. Para ver todas las opciones de configuración disponibles, consulta el [ejemplo marathon.d/conf.yaml][2]: +1. Edita el archivo `lighttpd.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory). Consulta el [ejemplo de lighttpd.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/lighttpd/datadog_checks/lighttpd/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles: ```yaml init_config: @@ -104,17 +53,15 @@ Para configurar este check para un Agent que se ejecuta en un host: - lighttpd_status_url: http://localhost/server-status?auto ``` -2. [Reinicia el Agent][3]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). -[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory -[2]: https://github.com/DataDog/integrations-core/blob/master/lighttpd/datadog_checks/lighttpd/data/conf.yaml.example -[3]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent {{% /tab %}} + {{% tab "Contenedorizado" %}} -#### Contenedores +#### En contenedores -Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. +Para los entornos en contenedores, consulta las [Plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. | Parámetro | Valor | | -------------------- | --------------------------------------------------------------- | @@ -122,8 +69,8 @@ Para entornos en contenedores, consulta las [plantillas de integración de Autod | `` | en blanco o `{}` | | `` | `{"lighttpd_status_url": "http://%%host%%/server-status?auto"}` | -[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/ {{% /tab %}} + {{< /tabs >}} #### Recopilación de logs @@ -134,7 +81,7 @@ Para entornos en contenedores, consulta las [plantillas de integración de Autod logs_enabled: true ``` -2. Añade este bloque de configuración a tu archivo `lighttpd.d/conf.yaml` para empezar a recopilar logs de Lighttpd: +1. Añade este bloque de configuración a tu archivo `lighttpd.d/conf.yaml` para empezar a recopilar logs de Lighttpd: ```yaml logs: @@ -144,42 +91,67 @@ Para entornos en contenedores, consulta las [plantillas de integración de Autod ``` Cambia el valor del parámetro `path` y configúralo para tu entorno. - Para ver todas las opciones de configuración disponibles, consulta el [ejemplo lighttpd.d/conf.yaml][3]. + Consulta el [ejemplo de lighttpd.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/lighttpd/datadog_checks/lighttpd/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. -3. [Reinicia el Agent][4]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). ### Validación -[Ejecuta el subcomando `status` del Agent][5] y busca `lighttpd` en la sección Checks. +[Ejecuta el subcomando del Agent `status` ](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `lighttpd` en la sección Checks. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "lighttpd" >}} +| | | +| --- | --- | +| **lighttpd.connections.state_handle_request**
(gauge) | \[Sólo Lighttpd 2\] Número de conexiones activas en el estado de manejo interno de la solicitud.
_Se muestra como conexión_ | +| **lighttpd.connections.state_keep_alive**
(gauge) | \[Sólo Lighttpd 2\] Número de conexiones inactivas.
_Se muestra como conexión_ | +| **lighttpd.connections.state_read_header**
(gauge) | \[Sólo Lighttpd 2\] Número de conexiones activas en el estado de lectura de la cabecera de la solicitud http.
_Se muestra como conexión_ | +| **lighttpd.connections.state_start**
(gauge) | \[Sólo Lighttpd 2\] Número de conexiones activas en el estado de inicialización del temporizador de inactividad.
_Se muestra como conexión_ | +| **lighttpd.connections.state_write_response**
(gauge) | \[Sólo Lighttpd 2\] Número de conexiones activas en el estado de escritura de la respuesta a la red.
_Se muestra como conexión_ | +| **lighttpd.net.bytes**
(gauge) | \[Sólo Lighttpd 1\] Número de bytes enviados y recibidos desde el inicio.
_Se muestra como byte_ | +| **lighttpd.net.bytes_in**
(rate) | \[Sólo Lighttpd 2\] Número de bytes recibidos por segundo.
_Se muestra como byte_ | +| **lighttpd.net.bytes_in_avg**
(gauge) | \[Sólo Lighttpd 2\] Número medio de bytes recibidos por segundo desde el inicio.
_Se muestra como byte_ | +| **lighttpd.net.bytes_in_avg_5sec**
(gauge) | \[Sólo Lighttpd 2\] Número medio de bytes recibidos por segundo durante los últimos 5 segundos.
_Se muestra como byte_ | +| **lighttpd.net.bytes_out**
(rate) | \[Sólo Lighttpd 2\] Número de bytes enviados por segundo.
_Se muestra como byte_ | +| **lighttpd.net.bytes_out_avg**
(gauge) | \[Sólo Lighttpd 2\] Número medio de bytes enviados por segundo desde el inicio.
_Se muestra como byte_ | +| **lighttpd.net.bytes_out_avg_5sec**
(gauge) | \[Sólo Lighttpd 2\] Número medio de bytes enviados por segundo durante los últimos 5 segundos.
_Se muestra como byte_ | +| **lighttpd.net.bytes_per_s**
(gauge) | \[Sólo Lighttpd 1\] Número de bytes enviados y recibidos por segundo.
_Se muestra como byte_ | +| **lighttpd.net.connections_avg**
(gauge) | \[Sólo Lighttpd 2\] Número medio de conexiones por segundo desde el inicio.
_Se muestra como conexión_ | +| **lighttpd.net.connections_avg_5sec**
(gauge) | \[Sólo Lighttpd 2\] Número medio de conexiones por segundo durante los últimos 5 segundos.
_Se muestra como conexión_ | +| **lighttpd.net.connections_total**
(rate) | \[Sólo Lighttpd 2\] Número total de conexiones por segundo.
_Se muestra como conexión_ | +| **lighttpd.net.hits**
(gauge) | \[Sólo Lighttpd 1\] Número de aciertos desde el inicio.
_Se muestra como acierto_ | +| **lighttpd.net.request_per_s**
(gauge) | \[Sólo Lighttpd 1\] Número de solicitudes por segundo.
_Se muestra como solicitud_ | +| **lighttpd.net.requests_avg**
(gauge) | \[Sólo Lighttpd 2\] Número medio de solicitudes por segundo desde el inicio.
_Se muestra como solicitud_ | +| **lighttpd.net.requests_avg_5sec**
(gauge) | \[Sólo Lighttpd 2\] Número medio de solicitudes por segundo durante los últimos 5 segundos.
_Se muestra como solicitud_ | +| **lighttpd.net.requests_total**
(rate) | \[Sólo Lighttpd 2\] Número de solicitudes por segundo.
_Se muestra como solicitud_ | +| **lighttpd.performance.busy_servers**
(gauge) | \[Sólo Lighttpd 1\] Número de conexiones inactivas.
_Se muestra como conexión_ | +| **lighttpd.performance.idle_server**
(gauge) | \[Sólo Lighttpd 1\] Número de conexiones inactivas.
_Se muestra como conexión_ | +| **lighttpd.performance.memory_usage**
(gauge) | \[Sólo Lighttpd 2\] Cantidad de memoria utilizada por el servidor.
_Se muestra como byte_ | +| **lighttpd.performance.uptime**
(gauge) | \[Sólo Lighttpd 1\] Cantidad de tiempo que el servidor ha estado activo.
_Se muestra como segundo_ | +| **lighttpd.response.status_1xx**
(rate) | \[Sólo Lighttpd 2\] Número de códigos de estado 1xx generados por segundo.
_Se muestra como respuesta_ | +| **lighttpd.response.status_2xx**
(rate) | \[Sólo Lighttpd 2\] Número de códigos de estado 2xx generados por segundo.
_Se muestra como respuesta_ | +| **lighttpd.response.status_3xx**
(rate) | \[Sólo Lighttpd 2\] Número de códigos de estado 3xx generados por segundo.
_Se muestra como respuesta_ | +| **lighttpd.response.status_4xx**
(rate) | \[Sólo Lighttpd 2\] Número de códigos de estado 4xx generados por segundo.
_Se muestra como respuesta_ | +| **lighttpd.response.status_5xx**
(rate) | \[Sólo Lighttpd 2\] Número de códigos de estado 5xx generados por segundo.
_Se muestra como respuesta_ | ### Eventos El check de Lighttpd no incluye eventos. ### Checks de servicio -{{< get-service-checks-from-git "lighttpd" >}} +**lighttpd.can_connect** -## Solucionar problemas - -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][6]. +Devuelve `CRITICAL` si el Agent no puede conectarse y recopilar métricas de la instancia de Lighttpd monitorizada, si no devuelve `OK`. -## Referencias adicionales +_Estados: ok, crítico_ -- [Monitoriza métricas del servidor web Lighttpd con Datadog][7]. +## Solucionar problemas +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). +## Referencias adicionales -[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/lighttpd/images/lighttpddashboard_2.png -[2]: https://app.datadoghq.com/account/settings/agent/latest -[3]: https://github.com/DataDog/integrations-core/blob/master/lighttpd/datadog_checks/lighttpd/data/conf.yaml.example -[4]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[5]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information -[6]: https://docs.datadoghq.com/help/ -[7]: https://www.datadoghq.com/blog/monitor-lighttpd-web-server-metrics +- [Monitorizar métricas del servidor web Lighttpd con Datadog](https://www.datadoghq.com/blog/monitor-lighttpd-web-server-metrics). \ No newline at end of file diff --git a/content/es/integrations/logzio.md b/content/es/integrations/logzio.md new file mode 100644 index 0000000000000..a58f818be6039 --- /dev/null +++ b/content/es/integrations/logzio.md @@ -0,0 +1,59 @@ +--- +aliases: +- /es/integrations/logzio +app_id: logz-io +categories: +- event management +- ai/ml +custom_kind: integración +description: ELK con tecnología de IA como servicio +integration_version: 1.0.0 +media: [] +supported_os: +- linux +- windows +- macos +title: Logz.io +--- +## Información general + +Logz.io es una plataforma SaaS unificada que recopila y analiza logs, métricas, y trazas (traces). La plataforma incluye funciones de IA para mejorar la resolución de problemas, reducir el tiempo de respuesta y ayudar a gestionar los costos. + +Esta integración te permite: + +- Ver alertas de Logz.io en tiempo real en Datadog + +![import_alert_from_logz](https://raw.githubusercontent.com/DataDog/integrations-extras/master/logzio/images/import_alert_from_logz.jpg) + +- Incorporar eventos de alertas en un dashboard para identificar correlaciones con métricas + +![dashboard](https://raw.githubusercontent.com/DataDog/integrations-extras/master/logzio/images/dashboard.png) + +## Configuración + +### Instalación + +Importa tus alertas a Datadog realizando los siguientes pasos: + +1. Utiliza una [clave de la API de Datadog](https://app.datadoghq.com/organization-settings/api-keys) para crear un nuevo endpoint de alerta en Logz.io. +1. Crea una nueva alerta en Logz.io para una consulta específica. + +Para una descripción más detallada de la configuración, consulta [Correlación de logs con Logz.io y Datadog](http://logz.io/blog/log-correlation-datadog). + +## Datos recopilados + +### Métricas + +El check de Logz.io no incluye métricas. + +### Eventos + +El check de Logz.io no incluye eventos. + +### Checks de servicio + +El check de Logz.io no incluye checks de servicios. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/meraki.md b/content/es/integrations/meraki.md index 49a8e38be7728..e6fd1074a6a01 100644 --- a/content/es/integrations/meraki.md +++ b/content/es/integrations/meraki.md @@ -1,137 +1,79 @@ --- app_id: meraki -app_uuid: c34bd865-7ddf-4336-9cf2-02e1a2f05bbd -assets: - dashboards: - meraki: assets/dashboards/meraki_overview.json - integration: - auto_install: false - metrics: - check: - - meraki.devStatus - - snmp.devStatus - metadata_path: metadata.csv - prefix: meraki. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 602 - source_type_name: Meraki - monitors: - A Meraki Device Uplink is Failing: assets/monitors/uplink_device_is_failing.json - A Meraki Device is in an Alerting State: assets/monitors/device_is_in_alert_state.json - Abnormally High Latency on a Meraki Uplink: assets/monitors/high_latency_on_uplink.json -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - red - recopilación de logs - seguridad - snmp custom_kind: integración -dependencies: [] -display_on_public_website: true -draft: false -git_integration_title: meraki -integration_id: meraki -integration_title: Cisco Meraki -integration_version: '' -is_public: true -manifest_version: 2.0.0 -name: meraki -public_title: Cisco Meraki -short_description: Monitoriza tu entorno de Cisco Meraki con Network Device Monitoring, +description: Monitoriza tu entorno de Cisco Meraki con Network Device Monitoring, logs y Cloud SIEM +further_reading: +- link: https://docs.datadoghq.com/network_monitoring/devices/ + tag: documentación + text: Network Device Monitoring +- link: https://www.datadoghq.com/blog/monitor-meraki/ + tag: blog + text: Monitorizar Cisco Meraki con Datadog +media: [] supported_os: - linux - windows - macos -tile: - changelog: CHANGELOG.md - classifier_tags: - - Category::Network - - Category::Log Collection - - Category::Security - - Category::SNMP - - Submitted Data Type::Logs - - Submitted Data Type::Metrics - - Supported OS::Linux - - Supported OS::Windows - - Supported OS::macOS - - Offering::Integration - configuration: README.md#Setup - description: Monitoriza tu entorno de Cisco Meraki con Network Device Monitoring, - logs y Cloud SIEM - media: [] - overview: README.md#Overview - resources: - - resource_type: documentación - url: https://docs.datadoghq.com/network_monitoring/devices/ - - resource_type: Blog - url: https://www.datadoghq.com/blog/monitor-meraki/ - support: README.md#Support - title: Cisco Meraki +title: Cisco Meraki --- - - - ## Información general -
Network Device Monitoring para Cisco Meraki está actualmente en Vista previa.
- -Esta integración proporciona visibilidad integral de tu entorno de Cisco Meraki mediante la recopilación de métricas de [Network Device Monitoring][1], Network Event Logs y Security Event Logs para [Cloud SIEM][2]. +Esta integración proporciona una visibilidad completa de tu entorno de Cisco Meraki mediante la recopilación de métricas para [Network Device Monitoring](https://app.datadoghq.com/devices), logs de eventos de red y logs de eventos de seguridad para [Cloud SIEM](https://app.datadoghq.com/security/home). **Network Device Monitoring** -[Network Device Monitoring][1] ayuda a garantizar que el estado general de la infraestructura de red esté a la altura de los estándares al identificar posibles cuellos de botella y errores de configuración del dispositivo. +[Network Device Monitoring](https://app.datadoghq.com/devices) ayuda a garantizar que el estado general de la infraestructura de red sea el adecuado mediante la identificación de posibles cuellos de botella y errores de configuración de los dispositivos. Esta integración recopila métricas para los siguientes dispositivos: -* _MR (Wireless Access Points):_ rastrea métricas como el recuento de clientes, el estado de la conexión y el rendimiento. -* _MS (Switches):_ monitoriza las métricas de rendimiento del conmutador, como el estado del puerto, el tráfico y las tasas de error. -* _MX (Security Appliances):_ recopila métricas sobre el estado de la VPN, las reglas del firewall y el rendimiento general del dispositivo. +- _MR (Wireless Access Points):_ rastrea métricas como el recuento de clientes, el estado de la conexión y el rendimiento. +- _MS (Switches):_ monitoriza las métricas de rendimiento del conmutador, como el estado del puerto, el tráfico y las tasas de error. +- _MX (Security Appliances):_ recopila métricas sobre el estado de la VPN, las reglas del firewall y el rendimiento general del dispositivo. Esta integración extrae dinámicamente etiquetas (tags) de dispositivos y metadatos de entornos de Meraki para explorar fácilmente grupos de dispositivos, localizaciones o tipos de dispositivos específicos. **Security Event Logs** -[Security Event Logs][3] alerta sobre eventos como detecciones de intrusiones, violaciones de reglas de firewall y detecciones de amenazas de malware para ayudar a identificar y responder a posibles amenazas de seguridad. +Los [logs de eventos de seguridad](https://developer.cisco.com/meraki/api/get-network-appliance-security-events/) alertan sobre eventos como detecciones de intrusiones, violaciones de reglas de firewall y detecciones de amenazas de malware para ayudar a identificar y responder a posibles amenazas de seguridad. -Crea tus propias reglas o aproveche las [reglas de Cloud SIEM predefinidas][4] para la detección de amenazas y la respuesta a incidentes en tiempo real. +Crea tus propias reglas o aprovecha las [reglas predefinidas de Cloud SIEM](https://app.datadoghq.com/logs/pipelines?search=meraki) para la detección de amenazas en tiempo real y la respuesta a incidents (incidentes). **Network Event Logs** -[Network Event Logs][5] ayuda a los administradores de red a analizar eventos históricos de red y solucionar problemas de manera eficiente. +Los [logs de eventos de red](https://developer.cisco.com/meraki/api/get-network-events/) ayudan a los administradores de red a analizar los eventos históricos de la red y a solucionar los problemas de forma eficiente. Estos logs rastrean los siguientes temas: -* _Cambios de configuración:_ rastrea los cambios en las configuraciones de red para garantizar el cumplimiento y solucionar problemas de conexión. -* _Asociaciones de clientes:_ monitoriza las asociaciones de clientes con puntos de acceso inalámbricos para obtener información sobre la conectividad del usuario. -* _Eventos de estado de la red:_ identifica y aborda problemas que afectan el estado de la red, como la alta pérdida de paquetes en conmutadores específicos. +- _Cambios de configuración:_ rastrea los cambios en las configuraciones de red para garantizar el cumplimiento y solucionar problemas de conexión. +- _Asociaciones de clientes:_ monitoriza las asociaciones de clientes con puntos de acceso inalámbricos para obtener información sobre la conectividad del usuario. +- _Eventos de estado de la red:_ identifica y aborda problemas que afectan el estado de la red, como la alta pérdida de paquetes en conmutadores específicos.
Además de los monitores recomendados incluidos con esta integración, se pueden configurar monitores adicionales para notificar a los administradores sobre eventos críticos, lo que permite una gestión proactiva de la red. -Para recopilar métricas de tu Meraki Cloud Controller, configura la [integración de SNMP][6] con el perfil Meraki. - +Para recopilar métricas de tu Meraki Cloud Controller, configura la [integración de SNMP](https://docs.datadoghq.com/integrations/snmp/) con el perfil de Meraki. ## Configuración ### Instalación -1. En la aplicación, abre el [cuadro de la integración de Meraki][7]. +1. En la aplicación, abre el [ícono de integración de Meraki](https://app.datadoghq.com/integrations/meraki). 1. Haz clic en **+ Add Account** (+ Añadir cuenta). 1. Elige un nombre para tu cuenta de Meraki. -1. Añade una clave de API Meraki. Encontrarás instrucciones sobre cómo generar una clave de API Meraki en [API del dashboard de Cisco Meraki][8]. +1. Añade una clave de la API de Meraki. Busca instrucciones sobre cómo generar una clave de la API de Meraki en la [API del Dashboard de Cisco Meraki](https://documentation.meraki.com/zGeneral_Administration/Other_Topics/The_Cisco_Meraki_Dashboard_API). ### Generar la clave de API Meraki 1. Ve al dashboard de Meraki. -2. Habilita el acceso a la API en Organization > Settings > Dashboard API access (Organización > Parámetros > Acceso a la API del dashboard). -3. Ve a la página Mi perfil en el dashboard de Meraki para generar la clave. +1. Habilita el acceso a la API en Organization > Settings > Dashboard API access (Organización > Parámetros > Acceso a la API del dashboard). +1. Ve a la página Mi perfil en el dashboard de Meraki para generar la clave. ### Recopilación de métricas @@ -148,51 +90,65 @@ monitorean todos los dispositivos. Para configurar la recopilación de logs de eventos de red y logs de eventos de seguridad, se requiere una clave de API Meraki. -Para obtener más información, consulta la [API del dashboard de Cisco Meraki][9]. +Para obtener más información, consulta la [API del dashboard de Cisco Meraki](https://documentation.meraki.com/General_Administration/Other_Topics/Cisco_Meraki_Dashboard_API#Enable_API_access). ## Datos recopilados ### Métricas -
Los datos de los dispositivos Meraki (MR, MS, MX) en Network Device Monitoring, incluyendo métricas y etiquetas (tags) de nivel de red, nivel de dispositivo, nivel de enlace ascendente y nivel de interfaz (puerto de conmutación), se encuentran en fase beta. - - -Las métricas de puerto a nivel de conmutador para el tráfico y el uso de puertos no están disponibles.
- -Configura la [integración de SNMP][6] con el perfil Meraki para recopilar métricas (con el prefijo `snmp.` en la siguiente tabla) de tus dispositivos Meraki. También puedes crear un [perfil personalizado][10] para recopilar datos adicionales de tus dispositivos Meraki. Ten en cuenta que las métricas con el prefijo `meraki.` se recopilan a través de la integración de Meraki y Datadog, habilitada utilizando las instrucciones anteriores. - -{{< get-metrics-from-git "meraki" >}} +Configura la [integración de SNMP](https://docs.datadoghq.com/integrations/snmp/) con el perfil de Meraki para recopilar métricas (con el prefijo `snmp.` en la siguiente tabla) de tus dispositivos de Meraki. Como alternativa, crea un [perfil personalizado](https://docs.datadoghq.com/network_monitoring/devices/guide/build-ndm-profile/) para recopilar métricas adicionales. Ten en cuenta que las métricas con el prefijo `meraki.` se recopilan a través de la integración de Meraki de Datadog, activada mediante las instrucciones anteriores. + +| | | +| --- | --- | +| **meraki.avgLatencyMs**
(gauge) | La latencia media de la red en milisegundos.
_Se muestra en milisegundos_ | +| **meraki.clientCount**
(count) | El count de clientes por red.
_Se muestra como unidad_ | +| **meraki.devStatus**
(count) | El estado del dispositivo.
_Se muestra como unidad_ | +| **meraki.latencyMs**
(gauge) | La latencia de un enlace ascendente en milisegundos. Solo se admite para dispositivos MX.
_Se muestra como milisegundo_. | +| **meraki.lossPercent**
(gauge) | Porcentaje de pérdida de un enlace ascendente en una red. Solo se admite para dispositivos MX.
_Se muestra como porcentaje_. | +| **meraki.powerModuleStatus**
(count) | El estado del módulo de alimentación de un dispositivo.
_Se muestra como unidad_ | +| **meraki.uplinkStatus**
(count) | Estado de un enlace ascendente en un dispositivo. Esto es solo para dispositivos de las series MX, MG, Z en la organización.
_Se muestra como unidad_. | +| **meraki.utilization**
(count) | La utilización del canal de un AP en una red.
_Se muestra como porcentaje_ | +| **meraki.utilization.non_wifi**
(count) | La utilización del canal no wifi de un AP en una red.
_Se muestra como porcentaje_ | +| **meraki.utilization.wifi**
(count) | La utilización del canal wifi de un AP en una red.
_Se muestra como porcentaje_ | +| **meraki.port.status**
(count) | El estado de un puerto en un conmutador de Meraki.
_Se muestra como unidad_ | +| **meraki.devPerformanceScore**
(gauge) | La puntuación de rendimiento del dispositivo.
_Se muestra como unidad_ | +| **snmp.devStatus**
(gauge) | El estado de la connection (conexión) del dispositivo al Meraki Cloud Controller
_Se muestra como unidad_. | +| **snmp.devClientCount**
(gauge) | El número de clientes asociados actualmente al dispositivo
_Se muestra como unidad_ | +| **meraki.interface.sent**
(gauge) | Número de bytes enviados por cada enlace ascendente de una red.
_Se muestra como byte_ | +| **meraki.interface.received**
(gauge) | El número de bytes recibidos por cada enlace ascendente de una red.
_Se muestra como byte_ | +| **meraki.vpn.receivedInKb**
(gauge) | El número de kilobytes recibidos por cada enlace ascendente de una red.
_Se muestra como kilobyte_ | +| **meraki.vpn.sentInKb**
(gauge) | El número de kilobytes enviados por cada enlace ascendente de una red.
_Se muestra como kilobyte_ | +| **meraki.vpn.avgLossPercentage**
(gauge) | Porcentaje medio de pérdida de un enlace ascendente en una red.
_Se muestra como porcentaje_ | +| **meraki.vpn.minLossPercentage**
(gauge) | Porcentaje mínimo de pérdida de un enlace ascendente en una red.
_Se muestra como porcentaje_ | +| **meraki.vpn.maxLossPercentage**
(gauge) | Porcentaje máximo de pérdida de un enlace ascendente en una red.
_Se muestra como porcentaje_ | +| **meraki.vpn.avgJitter**
(gauge) | La fluctuación media de un enlace ascendente en una red.
_Se muestra en milisegundos_ | +| **meraki.vpn.minJitter**
(gauge) | La fluctuación mínima de un enlace ascendente en una red.
_Se muestra en milisegundos_ | +| **meraki.vpn.maxJitter**
(gauge) | La fluctuación máxima de un enlace ascendente en una red.
_Se muestra en milisegundos_ | +| **meraki.vpn.avgMos**
(gauge) | El mos medio de un enlace ascendente en una red.
_Se muestra como unidad_ | +| **meraki.vpn.minMos**
(gauge) | El mos mínimo de un enlace ascendente en una red.
_Se muestra como unidad_ | +| **meraki.vpn.maxMos**
(gauge) | El mos máximo de un enlace ascendente en una red.
_Se muestra como unidad_ | +| **meraki.vpn.status**
(count) | El estado de la VPN.
_Se muestra como unidad_ | +| **meraki.vpn.avgLatencyMs**
(gauge) | La latencia media de la red VPN en milisegundos.
_Se muestra en milisegundos_ | +| **meraki.vpn.maxLatencyMs**
(gauge) | La latencia máxima de la red VPN en milisegundos.
_Se muestra como milisegundo_ | +| **meraki.vpn.minLatencyMs**
(gauge) | La latencia mínima de la red de VPN en milisegundos.
_Se muestra como milisegundo_ | ### Eventos -La integración de Meraki no incluye evento. +La integración de Meraki no incluye eventos. -### Checks de servicios +### Checks de servicio -La integración de Meraki no incluye checks de servicios. +La integración de Meraki no incluye checks de servicio. ## Solucionar problemas + A veces, Datadog tiene problemas para acceder a Meraki desde sus servidores. Añade las direcciones IP de Datadog a tu lista de direcciones IP permitidas para garantizar que el rastreo funcione como se espera. -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][11]. +¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog](https://docs.datadoghq.com/help/). ## Referencias adicionales Documentación útil adicional, enlaces y artículos: -- [Network Device Monitoring][12] -- [Monitorización de Cisco Meraki con Datadog][13] - -[1]: https://app.datadoghq.com/devices -[2]: https://app.datadoghq.com/security/home -[3]: https://developer.cisco.com/meraki/api/get-network-appliance-security-events/ -[4]: https://app.datadoghq.com/logs/pipelines?search=meraki -[5]: https://developer.cisco.com/meraki/api/get-network-events/ -[6]: https://docs.datadoghq.com/es/integrations/snmp/ -[7]: https://app.datadoghq.com/integrations/meraki -[8]: https://documentation.meraki.com/zGeneral_Administration/Other_Topics/The_Cisco_Meraki_Dashboard_API -[9]: https://documentation.meraki.com/General_Administration/Other_Topics/Cisco_Meraki_Dashboard_API#Enable_API_access -[10]: https://docs.datadoghq.com/es/network_monitoring/devices/guide/build-ndm-profile/ -[11]: https://docs.datadoghq.com/es/help/ -[12]: https://docs.datadoghq.com/es/network_monitoring/devices/ -[13]: https://www.datadoghq.com/blog/monitor-meraki/ \ No newline at end of file +- [Network Device Monitoring](https://docs.datadoghq.com/network_monitoring/devices/) +- [Monitoriza Cisco Meraki con Datadog](https://www.datadoghq.com/blog/monitor-meraki/) \ No newline at end of file diff --git a/content/es/integrations/orca_security.md b/content/es/integrations/orca_security.md new file mode 100644 index 0000000000000..e13a655a51654 --- /dev/null +++ b/content/es/integrations/orca_security.md @@ -0,0 +1,114 @@ +--- +app_id: orca-security +app_uuid: c5503835-004d-4f4b-bf61-57845767f8e1 +assets: + dashboards: + Orca Security - Alerts: assets/dashboards/orca_security_alerts.json + integration: + auto_install: false + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 32538198 + source_type_name: Orca Security + logs: + source: orca_security +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +- seguridad +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/orca_security/README.md +display_on_public_website: true +draft: false +git_integration_title: orca_security +integration_id: orca-security +integration_title: Orca Security +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: orca_security +public_title: Orca Security +short_description: Obtén información sobre los logs de alerta de Orca Security. +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Log Collection + - Category::Security + - Submitted Data Type::Logs + - Offering::Integration + configuration: README.md#Setup + description: Obtén información sobre los logs de alerta de Orca Security. + media: + - caption: 'Orca Security: alertas' + image_url: images/orca_security_alerts.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Orca Security +--- + + + + +## Información general + +[Orca Security][1] es una plataforma de seguridad en la nube que identifica, prioriza y corrige los riesgos de seguridad y el cumplimiento. Ofrece funciones como visibilidad en tiempo real, gestión de vulnerabilidades, protección de cargas de trabajo, gestión de la postura de seguridad en la nube y gestión del cumplimiento. +Esta integración ingesta el siguiente log: + +- Alerta: incluye información como el estado de la alerta, detalles de la cuenta, el activo donde se detectó la alerta y detalles adicionales. + +La integración de Orca Security ingiere sin problemas los datos de logs de alerta utilizando la integración de Orca con Datadog. Antes de ingerir los datos, normaliza y enriquece los logs, garantiza un formato de datos coherente y mejora el contenido de la información para su posterior procesamiento y análisis. La integración proporciona información sobre los logs de alertas a través de dashboard predefinidos. + +## Configuración + +### Configuración + +#### [Configuración de Orca Security para Datadog][2] + +1. Inicia sesión en la plataforma de Orca Security. +2. Ve a **Settings** > **Connections** > **Integrations** (Configuración > Conexiones > Integraciones). +3. En la sección **SIEM/SOAR**, selecciona **Datadog** y, a continuación, haz clic en **Connect** (Conectar). + + Se abre la ventana de configuración de Datadog. +4. Especifica los siguientes ajustes: + - **Clave de API**: añade la clave de API de tu plataforma de Datadog. + - **Región**: selecciona la región en la que se encuentra tu instancia de Datadog. +5. Haz clic en **Save** (Guardar). +6. Haz clic en **Configure** (Configurar) en la integración de Datadog y activa la integración. +7. Ve a **Automations** (Automatizaciones) y haz clic en **+ Create Automation** (+ Crear automatización). +8. En la sección **Automation Details** (Detalles de la automatización), indica el **Automation Name** (Nombre de la automatización). +9. En la sección **Trigger Query** (Consulta de activación), selecciona todos los valores para el estado de alerta en la consulta. La consulta debe tener este aspecto: `When an alert Alert State is open,in_progress,snoozed,dismissed,closed` +10. En la sección **Define Results** (Definir resultados), activa **Apply to Existing Alerts** (Aplicar a alertas existentes) si las alertas existentes en la plataforma de Orca Security deben reenviarse a Datadog, o desactívalo para reenviar alertas recién generadas/actualizadas. +**Nota**: Las alertas que se actualizaron hace más de 18 horas no se pueden ingerir en Datadog. +11. En la sección **SIEM/SOAR** bajo la sección **Define Results** (Definir resultados), marca **Datadog** y selecciona **Logs** como tipo de Datadog. +12. Haz clic en **Create** (Crear). + +## Datos recopilados + +### Logs + +La integración de Orca recopila y reenvía logs de alerta de Orca a Datadog. + +### Métricas + +La integración de Orca no incluye ninguna métrica. + +### Eventos + +La integración de Orca no incluye ningún evento. + +## Ayuda + +Para obtener más ayuda, ponte en contacto con el [soporte de Datadog][3]. + +[1]: https://docs.orcasecurity.io/docs +[2]: https://docs.orcasecurity.io/docs/integrating-datadog +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/snmp.md b/content/es/integrations/snmp.md index 916726175c305..77a64c403f787 100644 --- a/content/es/integrations/snmp.md +++ b/content/es/integrations/snmp.md @@ -17,7 +17,7 @@ "metrics": "check": "snmp.devices_monitored" "metadata_path": "metadata.csv" - "prefix": "snmp." + "prefix": "snmp". "service_checks": "metadata_path": "assets/service_checks.json" "source_type_id": !!int "78" @@ -49,12 +49,12 @@ "git_integration_title": "snmp" "integration_id": "snmp" "integration_title": "SNMP" -"integration_version": "10.0.0" +"integration_version": "10.1.0" "is_public": true "manifest_version": "2.0.0" "name": "snmp" "public_title": "SNMP" -"short_description": "Recopila métricas de SNMP de tus dispositivos de red." +"short_description": "Recopila métricas de SNMP de tus dispositivos de red". "supported_os": - "linux" - "windows" @@ -70,7 +70,7 @@ - "Supported OS::macOS" - "Offering::Integración" "configuration": "README.md#Configuración" - "description": "Recopila métricas de SNMP de tus dispositivos de red." + "description": "Recopila métricas de SNMP de tus dispositivos de red". "media": [] "overview": "README.md#Información general" "resources": diff --git a/content/es/integrations/tekton.md b/content/es/integrations/tekton.md new file mode 100644 index 0000000000000..dbcc219a3a14c --- /dev/null +++ b/content/es/integrations/tekton.md @@ -0,0 +1,135 @@ +--- +app_id: tekton +app_uuid: 4e8f129e-1c9b-4078-a966-f0099dbf9465 +assets: + dashboards: + Tekton Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: + - tekton.pipelines_controller.go.alloc + - tekton.triggers_controller.go.alloc + metadata_path: metadata.csv + prefix: tekton. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 5667413 + source_type_name: Tekton + monitors: + Increasing number of failed PipelineRuns: assets/monitors/increasing_failed_pipelineruns.json + Increasing number of failed TaskRuns: assets/monitors/increasing_failed_taskruns.json + TaskRuns are throttled: assets/monitors/throttled_taskruns.json + saved_views: + tekton_errors: assets/saved_views/tekton_errors.json + tekton_overview: assets/saved_views/tekton_overview.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +- herramientas de desarrollo +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/tekton/README.md +display_on_public_website: true +draft: false +git_integration_title: tekton +integration_id: tekton +integration_title: Tekton +integration_version: 2.2.0 +is_public: true +manifest_version: 2.0.0 +name: tekton +public_title: Tekton +short_description: Realiza un seguimiento de todas tus métricas de Tekton con Datadog. +supported_os: +- linux +- windows +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Sistema operativo compatible::Linux + - Sistema operativo compatible::Windows + - Sistema operativo compatible::macOS + - Categoría::Recopilación de logs + - Categoría::Herramientas de desarrollo + - Oferta::Integración + configuration: README.md#Configuración + description: Realiza un seguimiento de todas tus métricas de Tekton con Datadog. + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: Tekton +--- + + + + +## Información general + +Este check monitoriza [Tekton][1] a través del Datadog Agent. Tekton es un marco de código abierto robusto y flexible para la creación de sistemas CI/CD, que permite a los desarrolladores crear, probar y desplegar en proveedores de nube y sistemas on-premise. + +## Configuración + +Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos contenedorizados, consulta las [plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones. + +### Instalación + +A partir del Agent versión 7.53.0, el check de Tekton está incluido en el paquete del [Datadog Agent][3]. No es necesaria ninguna instalación adicional en tu servidor. + +Este check utiliza [OpenMetrics][4] para recopilar métricas del endpoint expuesto por Tekton, que requiere Python v3. + +### Configuración + +1. Edita el archivo `tekton.d/conf.yaml`, en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent para empezar a recopilar tus datos de rendimiento de Tekton. Consulta el [tekton.d/conf.yaml de ejemplo][5] para ver todas las opciones de configuración disponibles. + +2. [Reinicia el Agent][6]. + +### Validación + +[Ejecuta el subcomando de estado del Agent][7] y busca `tekton` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "tekton" >}} + + +### Eventos + +La integración Tekton no incluye eventos. + +### Checks de servicio +{{< get-service-checks-from-git "tekton" >}} + + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [equipo de asistencia de Datadog][10]. + +## Referencias adicionales + +Más enlaces, artículos y documentación útiles: + +- [Monitorización de la salud y del rendimiento de tus pipelines CI/CD nativos del contenedor][11] + + +[1]: https://tekton.dev/ +[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://docs.datadoghq.com/es/integrations/openmetrics/ +[5]: https://github.com/DataDog/integrations-core/blob/master/tekton/datadog_checks/tekton/data/conf.yaml.example +[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[7]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[8]: https://github.com/DataDog/integrations-core/blob/master/tekton/metadata.csv +[9]: https://github.com/DataDog/integrations-core/blob/master/tekton/assets/service_checks.json +[10]: https://docs.datadoghq.com/es/help/ +[11]: https://www.datadoghq.com/blog/container-native-ci-cd-integrations/ \ No newline at end of file diff --git a/content/es/integrations/temporal_cloud.md b/content/es/integrations/temporal_cloud.md new file mode 100644 index 0000000000000..5c6d67842369e --- /dev/null +++ b/content/es/integrations/temporal_cloud.md @@ -0,0 +1,136 @@ +--- +app_id: temporal-cloud +app_uuid: 4fc358f8-ab2d-43ae-86e5-129ef4e4e6a1 +assets: + dashboards: + Temporal Cloud - Overview: assets/dashboards/temporal_cloud_overview.json + integration: + auto_install: false + events: + creates_events: false + metrics: + check: temporal.cloud.v0_frontend_service_request + metadata_path: metadata.csv + prefix: temporal.cloud. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 32597071 + source_type_name: Temporal Cloud + monitors: + High gRPC error percentage: assets/monitors/high_grpc_error_percentage.json + High service latency: assets/monitors/high_service_latency.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- nube +- herramientas de desarrollo +- métricas +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/temporal_cloud/README.md +display_on_public_website: true +draft: false +git_integration_title: temporal_cloud +integration_id: temporal-cloud +integration_title: Temporal Cloud +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: temporal_cloud +public_title: Temporal Cloud +short_description: Obtén información sobre la salud del sistema, la eficiencia del + flujo de trabajo, la ejecución de tareas y los cuellos de botella en el rendimiento + de tu instancia. +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Cloud + - Category::Developer Tools + - Category::Metrics + - Offering::Integration + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: Obtén información sobre la salud del sistema, la eficiencia del flujo + de trabajo, la ejecución de tareas y los cuellos de botella en el rendimiento + de tu instancia. + media: + - caption: Temporal Cloud - Información general 1 + image_url: images/temporal_cloud_overview_1.png + media_type: imagen + - caption: Temporal Cloud - Información general 2 + image_url: images/temporal_cloud_overview_2.png + media_type: imagen + - caption: Temporal Cloud - Información general 3 + image_url: images/temporal_cloud_overview_3.png + media_type: imagen + - caption: Temporal Cloud - Información general 4 + image_url: images/temporal_cloud_overview_4.png + media_type: imagen + - caption: Temporal Cloud - Información general 5 + image_url: images/temporal_cloud_overview_5.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Temporal Cloud +--- + + +## Información general + +[Temporal Cloud][1] es una plataforma escalable para la orquestación de flujos de trabajo complejos, que permite a los desarrolladores centrarse en la creación de aplicaciones, sin preocuparse por la tolerancia a fallos y la coherencia. + +Esta integración reúne las métricas de Temporal Cloud en Datadog, ofreciendo información sobre la salud del sistema, la eficiencia del flujo de trabajo, la ejecución de tareas y los cuellos de botella en el rendimiento. + +## Configuración + +### Generar una URL del endpoint de métricas en Temporal Cloud + +1. Para generar un certificado de autoridad de certificación (CA) y un certificado de entidad final, consulta la [gestión de certificados][2]. + - **Nota**: Un certificado de CA raíz caducado invalida todos los certificados posteriores. Para evitar interrupciones en tus sistemas, utiliza certificados con periodos de validez prolongados. +2. Inicia sesión en [Temporal Cloud][3] con un rol de propietario de cuenta o de administrador general. +3. Ve a **Settings** (Configuración) y selecciona la pestaña **Observabilidad**. +4. En la sección **Certificates** (Certificados), añade tu certificado de CA raíz (contenido del archivo `.pem`) y guárdalo. + - **Nota**: Si ya existe un endpoint de observabilidad configurado, puedes añadir tu certificado de CA raíz. +5. Haz clic en **Save** (Guardar) para generar la URL del endpoint en la sección **Endpoint**. La URL debe tener el siguiente aspecto: `https://.tmprl.cloud/prometheus`. + + +### Conectar tu cuenta de Temporal Cloud a Datadog + +1. Añade tu ID de cuenta, el contenido del archivo del certificado de entidad final y el contenido del archivo de claves del certificado de entidad final. + |Parámetros |Descripción | + |--------------------|--------------------| + |ID de cuenta |ID de cuenta de Temporal Cloud que se utilizará como parte de la URL del endpoint de métricas: `https://.tmprl.cloud/prometheus`.| + |Contenido del archivo del certificado de entidad final |Contenido del certificado de entidad final para el acceso seguro y la comunicación con el endpoint de métricas.| + |Contenido del archivo de claves del certificado de entidad final |Contenido de la clave del certificado de entidad final para el acceso seguro y la comunicación con el endpoint de métricas.| + +2. Haz clic en el botón **Save** (Guardar) para guardar la configuración. + + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "temporal_cloud" >}} + + + +### Checks de servicio + +La integración Temporal Cloud no incluye checks de servicios. + +### Eventos + +La integración Temporal Cloud no incluye eventos. + +## Ayuda + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5]. + +[1]: https://temporal.io/cloud/ +[2]: https://docs.temporal.io/cloud/certificates#use-certstrap/ +[3]: https://cloud.temporal.io/ +[4]: https://github.com/DataDog/integrations-core/blob/master/temporal_cloud/metadata.csv +[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/tibco_ems.md b/content/es/integrations/tibco_ems.md new file mode 100644 index 0000000000000..c383c2a616ff0 --- /dev/null +++ b/content/es/integrations/tibco_ems.md @@ -0,0 +1,190 @@ +--- +app_id: tibco-ems +app_uuid: 32445b00-582f-4e56-9c4d-87944d5c347b +assets: + dashboards: + Tibco EMS Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: tibco_ems.server.uptime + metadata_path: metadata.csv + prefix: tibco_ems. + process_signatures: + - tibemsd + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 19354115 + source_type_name: tibco_ems + monitors: + Tibco EMS server uptime: assets/monitors/server_uptime.json + saved_views: + Tibco EMS Error Logs Overview: assets/saved_views/error_logs_overview.json + Tibco EMS Logs Overview: assets/saved_views/logs_overview.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- métricas +- recopilación de logs +- colas de mensajes +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/tibco_ems/README.md +display_on_public_website: true +draft: false +git_integration_title: tibco_ems +integration_id: tibco-ems +integration_title: Tibco EMS +integration_version: 2.1.0 +is_public: true +manifest_version: 2.0.0 +name: tibco_ems +public_title: Tibco EMS +short_description: Realiza un seguimiento del tamaño de las colas, del recuento de + consumidores, de mensajes no reconocidos, etc. +supported_os: +- Linux +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Sistema operativo compatible::Linux + - Sistema operativo compatible::macOS + - Tipo de datos enviados::Métricas + - Oferta::Integración + - Categoría::Métricas + - Categoría::Recopilación de logs + - Categoría::Colas de mensajes + configuration: README.md#Configuración + description: Realiza un seguimiento del tamaño de las colas, del recuento de consumidores, + de mensajes no reconocidos, etc. + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: Tibco EMS +--- + + + + +## Información general + +Este check monitoriza [TIBCO Enterprise Message servicio][1] a través del Datadog Agent. + +## Configuración + +Sigue las instrucciones de abajo para instalar y configurar este check para un Agent que se ejecuta en un host. En el caso de entornos en contenedores, consulta las [Plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones. + +### Instalación + +El check de TIBCO EMS está incluido en el paquete del [Datadog Agent][3]. No es necesaria ninguna instalación adicional en tu servidor. + +### Configuración + +1. Edita el archivo `tibco_ems.d/conf.yaml`, en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent para empezar a recopilar tus datos de rendimiento de TIBCO EMS. Consulta el [tibco_ems.d/conf.yaml de ejemplo][4] para ver todas las opciones de configuración disponibles. + +2. [Reinicia el Agent][5]. + +#### Recopilación de métricas + +##### Crear tu script de comandos Tibco EMS + +La integración Tibco EMS utiliza la herramienta de la CLI `tibemsadmin` proporcionada por Tibco EMS. Para reducir el número de llamadas a la cola `$sys.admin`, Datadog utiliza un script para organizar por lotes las consultas realizadas a Tibco. Para recopilar métricas de Tibco EMS, pasa la ruta del script y la ruta absoluta del binario `tibemsadmin` a la configuración de la integración. + +*Nota*: El usuario `dd-agent` necesita permisos de ejecución en el binario `tibemsadmin`. +1. Crea un archivo llamado `show_commands` con el siguiente contenido: +```text + show connections full + show durables + show queues + show server + show stat consumers + show stat producers + show topics +``` + + +2. Añade este bloque de configuración a tu archivo `tibco_ems.d/conf.yaml` para empezar a recopilar [métricas de Tibco EMS](#metrics): + +```yaml +init_config: +instances: + ## @param script_path - string - optional + ## The path to the script that will be executed to collect metrics. Since the script is executed by a subprocess, + ## we need to know the path to the script. This must be the absolute path to the script. + # + script_path: + + ## @param tibemsadmin - string - optional + ## The command or path to tibemsadmin (for example /usr/bin/tibemsadmin or docker exec tibemsadmin) + ## , which can be overwritten on an instance. + ## + ## This overrides `tibemsadmin` defined in `init_config`. + # + tibemsadmin: +``` + +3. [Reinicia el Agent][5] para empezar a enviar métricas de Tibco EMS a Datadog. + +#### Recopilación de logs + +Disponible para el Agent v6.0 o posterior + +1. La recopilación de logs está deshabilitada por defecto en el Datadog Agent. Habilita logs en tu archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Añade este bloque de configuración a tu archivo `tibco_ems.d/conf.yaml` para empezar a recopilar logs de Tibco EMS: + + ```yaml + logs: + - type: file + path: + service: + source: tibco_ems + ``` + + Cambia los valores de los parámetros `service` y `path` y configúralos para tu entorno. Consulta el [tibco_ems.yaml de ejemplo][4] para ver todas las opciones de configuración disponibles. + +3. [Reinicia el Agent][5]. + +### Validación + +[Ejecuta el subcomando de estado del Agent][6] y busca `tibco_ems` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "tibco_ems" >}} + + +### Eventos + +La integración TIBCO EMS no incluye eventos. + +### Checks de servicios + +La integración TIBCO EMS no incluye checks de servicios. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + + +[1]: https://docs.tibco.com/products/tibco-enterprise-message-service +[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://github.com/DataDog/integrations-core/blob/master/tibco_ems/datadog_checks/tibco_ems/data/conf.yaml.example +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[7]: https://github.com/DataDog/integrations-core/blob/master/tibco_ems/metadata.csv +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/trend_micro_email_security.md b/content/es/integrations/trend_micro_email_security.md new file mode 100644 index 0000000000000..d71b32cbfe785 --- /dev/null +++ b/content/es/integrations/trend_micro_email_security.md @@ -0,0 +1,116 @@ +--- +app_id: trend-micro-email-security +app_uuid: 0f19a81b-93c1-477a-ad5d-bbabed937f85 +assets: + dashboards: + Trend Micro Email Security - Mail Tracking: assets/dashboards/trend_micro_email_security_mail_tracking.json + Trend Micro Email Security - Policy Events: assets/dashboards/trend_micro_email_security_policy_events.json + integration: + auto_install: false + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 18089572 + source_type_name: Trend Micro Email Security + logs: + source: trend-micro-email-security +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +- seguridad +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/trend_micro_email_security/README.md +display_on_public_website: true +draft: false +git_integration_title: trend_micro_email_security +integration_id: trend-micro-email-security +integration_title: Trend Micro Email Security +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: trend_micro_email_security +public_title: Trend Micro Email Security +short_description: Obtén información sobre logs de Trend Micro Email Security. +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Categoría::Recopilación de logs + - Categoría::Seguridad + - Submitted Data Type::Logs + - Oferta::Integración + configuration: README.md#Configuración + description: Obtén información sobre logs de Trend Micro Email Security. + media: + - caption: Trend Micro Email Security - Seguimiento del correo electrónico + image_url: images/trend_micro_email_security_mail_tracking.png + media_type: imagen + - caption: Trend Micro Email Security - Eventos de políticas + image_url: images/trend_micro_email_security_policy_events.png + media_type: imagen + overview: README.md#Información general + support: README.md#Soporte + title: Trend Micro Email Security +--- + + +## Información general + +[Trend Micro Email Security][1] es una solución basada en la nube que detiene los ataques de phishing, ransomware y compromiso del correo electrónico empresarial (BEC). Esta solución utiliza una combinación de técnicas contra amenazas intergeneracionales, como Machine Learning, análisis de sandbox, prevención de pérdida de datos (DLP) y otros métodos, para detener todo tipo de amenazas mediante correo electrónico. + +Esta integración ingiere los siguientes logs: + +- Eventos y detección de políticas - Estos logs proporcionan información sobre eventos y detección de políticas, lo que te permite monitorizar y responder a potenciales amenazas de seguridad de manera efectiva. +- Seguimiento del correo - Estos logs proporcionan información sobre las actividades de correo electrónico, incluido el tráfico aceptado y bloqueado, lo que te permite realizar un seguimiento de los mensajes de correo electrónico que pasaron por el sistema y monitorizar su estado de entrega. + +Utiliza dashboards predefinidos para obtener información detallada sobre el análisis del tráfico de correos electrónicos, la detección en tiempo real de las amenazas, la detección y observación de la seguridad y la monitorización del cumplimiento. + +## Configuración + +### Generar credenciales de API en Trend Micro Email Security + +1. Inicia sesión en la consola de Trend Micro Email Security. +2. Ve a **Administration** > **Service Integration** > **API Access** (Administración > Integración de servicios > Acceso a la API). +3. Haz clic en **Add** (Añadir) para generar una clave de API. +4. Cambia a la pestaña **Recuperación de logs** y asegúrate de que el **estado** de recuperación de logs esté activado. +5. Para identificar la **región host** de tu Trend Micro Email Security, consulta este [enlace][2]. +6. El **Nombre de usuario** es el **ID de inicio de sesión** de la consola de Trend Micro Email Security. + +### Conectar tu cuenta de Trend Micro Email Security a Datadog + +1. Añade tu región host, tu nombre de usuario y tu clave de API. + | Parámetros | Descripción | + | ----------- | --------------------------------------------------------------------- | + | Región host | La región de tu consola de administrador de Trend Micro Email Security. | + | Nombre de usuario | El nombre de usuario de la consola de administrador de Trend Micro Email Security. | + | Clave de API | La clave API de la consola de administrador de Trend Micro Email Security. | + +2. Haz clic en el botón **Save** (Guardar) para guardar la configuración. + +## Datos recopilados + +### Logs + +La integración Trend Micro Email Security recopila y reenvía eventos y detección de políticas y el seguimiento del correo electrónico a Datadog. + +### Métricas + +La integración Trend Micro Email Security no incluye métricas. + +### Eventos + +La integración Trend Micro Email Security no incluye eventos. + +## Ayuda + +Si necesitas más ayuda, ponte en contacto con el [servicio de asistencia de Datadog][3]. + +[1]: https://www.trendmicro.com/en_in/business/products/user-protection/sps/email-and-collaboration/email-security.html +[2]: https://success.trendmicro.com/en-US/solution/KA-0016673#:~:text=Trend%20micro%20email%20security +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/trend_micro_vision_one_xdr.md b/content/es/integrations/trend_micro_vision_one_xdr.md new file mode 100644 index 0000000000000..8308c2d8b0bf4 --- /dev/null +++ b/content/es/integrations/trend_micro_vision_one_xdr.md @@ -0,0 +1,125 @@ +--- +app_id: trend-micro-vision-one-xdr +app_uuid: 5efb1591-f9ef-45a3-8b8e-9f716df68f16 +assets: + dashboards: + Trend Micro Vision One XDR - Observed Attack Techniques: assets/dashboards/trend_micro_vision_one_xdr_observed_attack_techniques.json + Trend Micro Vision One XDR - Workbench Alerts: assets/dashboards/trend_micro_vision_one_xdr_workbench_alerts.json + integration: + auto_install: false + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 22902543 + source_type_name: Trend Micro Vision One XDR + logs: + source: trend-micro-vision-one-xdr +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +- seguridad +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/trend_micro_vision_one_xdr/README.md +display_on_public_website: true +draft: false +git_integration_title: trend_micro_vision_one_xdr +integration_id: trend-micro-vision-one-xdr +integration_title: Trend Micro Vision One XDR +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: trend_micro_vision_one_xdr +public_title: Trend Micro Vision One XDR +short_description: Obtener información sobre logs de Trend Micro Vision One XDR +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Log Collection + - Category::Security + - Offering::Integration + - Submitted Data Type::Logs + configuration: README.md#Setup + description: Obtener información sobre logs de Trend Micro Vision One XDR + media: + - caption: Trend Micro Vision One XDR - Alertas de Workbench + image_url: images/trend_micro_vision_one_xdr_workbench_alerts.png + media_type: imagen + - caption: Trend Micro Vision One XDR - Técnicas de ataque observadas + image_url: images/trend_micro_vision_one_xdr_oat.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Trend Micro Vision One XDR +--- + + +## Información general + +[Trend Micro Vision One XDR][1] recopila y correlaciona automáticamente los datos en varias capas de seguridad: correo electrónico, endpoint, servidor, carga de trabajo en la nube y red. Esto permite una detección más rápida de las amenazas, mejora la investigación y los tiempos de respuesta mediante un análisis de seguridad mejorado. + +Esta integración ingiere los siguientes logs: + +- **Alertas de Workbench**: Este endpoint contiene información sobre todas las alertas independientes activadas por modelos de detección. +- **Técnicas de ataque observadas**: Este endpoint contiene información sobre técnicas de ataque observadas a partir de fuentes de datos de Detecciones, Actividad de endpoint, Actividad en la nube, Actividad de correo electrónico, Actividad móvil, Actividad de red, Actividad en contenedor y Actividad de identidad. + +Esta integración recopila logs de las fuentes mencionadas anteriormente y las envía a Datadog para ser analizados con nuestros productos Explorador de logs y Cloud SIEM +* [Explorador de logs][2] +* [Cloud SIEM][3] + +## Configuración + +### Generar credenciales de API en Trend Micro Vision One XDR + +1. En la consola de Trend Vision One, ve al menú de la barra lateral izquierda y accede a **Administration > API Keys** (Administración > Claves de API). +2. Genera un nuevo token de autenticación. Haz clic en **Add API key** (Añadir clave de API). Especifica la configuración de la nueva clave de API con lo siguiente: + - **Nombre**: Un nombre significativo que pueda ayuda identificar la clave de API. + - **Rol**: El rol de usuario asignado a la clave. Selecciona **SIEM** en el menú desplegable. + - **Tiempo de caducidad**: El tiempo de validez de la clave de API. + - **Estado**: Si la clave de API está habilitada. + - **Detalles**: Información adicional sobre la clave de API. +3. Haz clic en **Add** (Añadir). +4. Para identificar la región host de tu consola de Trend Micro Vision One XDR, consulta [aquí][4]. + +### Conectar tu cuenta de Trend Micro Vision One XDR a Datadog + +1. Añade tu región host y tu clave de API. + | Parámetros | Descripción | + | ----------- | ------------------------------------------------------- | + | Región host | La región de tu consola de Trend Micro Vision One XDR. | + | Clave de API | La clave de API de tu consola de Trend Micro Vision One XDR. | + +2. Haz clic en el botón Save (Guardar) para guardar la configuración. + +## Datos recopilados + +### Logs +La integración Trend Micro Vision One XDR recopila y reenvía alertas de Workbench y logs de las técnicas de ataque observadas a Datadog. + +### Métricas + +Trend Micro Vision One XDR no incluye métricas. + +### Checks de servicio + +Trend Micro Vision One XDR no incluye checks de servicios. + +### Eventos + +Trend Micro Vision One XDR no incluye eventos. + +## Ayuda + +Para obtener más ayuda, ponte en contacto con el [servicio de asistencia de Datadog][5]. + +[1]: https://www.trendmicro.com/en_in/business/products/detection-response/xdr.html +[2]: https://docs.datadoghq.com/es/logs/explorer/ +[3]: https://www.datadoghq.com/product/cloud-siem/ +[4]: https://success.trendmicro.com/en-US/solution/ka-0015959 +[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/velero.md b/content/es/integrations/velero.md new file mode 100644 index 0000000000000..3d51e830eace4 --- /dev/null +++ b/content/es/integrations/velero.md @@ -0,0 +1,195 @@ +--- +app_id: velero +app_uuid: e4199d9b-74fe-4af2-9afb-bbcde0f729f6 +assets: + dashboards: + Velero Overview: assets/dashboards/velero_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: velero.backup.attempt.count + metadata_path: metadata.csv + prefix: velero. + process_signatures: + - velero + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 38596867 + source_type_name: Velero + monitors: + Backup Failures: assets/monitors/backup_failures.json + Backup Staleness: assets/monitors/backup_staleness.json + Restore Failures: assets/monitors/restore_failures.json + saved_views: + Velero Error Logs Overview: assets/saved_views/error_logs_overview.json + Velero Logs Overview: assets/saved_views/logs_overview.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- nube +- Kubernetes +- suministro +- recopilación de logs +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/velero/README.md +display_on_public_website: true +draft: false +git_integration_title: velero +integration_id: velero +integration_title: Velero +integration_version: 2.0.0 +is_public: true +manifest_version: 2.0.0 +name: velero +public_title: Velero +short_description: Monitoriza el rendimiento y el uso de tus despliegues Velero. +supported_os: +- linux +- Windows +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Cloud + - Category::Kubernetes + - Categoría::Suministro + - Category::Log Collection + - Offering::Integration + - Submitted Data Type::Metrics + - Submitted Data Type::Logs + configuration: README.md#Setup + description: Monitoriza el rendimiento y el uso de tus despliegues Velero. + media: [] + overview: README.md#Overview + support: README.md#Support + title: Velero +--- + + + + +## Información general + +Este check monitoriza [Velero][1] a través del Datadog Agent. Recopila datos sobre las operaciones de copia de seguridad, recuperación y snapshot de Velero. Esto permite a los usuarios obtener información sobre la salud, el rendimiento y la fiabilidad de sus procesos de recuperación de desastres. + +## Configuración + +### Instalación + +El check de Velero está incluido en el paquete del [Datadog Agent][2]. +No es necesaria ninguna instalación adicional en tu servidor. + +### Configuración + +#### Métricas + +{{< tabs >}} +{{% tab "Host" %}} + +Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. + +1. Edita el archivo `velero.d/conf.yaml` que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent para empezar a recopilar tus datos de rendimiento de Velero. Para conocer todas las opciones de configuración disponibles, consulta el [velero.d/conf.yaml de ejemplo][1]. + +2. [Reinicia el Agent][2]. + +[1]: https://github.com/DataDog/integrations-core/blob/master/velero/datadog_checks/velero/data/conf.yaml.example +[2]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +{{% /tab %}} +{{% tab "Kubernetes" %}} + +Consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la configuración de esta integración en un entorno contenedorizado. + +Ten en cuenta que es necesario consultar dos tipos de pods para recopilar todas las métricas: `velero` y `node-agent` +Por lo tanto, asegúrate de actualizar las anotaciones del despliegue de `velero`, así como el daemonset `node-agent`. + +[1]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ +{{% /tab %}} +{{< /tabs >}} + +#### Logs + +La integración Velero puede recopilar logs de los pods Velero. + +{{< tabs >}} +{{% tab "Host" %}} + +Para recopilar logs de los contenedores Velero en un host: + +1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en tu archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Descomenta y edita el bloque de configuración de logs en tu archivo `velero.d/conf.yaml`. Por ejemplo: + + ```yaml + logs: + - type: docker + source: velero + service: velero + ``` + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +Para recopilar logs de un despliegue de Velero Kubernetes: + +1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta [Recopilación de logs de Kubernetes][1]. + +2. Configura las integraciones de logs como anotaciones de pod. Esto también se puede configurar con un archivo, un ConfigMap o un almacén de clave-valor. Para obtener más información, consulta la sección [Recopilación de logs de Kubernetes][2]. + +[1]: https://docs.datadoghq.com/es/agent/kubernetes/log/#setup +[2]: https://docs.datadoghq.com/es/agent/kubernetes/log/#configuration +{{% /tab %}} +{{< /tabs >}} + +### Validación + +[Ejecuta el subcomando de estado del Agent][3] y busca `velero` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "velero" >}} + + +### Eventos + +La integración Velero no incluye eventos. + +### Checks de servicio + +La integración Velero no incluye checks de servicios. + +## Solucionar problemas + +Asegúrate de que tu servidor Velero expone métricas comprobando que la función está habilitada en la configuración del despliegue: + +```yaml +# Settings for Velero's prometheus metrics. Enabled by default. +metrics: + enabled: true + scrapeInterval: 30s + scrapeTimeout: 10s +``` + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][4]. + + + +[1]: https://velero.io +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[4]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/wazuh.md b/content/es/integrations/wazuh.md new file mode 100644 index 0000000000000..51b11e56263cd --- /dev/null +++ b/content/es/integrations/wazuh.md @@ -0,0 +1,252 @@ +--- +app_id: wazuh +app_uuid: 5b1e3f2f-419d-4d9d-bb00-002b58e28835 +assets: + dashboards: + Wazuh - Cloud Security: assets/dashboards/wazuh_cloud_security.json + Wazuh - File Integrity Monitoring: assets/dashboards/wazuh_file_integrity_monitoring.json + Wazuh - MITRE ATT&CK: assets/dashboards/wazuh_MITRE_ATT&CK.json + Wazuh - Malware Detection: assets/dashboards/wazuh_malware_detection.json + Wazuh - Overview: assets/dashboards/wazuh_overview.json + Wazuh - Security Operations: assets/dashboards/wazuh_security_operations.json + Wazuh - System: assets/dashboards/wazuh_system.json + Wazuh - Vulnerability Detection: assets/dashboards/wazuh_vulnerability_detection.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 26101213 + source_type_name: Wazuh + logs: + source: wazuh +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- events +- recopilación de logs +- seguridad +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/wazuh/README.md +display_on_public_website: true +draft: false +git_integration_title: wazuh +integration_id: wazuh +integration_title: Wazuh +integration_version: 1.0.0 +is_public: true +manifest_version: 2.0.0 +name: wazuh +public_title: Wazuh +short_description: Obtén información sobre las alertas de Wazuh. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Alerting + - Category::Log Collection + - Category::Security + - Offering::Integration + - Submitted Data Type::Logs + configuration: README.md#Setup + description: Obtén información sobre las alertas de Wazuh. + media: + - caption: 'Wazuh: seguridad en la nube' + image_url: images/wazuh-cloud-security.png + media_type: imagen + - caption: 'Wazuh: monitorización de la integridad de los archivos' + image_url: images/wazuh-file-integrity-monitoring.png + media_type: imagen + - caption: 'Wazuh: detección de malware' + image_url: images/wazuh-malware-detection.png + media_type: imagen + - caption: 'Wazuh: MITRE ATT&CK' + image_url: images/wazuh-mitre-attack.png + media_type: imagen + - caption: 'Wazuh: información general' + image_url: images/wazuh-overview.png + media_type: imagen + - caption: 'Wazuh: operaciones de seguridad' + image_url: images/wazuh-security-operations.png + media_type: imagen + - caption: 'Wazuh: sistema' + image_url: images/wazuh-system.png + media_type: imagen + - caption: 'Wazuh: detección de vulnerabilidades' + image_url: images/wazuh-vulnerability-detection.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Wazuh +--- + + + + +## Información general + +[Wazuh][1] proporciona una solución de seguridad integral que detecta, analiza y responde a las amenazas a través de múltiples capas de infraestructura de TI. Wazuh recopila telemetría de endpoints, dispositivos de red, cargas de trabajo en la nube, APIs de terceros y otras fuentes para la monitorización de una seguridad unificada y la protección. + +Esta integración analiza los siguientes tipos de logs: +- **vulnerability-detector**: eventos de vulnerabilidad generados por Wazuh. +- **malware-detector**: eventos de rootcheck generados por Wazuh para detectar cualquier malware en el sistema. +- **file-integrity-monitoring**: eventos relacionados con los cambios de archivos como permiso, contenido, propiedad y atributos. +- **docker**: eventos de actividad de contenedor de Docker. +- **github**: eventos de logs de auditoría de organizaciones de github. +- **google-cloud**: eventos de seguridad relacionados con los servicios de la plataforma de Google Cloud. +- **amazon**: eventos de seguridad de servicios de Amazon AWS. +- **office365**: eventos de seguridad relacionados con office365. +- **system**: eventos de servicios como FTPD, PAM, SSHD, syslog, Windows, dpkg, yum, sudo, su, wazuh y ossec junto con eventos internos. + +Visualiza información detallada de estos logs a través de dashboards predefinidos. + +## Configuración + +### Instalación + +Para instalar la integración de Wazuh, ejecuta el siguiente comando de instalación del Agent y los pasos que se indican a continuación. Para más información, consulta la documentación de [gestión de la integración][2]. + +**Nota**: Este paso no es necesario para la versión 7.58.0 o posterior del Agent. + +Comando de Linux + ```shell + sudo -u dd-agent -- datadog-agent integration install datadog-wazuh==1.0.0 + ``` + +### Configuración + +#### Recopilación de logs + +1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` +2. Añade este bloque de configuración a tu archivo `wazuh.d/conf.yaml` para empezar a recopilar tus logs. + + Utiliza el método UDP para recopilar los datos de las alertas de Wazuh. + Ve el [wazuh.d/conf.yaml][3] de ejemplo para conocer las opciones disponibles de configuración. + + ```yaml + logs: + - type: udp + port: + source: wazuh + service: wazuh + ``` + **Nota**: Es recomendado no cambiar los valores de servicio y fuente, ya que estos parámetros son parte integral de la operación del pipeline. + +3. [Reinicia el Agent][4]. + +#### Configurar el reenvío de mensajes syslog desde Wazuh + + 1. Inicia sesión en la interfaz de usuario de Wazuh. Navega hasta el menú de la izquierda. + 2. Ve a **Server management** > **Settings** (Gestión del servidor > Configuración). + 3. Haz clic en **Edit configuration** (Editar configuración). + 4. Añade el siguiente bloque de configuración: + + En este ejemplo, todas las alertas se envían a 1.1.1.1 en el puerto 8080 en formato JSON. + ```xml + + 1.1.1.1 + 8080 + json + + ``` + + * La etiqueta `server` debe contener la dirección IP donde se está ejecutando tu Datadog Agent. + + * La etiqueta `port` debe contener el puerto donde tu Datadog Agent está escuchando. + + Nota: El uso del formato JSON es obligatorio, ya que el pipeline de Wazuh analiza logs en formato JSON solamente. + 5. Pulsa el botón **Save** (Guardar). + 6. Después de guardar, haz clic en el botón **Restart Manager** (Reiniciar administrador). + + +### Validación + +[Ejecuta el subcomando de estado del Agent][5] y busca `wazuh` en la sección Checks. + +## Datos recopilados + +### Log + +| Formato | Tipos de evento | +| --------- | -------------- | +| JSON | vulnerability-detector, file-integrity-monitoring, malware-detector, github, docker, amazon, office365, google-cloud, system y otros | + +### Métricas + +La integración de Wazuh no incluye ninguna métrica. + +### Eventos + +La integración de Wazuh no incluye ningún evento. + +### Checks de servicio + +La integración de Wazuh no incluye ningún check de servicio. + +## Solucionar problemas + +**Permission denied while port binding** (Permiso denegado en la vinculación de puertos): + +Si aparece un error de **Permission denied** (Permiso denegado) al vincular puertos en los logs del Agent: + +1. La vinculación a un número de puerto inferior a 1024 requiere permisos elevados. Concede acceso al puerto mediante el comando `setcap`: + ```shell + sudo setcap CAP_NET_BIND_SERVICE=+ep /opt/datadog-agent/bin/agent/agent + ``` + +2. Comprueba que la configuración es correcta ejecutando el comando `getcap`: + + ```shell + sudo getcap /opt/datadog-agent/bin/agent/agent + ``` + + Con el resultado esperado: + + ```shell + /opt/datadog-agent/bin/agent/agent = cap_net_bind_service+ep + ``` + + **Nota**: Vuelve a ejecutar este comando `setcap` cada vez que actualices el Agent. + +3. [Reinicia el Agent][4]. + +A continuación, se explica cómo solucionar algunos posibles problemas. + +**Data is not being collected** (No se están recopilando datos): + +Asegúrate de que se evita el tráfico del puerto configurado si el firewall está activado. + +**Port already in use** (Puerto ya en uso): + +Si aparece el error **Port Already in Use** (Puerto n.° ya en uso), consulta las siguientes instrucciones. El ejemplo siguiente es para el puerto 514: + +- En los sistemas que utilizan Syslog, si el Agent escucha logs de Wazuh en el puerto 514, puede aparecer el siguiente error en los logs del Agent: `Can't start UDP Forwarder on port 514: listen udp :514: bind: address already in use`. Este error ocurre porque, por defecto, Syslog escucha en el puerto 514. Para resolver este error, toma **uno** de los siguientes pasos: + - Desactiva Syslog. + - Configura el Agent para escuchar en un puerto diferente, disponible. + + +Para obtener más ayuda, ponte en contacto con el [soporte de Datadog][6]. + +[1]: https://wazuh.com/ +[2]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=linux#install +[3]: https://github.com/DataDog/integrations-core/blob/master/wazuh/datadog_checks/wazuh/data/conf.yaml.example +[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[6]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/internal_developer_portal/scorecards/scorecard_configuration.md b/content/es/internal_developer_portal/scorecards/scorecard_configuration.md new file mode 100644 index 0000000000000..a516435dca201 --- /dev/null +++ b/content/es/internal_developer_portal/scorecards/scorecard_configuration.md @@ -0,0 +1,133 @@ +--- +aliases: +- /es/tracing/software_catalog/scorecards/scorecard_configuration +- /es/tracing/service_catalog/scorecards/scorecard_configuration +- /es/service_catalog/scorecards/scorecard_configuration +- /es/software_catalog/scorecards/scorecard_configuration +further_reading: +- link: /tracing/software_catalog/ + tag: Documentación + text: Catálogo de software +- link: /api/latest/service-scorecards/ + tag: Documentación + text: API de scorecards +- link: https://www.datadoghq.com/blog/service-scorecards/ + tag: Blog + text: Priorizar y promover las prácticas de observabilidad recomendadas del servicio + con scorecards +- link: https://www.datadoghq.com/blog/datadog-custom-scorecards/ + tag: Blog + text: Formalizar las prácticas recomendadas con scorecards +- link: /continuous_integration/dora_metrics/ + tag: Documentación + text: Seguimiento de las métricas DORA con Datadog +title: Configuración de scorecards +--- + +Datadog proporciona las siguientes scorecards predefinidas basadas en un conjunto de reglas predeterminadas: Preparación para la producción, Prácticas de observabilidad recomendadas, Propiedad y documentación. + +## Configurar scorecards predeterminadas + +Para seleccionar cuáles de las reglas predefinidas se evalúan para cada una de las scorecards predeterminadas: + +1. Abre la página [Scorecards][1] en el Catálogo de software. +2. Activa o desactiva las reglas para personalizar el cálculo de las puntuaciones. +3. Haz clic en **View your scores** (Ver sus puntuaciones) para iniciar el seguimiento de tu progreso con las reglas seleccionadas a través de tus entidades definidas. + +{{< img src="/tracing/software_catalog/scorecards-setup.png" alt="Página de configuración de scorecards" style="width:90%;" >}} + +## Modo de evaluación de las entidades + +Una vez configuradas las scorecards por defecto, la página Scorecards del Catálogo de software muestra la lista de reglas predefinidas y el porcentaje de entidades que aprueban esas reglas. Haz clic en una regla para ver más detalles sobre las entidades que la aprueban y las que no, así como los equipos a las que pertenecen. Todas las reglas predefinidas son configuradas inicialmente para evaluar entidades de `kind:service`, pero [este contexto se puede cambiar][7] en el editor de reglas. + +### Preparación para la producción + +La puntuación del nivel de preparación para la producción de todas las entidades (salvo que se indique lo contrario) se basa en estas normas: + +Tener SLOs definidos +: [Los objetivos de nivel de servicio (SLOs)][2] proporcionan un marco para definir objetivos claros en torno al rendimiento de las aplicaciones, lo que te ayuda a ofrecer una experiencia constante al cliente, equilibrar el desarrollo de funciones con la estabilidad de la plataforma y mejorar la comunicación con los usuarios internos y externos. + +Tener monitores definidos +: Los monitores reducen los tiempos de inactividad ayudando a tu equipo a reaccionar rápidamente ante los problemas en tu entorno. Consulta las [plantillas de monitor][3]. + +Guardias definidas +: Mejora la experiencia de las guardias para todos estableciendo una propiedad clara de tus servicios. De este modo, tus ingenieros de guardia dispondrán del punto de contacto correcto durante los incidentes, lo que reducirá el tiempo necesario para resolverlos. + +El último despliegue se produjo en los últimos 3 meses +: Para servicios monitorizados por APM o USM. Las prácticas de desarrollo ágil te permiten responder rápidamente a los comentarios de los usuarios y centrarte en el desarrollo de las funciones más importantes para los usuarios finales. + +### Prácticas de observabilidad recomendadas + +La puntuación de Prácticas de observabilidad recomendadas se basa en las siguientes reglas: + +El seguimiento del despliegue está activo +: Para servicios monitorizados por APM o USM. [Asegúrate de que los despliegues se realizan sin problemas, implementando una versión de etiqueta (tag) con el Etiquetado unificado de servicios][4]. A medida que despliegas nuevas versiones de tu funcionalidad, Datadog detecta y alerta sobre las diferencias entre versiones en cuanto a tasas de error, número de solicitudes y más. Esto te permite saber cuándo debes volver a versiones anteriores para mejorar la experiencia del usuario final. + +La correlación de logs está activa +: Para servicios APM, se evalúa en función de la última hora de logs detectados. [La correlación entre APM y logs][5] mejora la velocidad de resolución de problemas de los usuarios finales, ahorrándoles tiempo durante incidentes y cortes. + +### Propiedad y documentación + +La puntuación de Propiedad y documentación se basa en las siguientes reglas: + +Equipo definido +: Definir un equipo permite a los miembros del personal de guardia saber a qué equipo deben dirigirse en caso de que la causa de un problema sea un servicio con el que no están familiarizados. + +Contactos definidos +: Definir los contactos reduce el tiempo que tardan los miembros del personal de guardia en escalar al propietario de otro servicio, lo que te ayuda a recuperar más rápidamente tus servicios de cortes e incidentes. + +Repositorios de código definidos +: Identificar los repositorios de código permite a tus ingenieros realizar una investigación inicial de un problema, sin tener que ponerse en contacto con el equipo propietario del servicio. Esto mejora la colaboración y ayuda a tus ingenieros a mejorar su comprensión general de los puntos de integración. + +Documentos definidos +: La vinculación de la documentación del Catálogo de software proporciona a los ingenieros acceso a conocimientos específicos del servicio, como descripciones generales de la arquitectura, referencias de API y guías operativas. Esto promueve una mejor colaboración entre equipos, acelera la incorporación y profundiza la comprensión general de cómo funcionan e interactúan los servicios. + +## Cálculo de las puntuaciones + +Cada scorecard predefinida (Preparación para la producción, Prácticas de observabilidad recomendadas, Propiedad y documentación) se compone de un conjunto de reglas predeterminadas. Estas reflejan las condiciones de aprobado/no aprobado y se evalúan automáticamente una vez al día. La puntuación de una entidad con respecto a las reglas personalizadas se basa en los resultados enviados mediante la [API de scorecards][8] o [Workflow Automation][9]. Para excluir una regla personalizada concreta del cálculo de la puntuación de una entidad, define su resultado como `skip` en la API de scorecards. + +Las reglas individuales pueden tener restricciones basadas en la disponibilidad de los datos. Por ejemplo, las reglas relacionadas con los despliegues dependen de la disponibilidad de las etiquetas de versión a través del [Etiquetado unificado de servicios][6] de APM. + +Cada regla indica una puntuación del porcentaje de entidades que aprueban. Cada scorecard tiene un porcentaje de puntuación general que suma el número de entidades que aprueban entre todas las reglas, **no** el número de entidades que aprueban todas las reglas. Las reglas omitidas y desactivadas no se incluyen en este cálculo. + +Las puntuaciones de cada regla también se pueden visualizar **Por tipo** y **Por equipo**. Estas pestañas agregan las puntuaciones a través del tipo de entidad (por ejemplo, `service`, `queue`, `datastore` o `api`) o de equipo, como se define en el Catálogo de software. Esta puntuación se calcula promediando la puntuación individual de cada entidad dentro de cada tipo o equipo. + +## Agrupación de reglas por niveles + +Puedes agrupar las reglas por niveles para clasificarlas según su criticidad. Existen tres niveles predefinidos: + +- **Nivel 1 - Reglas básicas:** Estas reglas reflejan las expectativas básicas para cada entidad de producción, como tener un propietario de guardia, monitorizaciónen el lugar o un equipo definido. +- **Nivel 2 - Reglas intermedias:** Estas reglas reflejan sólidas prácticas de ingeniería que deberían adoptarse en la mayoría de las entidades. Algunos ejemplos podrían ser la definición de SLOs o la vinculación de la documentación en el Catálogo de software. +- **Nivel 3 - Reglas avanzadas:** Estas reglas aspiracionales representan prácticas de ingeniería maduras. Puede que no se apliquen a todas las entidades, pero son objetivos valiosos para los equipos. + +Puedes definir niveles para cualquier regla predefinida o personalizada. Por defecto, las reglas sin niveles se colocan automáticamente en el nivel 3. Puedes cambiar esta asignación por defecto editando la regla. + +{{< img src="/tracing/software_catalog/scorecard-levels.png" alt="Interfaz de usuario de scorecards agrupada por niveles" style="width:90%;" >}} + +Puedes agrupar reglas por scorecard o nivel en la interfaz de usuario de scorecards. En el Catálogo de software, puedes realizar un seguimiento del progreso de un servicio específico en cada nivel. Cada servicio comienza en el nivel 0. La entidad progresa al nivel 1 una vez que aprueba todas las reglas del nivel 1, hasta que alcanza un estado de nivel 3. + +{{< img src="/tracing/software_catalog/scorecard-levels-software-catalog.png" alt="Vista de scorecards en el Catálogo de software, que muestra el estado del servicio por nivel" style="width:90%;" >}} + +## Delimitar reglas de scorecards + +Los contextos te permiten definir a qué entidades se aplica una regla, utilizando metadatos de definiciones de entidades del Catálogo de software. Si no hay un contexto definido, una regla se aplica a todos los servicios definidos en el catálogo. Puedes delimitar por un `kind` de entidad, así como por cualquier campo en la entidad de una definición, incluyendo `team`, `tier` y etiquetas (tags) personalizadas. + +Por defecto, una entidad debe coincidir con todas las condiciones especificadas para ser evaluada según la regla. Puedes utilizar las sentencias `OR` para incluir varios valores para el mismo campo. + +{{< img src="/tracing/software_catalog/scorecard-edit-scope.png" alt="Página de configuración de scorecards" style="width:90%;" >}} + +Puedes configurar contextos tanto para las reglas predefinidas y personalizadas. Al añadir un contexto a una regla, los resultados registrados anteriormente de las entidades que ya no coinciden con el contexto se ocultan de la interfaz de usuario y se excluyen de los cálculos de puntuación. Si luego eliminas el contexto, estos resultados vuelven a aparecer y se contabilizan de nuevo. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/services/scorecard +[2]: /es/service_management/service_level_objectives/ +[3]: https://app.datadoghq.com/monitors/recommended +[4]: /es/tracing/services/deployment_tracking/ +[5]: /es/tracing/other_telemetry/connect_logs_and_traces/ +[6]: /es/getting_started/tagging/unified_service_tagging/ +[7]: /es/internal_developer_portal/scorecards/scorecard_configuration#scope-scorecard-rules +[8]: /es/api/latest/service-scorecards/ +[9]: /es/internal_developer_portal/scorecards/custom_rules#evaluate-custom-rules-using-workflow-automation \ No newline at end of file diff --git a/content/es/observability_pipelines/destinations/crowdstrike_ng_siem.md b/content/es/observability_pipelines/destinations/crowdstrike_ng_siem.md new file mode 100644 index 0000000000000..4325430810ddc --- /dev/null +++ b/content/es/observability_pipelines/destinations/crowdstrike_ng_siem.md @@ -0,0 +1,31 @@ +--- +disable_toc: false +title: Destino CrowdStrike Next-Gen SIEM +--- + +Utiliza el destino CrowdStrike Next-Gen SIEM de Observability Pipelines para enviar logs a CrowdStrike Next-Gen SIEM. + +## Configuración + +Define el destino CrowdStrike NG-SIEM y sus variables de entorno cuando [configures un pipeline][1]. La información a continuación se configura en la interfaz de usuario de los pipelines. + +### Configurar el destino + +{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}} + +### Configurar las variables de entorno + +{{% observability_pipelines/configure_existing_pipelines/destination_env_vars/crowdstrike_ng_siem %}} + +## Cómo funciona el destino + +### Colocación de eventos en lotes + +Un lote de eventos se descarga cuando se cumple uno de estos parámetros. Consulta los [eventos por lotes][2] para obtener más información. + +| Eventos máximos | Bytes máximos | Tiempo de espera (segundos) | +|----------------|-----------------|---------------------| +| Ninguno | 1,000,000 | 1 | + +[1]: https://app.datadoghq.com/observability-pipelines +[2]: /es/observability_pipelines/destinations/#event-batching \ No newline at end of file diff --git a/content/es/observability_pipelines/guide/get_started_with_the_custom_processor.md b/content/es/observability_pipelines/guide/get_started_with_the_custom_processor.md new file mode 100644 index 0000000000000..8b5778af51be0 --- /dev/null +++ b/content/es/observability_pipelines/guide/get_started_with_the_custom_processor.md @@ -0,0 +1,478 @@ +--- +disable_toc: false +further_reading: +- link: observability_pipelines/processors/custom_processor/ + tag: Documentación + text: Más información sobre el procesador personalizado +- link: observability_pipelines/set_up_pipelines/ + tag: Documentación + text: Configurar pipelines +- link: https://www.datadoghq.com/blog/migrate-historical-logs/ + tag: Blog + text: Migrar logs históricos de Splunk y Elasticsearch utilizando Observability + Pipelines +title: Empezando con el procesador personalizado +--- + +## Información general + +Observability Pipelines te permite transformar tus logs antes de enviarlos a tus destinos. Utiliza el procesador personalizado para crear scripts con funciones personalizadas que modifiquen condicionalmente los campos, los valores y los eventos de logs. + +Esta guía te explica cómo utilizar las siguientes funciones en el script de tu procesador personalizado: + +- [Decodificar Base64](#decode-base64) +- [Decodificar un evento Base64 completo](#decode-an-entire-base64-encoded-event) +- [Codificar Base64](#encode-base64) + +También incluye scripts de ejemplo que abordan casos de uso frecuentes, como: + +- [Reasignar marcas de tiempo de logs históricos)(#remap-timestamps-for-historical-logs) +- [Extraer un campo de la matriz de etiquetas (tags) de Datadog (`ddtags`)](#extract-a-field-from-the-datadog-tags-array) +- [Hacer referencia al valor de otro campo](#reference-another-fields-value) +- [Eliminar atributos que contengan valores nulos](#remove-attributes-containing-null-values) +- [Fusionar atributos anidados en el nivel raíz](#merge-nested-attributes-to-root-level) +- [Serializar logs salientes en formato _raw](#serialize-outbound-logs-in-_raw-format) + +## Decodificar Base64 + +Para los campos o eventos de logs entrantes codificados en Base64, utiliza la función [`decode_base64`][1] para descodificar el campo o evento. La sintaxis de esta función también funciona para [`decode_base16`][1]. + +### Ejemplo + +#### Entrada + +Ejemplo de evento de log que contiene un campo Base64 para decodificar: + +```json +{ + "timestamp": "2025-05-28T19:30:00Z", + "level": "info", + "source": "auth-service", + "user_id": "user_9876", + "payload": "VXNlciByZXF1ZXN0ZWQgYWNjZXNzIHRvIHByb3RlY3RlZCByZXNvdXJjZQ==" +} +``` + +#### Función personalizada + +Utiliza la función `decode_base64` para decodificar `payload` y almacenar el resultado en un nuevo campo llamado `decoded_payload`. + +```yaml +.decoded_payload = decode_base64!(.payload) +``` + + +Alternativamente, puedes reescribir el valor original `payload` con el valor decodificado sustituyendo `decoded_payload` en la función anterior por `payload`. + +```yaml +.payload = decode_base64!(.payload) +``` + +#### Salida + +El resultado cuando se utiliza `decoded_payload` para almacenar el valor decodificado. + +```json +{ + "timestamp": "2025-05-28T19:30:00Z", + "level": "info", + "source": "auth-service", + "user_id": "user_9876", + "payload": "VXNlciByZXF1ZXN0ZWQgYWNjZXNzIHRvIHByb3RlY3RlZCByZXNvdXJjZQ==", + "decoded_payload": "User requested access to protected resource" +} +``` + +## Decodificar un evento completo codificado en Base64 + +### Ejemplo + +#### Entrada + +Ejemplo de entrada de un evento codificado en Base64: + +```json +{ + "raw": "eyJ0aW1lc3RhbXAiOiAiMjAyNS0wNS0yOFQxOTozMDowMFoiLCAibGV2ZWwiOiAiaW5mbyIsICJtessagemIjogIlVzZXIgbG9naW4gc3VjY2Vzc2Z1bCJ9" +} +``` + +#### Función personalizada + +El script para decodificar todo el evento codificado en Base64 `raw`. + +```yaml +.json_string = decode_base64!(.raw)` +.full_event = parse_json!(.json_string) +. = .full_event +``` + +**Nota:** La sintaxis `. = .full_event` es una forma abreviada de sustituir todo el evento por el contenido de un campo. + +#### Salida + +```json +{ + "timestamp": "2025-05-28T19:30:00Z", + "level": "info", + "message": "User login successful" +} +``` + +## Codificar Base64 + +Para los campos o eventos de logs salientes codificados en Base64, utiliza la función [`encode_base64`][1] para decodificar el campo o evento. La sintaxis de esta función también funciona para [`encode_base16`][3]. + +### Ejemplo + +#### Entrada + +Ejemplo de evento de log que contiene un campo `message` que debes codificar en Base64: + +```json +{ + "timestamp": "2025-05-28T19:30:00Z", + "level": "info", + "source": "auth-service", + "user_id": "user_9876", + "message": "User login successful" +} +``` + +#### Función personalizada + +Utiliza la función `encode_base64` para decodificar `message` y almacenar el resultado en un nuevo campo llamado `encoded_message`. + +```yaml +.encoded_message = encode_base64!(.message) +``` + +Alternativamente, puedes sobreescribir el campo del valor original (`message`) con el valor decodificado sustituyendo `encoded_message` en la función anterior por `message`. + +```yaml +.message = encode_base64!(.message) +``` + +#### Salida + +El resultado cuando se utiliza `encoded_message` para almacenar el valor codificado. + +```json +{ + "timestamp": "2025-05-28T19:30:00Z", + "level": "info", + "source": "auth-service", + "message": "User login successful", + "encoded_message": "VXNlciBsb2dpbiBzdWNjZXNzZnVs" +} +``` + +## Reasignación de marcas de tiempo para logs históricos + +Si quieres migrar logs archivados de otras plataformas, es esencial asegurarte de que esos logs tienen la marca de tiempo histórica correcta. La reasignación de logs con marcas de tiempo históricas te permite gestionar logs más antiguos almacenados con fines de cumplimiento, auditoría y archivado. + +### Ejemplo + +#### Entrada + +Si el Worker no encuentra el campo `timestamp` en un log, se utiliza la marca de tiempo de cuando el Worker recibió el log. Este es un ejemplo de log que muestra la marca de tiempo de cuando el Worker recibió el log, así como la marca de tiempo histórica del log (`historical_ts`), que es el valor que el Worker busca. + +```json +{ + "timestamp": "2025-05-28T19:30:00Z", + "historical_ts": "2019-03-14T17:30:00Z", + "level": "info", + "message": "User login successful" +} +``` + +#### Función personalizada + +En el ejemplo anterior, puedes crear una función que almacene la marca de tiempo ingerida en un nuevo campo y reasigne `timestamp` al valor `historical_ts`. + +```yaml +#Create a new field for the ingested/processed timestamp +.ingested_ts = {{.timestamp}} + +#Remap timestamp to be the historical field +.timestamp = {{.historical_ts}} + +#Remove the original historical timestamp +del(.historical_ts) + +``` + +#### Salida + +```json +{ + "timestamp": "2019-03-14T17:30:00Z", + "ingested_ts": "2025-05-28T19:30:00Z", + "level": "info", + "message": "User login successful" +} +``` + +## Extraer un campo de la matriz de etiquetas de Datadog + +Los campos anidados dentro de la matriz de etiquetas de Datadog (`ddtags`) pueden contener información útil. Es posible que quieras extraer estos campos como pares clave-valor de nivel superior o como valores para otros campos. + +### Ejemplo + +#### Entrada + +Log de ejemplo que contiene la matriz `ddtags` con etiquetas de Datadog. + +```json +{ + "timestamp": "2025-005-27T05:26:18.205Z", + "status": "info", + "service": "chaos-engineering", + "ddsource": "python", + "hostname": "gke-prod-node-abc123.internal", + "message": "2025-05-27 05:26:17,609 -- Sending request to rails: checkout_v2", + "source_type": "datadog_agent", + "ddtags": [ + "env:prod", + "team:sre", + "service:chaos-engineering", + "version:1.0.0", + "pod_name:load-generator-main-abcde" + ] +} +``` + +#### Función personalizada para extraer el campo env + +```yaml +#Extract a tag from ddtags array and elevate as log attribute +.my_tag, err = filter(array!(.ddtags)) -> |_index, value| { + #Keep any elements that have the key name "env" + starts_with(value, "env:") +} +#Assign env to be value of the key +.env = split!(.my_tag[0], ":")[1] +del(.my_tag) + +``` + +#### Salida + +```json +{ + "ddsource": "python", + "ddtags": [ + "env:prod", + "team:sre", + "service:chaos-engineering", + "version:1.0.0", + "pod_name:load-generator-main-abcde" + ], + "env": "prod", + "hostname": "gke-prod-node-abc123.internal", + "message": "2025-05-27 05:26:17,609 -- Sending request to rails: checkout_v2", + "service": "chaos-engineering", + "source_type": "datadog_agent", + "status": "info", + "timestamp": "2025-005-27T05:26:18.205Z" +} +``` + +## Hacer referencia al valor de otro campo + +Si quieres que el valor de un campo se base en otro campo, puedes hacer referencia dinámicamente al valor del otro campo. + +### Ejemplo + +#### Entrada + +En este ejemplo, tienes un campo de servicio que contiene un nombre de servicio incorrecto y tú quieres utilizar el valor de `app_id` para el servicio. + +```json +{ + "timestamp": "2025-05-27T05:26:18.205Z", + "status": "info", + "service": "mywrongservice", + "app_id": "web-store" +} +``` + +#### Función personalizada + +```yaml +#Overwrite service to be the value of app_id +.service = {{.app_id}} +``` + +#### Salida + +```json +{ + "timestamp": "2025-05-27T05:26:18.205Z", + "status": "info", + "service": "web-store", + "app_id": "web-store" +} +``` + +## Eliminar atributos que contienen valores nulos + +Los atributos con valores nulos o vacíos pueden sobrecargar innecesariamente tu log. Elimina los valores nulos para recortar el log y enviar solo los atributos que proporcionan información. En el script siguiente, la sección `empty_patterns` contiene la lista de patrones vacíos que debes comprobar en tus logs. Puedes añadir y eliminar patrones para adaptarlos a tu caso de uso. + +```json +# Define your empty patterns +empty_patterns = ["null", "NULL", "N/A", "n/a", "none", "NONE", "-", "undefined"] + +# Apply generic cleanup +. = compact(map_values(., recursive: true) -> |v| { + if is_null(v) || + includes(empty_patterns, v) || + (is_string(v) && strip_whitespace!(v) == "") || + (is_array(v) && length!(v) == 0) || + (is_object(v) && length!(v) == 0) { + null + } else { + v + } +}) +``` + +## Fusionar atributos anidados en el nivel raíz + +La selección de objetos o campos anidados en una consulta de filtro puede requerir la definición de varias rutas. Esto es habitual cuando se trabaja con el campo de mensaje, en el que el contenido analizado resultante está anidado en un objeto. Cuando se utiliza la sintaxis de filtro de Observability Pipelines' el acceso a un campo anidado requiere la notación `.`. + +Por ejemplo, este log contiene un mensaje convertido en cadena JSON: + +```json +{ + "level": "info", + "message": "{\"event_type\":\"user_login\",\"result\":\"success\",\"login_method\":\"oauth\",\"user_agent\":\"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36\",\"ip_address\":\"192.168.1.100\",\"session_id\":\"sess_abc123xyz\",\"duration_ms\":245}", + "timestamp": "2019-03-12T11:30:00Z", + "processed_ts": "2025-05-22T14:30:00Z", + "user_id": "12345", + "app_id": "streaming-services", + "ddtags": [ + "kube_service:my-service", + "k8_deployment:your-host", + "kube_cronjob:myjob" + ] +} +``` + +Este es el resultado después de analizar el campo `message`. El contenido analizado se anida en el objeto `message`. + +```json +{ + "app_id": "streaming-services", + "ddtags": [ + "kube_service:my-service", + "k8_deployment:your-host", + "kube_cronjob:myjob" + ], + "level": "info", + "message": { + "duration_ms": 245, + "event_type": "user_login", + "ip_address": "192.168.1.100", + "login_method": "oauth", + "result": "success", + "session_id": "sess_abc123xyz", + "user_agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36" + }, + "processed_ts": "2025-05-22T14:30:00Z", + "timestamp": "2019-03-12T11:30:00Z", + "user_id": "12345" +} +``` +En este caso, para filtrar por `event_type`, es necesario especificar `@message.event_type`. Para filtrar directamente por `event_type` u otro campo dentro de un objeto, Datadog recomienda aplanar el objeto hasta el nivel raíz. + +Para fusionar los eventos del objeto `message` en el nivel raíz, utiliza este script: + +```json +if is_object(.message) { + . = merge!(., .message) + del(.message) +} +``` + +**Nota**: Este script funciona con cualquier objeto JSON. Solo tienes que sustituir el atributo `message` por el nombre del campo que estás intentando aplanar. + +El resultado es el log con atributos aplanados que puedes filtrar directamente: + +```json +{ + "app_id": "streaming-services", + "ddtags": [ + "kube_service:my-service", + "k8_deployment:your-host", + "kube_cronjob:myjob" + ], + "duration_ms": 245, + "event_type": "user_login", + "ip_address": "192.168.1.100", + "level": "info", + "login_method": "oauth", + "processed_ts": "2025-05-22T14:30:00Z", + "result": "success", + "session_id": "sess_abc123xyz", + "timestamp": "2019-03-12T11:30:00Z", + "user_agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36", + "user_id": "12345" +} +``` + +**Nota**: Si aplanas el campo del mensaje, el log resultante ya no tendrá un objeto de mensaje. Esto significa que si el log se envía a Datadog, cuando veas el log en Explorador de logs, no verás una sección **Log Message** (Mensaje de log) en el panel lateral del log. + +## Serializar logs salientes en formato _raw + +Splunk y CrowdStrike prefieren un formato llamado `_raw` para la ingesta de logs. El envío de datos en `_raw` normaliza tus logs y te permite beneficiarte de sus dashboards, monitores y contenidos de detección de amenazas predefinidos. Para garantizar que se aplica el formato de log `_raw`, puedes serializar el evento saliente en `_raw`. + +**Notas**: +- Debes añadir otros pasos de procesamiento, reasignación y análisis antes de serializar tus logs en formato `_raw`. +- Selecciona `Raw` como opción de codificación cuando configures el destino Splunk HEC o CrowdStrike. + +Un ejemplo de log de entrada: + +```json +{ + "app_id": "streaming-services", + "level": "info", + "message": { + "duration_ms": 245, + "event_type": "user_login", + "ip_address": "192.168.1.100", + "login_method": "oauth", + "result": "success", + "session_id": "sess_abc123xyz", + "user_agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36" + }, + "processed_ts": "2025-05-22T14:30:00Z", + "timestamp": "2019-03-12T11:30:00Z", + "user_id": "12345" +} +``` + +Esta función personalizada serializa el evento en formato `_raw`: + +```json +# Serialize the entire event into _raw +._raw = encode_key_value(.) +# Only keep _raw +. = { "_raw": ._raw } +``` + +Este es el resultado del ejemplo de log después de haber sido procesado por el script personalizado: + +```json +{ + "_raw": "app_id=streaming-services level=info message.duration_ms=245 message.event_type=user_login message.ip_address=192.168.1.100 message.login_method=oauth message.result=success message.session_id=sess_abc123xyz message.user_agent=\"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36\" processed_ts=2025-05-22T14:30:00Z timestamp=2019-03-12T11:30:00Z user_id=12345" +} +``` + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/observability_pipelines/processors/custom_processor/#decode_base16 +[2]: /es/observability_pipelines/processors/custom_processor/#encode_base64 +[3]: /es/observability_pipelines/processors/custom_processor/#encode_base16 \ No newline at end of file diff --git a/content/es/observability_pipelines/set_up_pipelines/run_multiple_pipelines_on_a_host.md b/content/es/observability_pipelines/set_up_pipelines/run_multiple_pipelines_on_a_host.md new file mode 100644 index 0000000000000..67c87cb8b0619 --- /dev/null +++ b/content/es/observability_pipelines/set_up_pipelines/run_multiple_pipelines_on_a_host.md @@ -0,0 +1,137 @@ +--- +disable_toc: false +further_reading: +- link: /observability_pipelines/set_up_pipelines/ + tag: Documentación + text: Establecer un pipeline +- link: /observability_pipelines/environment_variables/ + tag: Documentación + text: Variable de entorno para fuentes, procesadores y componentes +title: Ejecutar múltiples pipelines en un host +--- + +## Información general + +Si quieres ejecutar múltiples pipelines en un único host para enviar logs desde diferentes fuentes, necesitas añadir manualmente los archivos de Worker para cualquier Worker adicional. Este documento explica qué archivos necesitas añadir y modificar para ejecutar esos Workers. + +## Requisitos previos + +[Configura el primer pipeline][1] e instala el Worker en tu host. + +## Crear un pipeline adicional + +[Configura otro pipeline][1] para el Worker adicional que quieras ejecutar en el mismo host. Cuando estés en la página Instalar, sigue los siguientes pasos para ejecutar el Worker para ese pipeline. + +## Ejecutar el Worker del pipeline adicional + +Cuando hayas instalado el primer Worker, por defecto tendrás: + +- Un servicio binario: `/usr/bin/observability-pipelines-worker` +- Un archivo de definición de servicio similar a: + {{< code-block lang="bash" filename="/lib/systemd/system/observability-pipelines-worker.service" >}} + [Unidad] + Description="Observability Pipelines Worker" + Documentation=https://docs.datadoghq.com/observability_pipelines/ + After=network-online.target + Wants=network-online.target + + [Servicio] + User=observability-pipelines-worker + Group=observability-pipelines-worker + ExecStart=/usr/bin/observability-pipelines-worker run + Restart=always + AmbientCapabilities=CAP_NET_BIND_SERVICE + EnvironmentFile=-/etc/default/observability-pipelines-worker + + [Instalar] + WantedBy=multi-user.target + {{< /code-block >}} +- Un archivo de entorno similar a: + {{< code-block lang="bash" filename="/etc/default/observability-pipelines-worker" >}} + DD_API_KEY= + DD_SITE= + DD_OP_PIPELINE_ID= + {{< /code-block >}} +- Un directorio de datos: `/var/lib/observability-pipelines-worker` + +### Configurar el Worker adicional + +Para este ejemplo se creó otro pipeline con la fuente Fluent. Para configurar un Worker para este pipeline: + +1. Ejecuta el siguiente comando para crear un nuevo directorio de datos, sustituyendo `op-fluent` por un nombre de directorio que se ajuste a tu caso de uso: + ```shell + sudo mkdir /var/lib/op-fluent + ``` +1. Ejecuta el siguiente comando para cambiar el propietario del directorio de datos a `observability-pipelines-worker:observability-pipelines-worker`. Asegúrate de actualizar `op-fluent` con el nombre de tu directorio de datos. + ``` + sudo chown -R observability-pipelines-worker:observability-pipelines-worker /var/lib/op-fluent/ + ``` +1. Crea un archivo de entorno para el nuevo servicio systemd, como `/etc/default/op-fluent`, donde `op-fluent` se sustituye por tu nombre de archivo específico. Ejemplo del contenido del archivo: + {{< code-block lang="bash" filename="/etc/default/op-fluent" >}} + DD_API_KEY= + DD_OP_PIPELINE_ID= + DD_SITE= + + DD_OP_SOURCE_FLUENT_ADDRESS=0.0.0.0:9091 + DD_OP_DATA_DIR=/var/lib/op-fluent + {{< /code-block >}} + En este ejemplo: + - `DD_OP_DATA_DIR` está configurado como `/var/lib/op-fluent`. Sustituye `/var/lib/op-fluent` por la ruta a tu directorio de datos. + - `DD_OP_SOURCE_FLUENT_ADDRESS=0.0.0.0:9091` es la variable de entorno necesaria para la fuente Fluent de este ejemplo. Sustitúyela por la [variable de entorno][2] de tu fuente. + + Además, asegúrate de sustituir: + - `` por tu [clave de API Datadog][3]. + - `` por el ID del [pipeline][1] de este Worker. + - `` por tu [sitio Datadog][4]. + - `` por las [variables de entorno][2] de tus destinos. +1. Crea una nueva entrada de servicio systemd, como `/lib/systemd/system/op-fluent.service`. Ejemplo de contenido de la entrada: + {{< code-block lang="bash" filename="/lib/systemd/system/op-fluent.service" >}} + [Unidad] + Description="OPW for Fluent Pipeline" + Documentation=https://docs.datadoghq.com/observability_pipelines/ + After=network-online.target + Wants=network-online.target + + [Servicio] + User=observability-pipelines-worker + Group=observability-pipelines-worker + ExecStart=/usr/bin/observability-pipelines-worker run + Restart=always + AmbientCapabilities=CAP_NET_BIND_SERVICE + EnvironmentFile=-/etc/default/op-fluent + + [Instalar] + WantedBy=multi-user.target + {{< /code-block >}} + En este ejemplo: + - El nombre del servicio es `op-fluent`, ya que el pipeline está utilizando la fuente Fluent. Sustituye `op-fluent.service` por un nombre de servicio para tu caso de uso. + - La `Description` es `OPW for Fluent pipeline`. Sustituye `OPW for Fluent pipeline` por una descripción para tu caso de uso. + - `EnvironmentFile` se configura como `-/etc/default/op-fluent`. Sustituye `-/etc/default/op-fluent` por el archivo de variables de entorno del servicio systemd que creaste para tu Worker. +1. Ejecuta este comando para volver a cargar systemd: + ```shell + sudo systemctl daemon-reload + ``` +1. Ejecuta este comando para iniciar el nuevo servicio: + ```shell + sudo systemctl enable --now op-fluent + ``` +1. Ejecuta este comando para comprobar que el servicio se está ejecutando: + ```shell + sudo systemctl status op-fluent + ``` + +Además, puedes utilizar el comando `sudo journalctl -u op-fluent.service` para ayudarte a corregir cualquier problema. + +## Desplegar el pipeline + +1. Ve a la página Instalar del pipeline adicional. +1. En la sección **Deploy your pipeline** (Desplegar tu pipeline), deberías ver tu Worker adicional detectado. Haz clic en **Deploy** (Desplegar). + +[1]: https://docs.datadoghq.com/es/observability_pipelines/set_up_pipelines/?tab=pipelineui +[2]: https://docs.datadoghq.com/es/observability_pipelines/environment_variables/?tab=sources +[3]: https://app.datadoghq.com/organization-settings/api-keys +[4]: https://docs.datadoghq.com/es/getting_started/site/ + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/opentelemetry/integrations/apache_metrics.md b/content/es/opentelemetry/integrations/apache_metrics.md new file mode 100644 index 0000000000000..f047c42c2fb9e --- /dev/null +++ b/content/es/opentelemetry/integrations/apache_metrics.md @@ -0,0 +1,38 @@ +--- +further_reading: +- link: /opentelemetry/collector_exporter/ + tag: Documentación + text: Configuración de OpenTelemetry Collector +title: Métricas de Apache Web Server +--- + +## Información general + +{{< img src="/opentelemetry/collector_exporter/apache_metrics.png" alt="Métricas de OpenTelemetry Apache en un dashboard de Apache" style="width:100%;" >}} + +El [receptor de Apache][1] permite recopilar métricas de Apache Web Server. Configura el receptor de acuerdo con las especificaciones de la última versión de `apachereceiver`. + +Para más información, consulta la documentación del proyecto de OpenTelemetry para el [receptor de Apache][1]. + +## Configuración + +Para recopilar métricas de Apache Web Server con OpenTelemetry para su uso con Datadog: + +1. Configura el [receptor de Apache][1] en tu configuración de OpenTelemetry Collector. +2. Asegúrate de que OpenTelemetry Collector está [configurado para exportar a Datadog][4]. + +Consulta la [documentación del receptor de Apache][1] para obtener información detallada sobre las opciones y requisitos de configuración. + +## Datos recopilados + +{{< mapping-table resource="apache.csv">}} + +Consulta [Asignación de métricas de OpenTelemetry][2] para obtener más información. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/receiver/apachereceiver +[2]: /es/opentelemetry/guide/metrics_mapping/ +[4]: /es/opentelemetry/setup/collector_exporter/ \ No newline at end of file diff --git a/content/es/opentelemetry/integrations/nginx_metrics.md b/content/es/opentelemetry/integrations/nginx_metrics.md new file mode 100644 index 0000000000000..baeeb281c3c99 --- /dev/null +++ b/content/es/opentelemetry/integrations/nginx_metrics.md @@ -0,0 +1,39 @@ +--- +further_reading: +- link: /opentelemetry/collector_exporter/ + tag: Documentación + text: Configuración de OpenTelemetry Collector +title: Métricas de NGINX +--- + +## Información general + +{{< img src="/opentelemetry/collector_exporter/nginx_metrics.png" alt="Métricas de OpenTelemetry NGINX en un dashboard de NGINX" style="width:100%;" >}} + +El [receptor de NGINX][1] permite recopilar métricas de NGINX y acceder al dashboard de [información general de NGINX][4]. Configura el receptor de acuerdo con las especificaciones de la última versión de `nginxreceiver`. + +Para más información, consulta la documentación del proyecto de OpenTelemetry para el [receptor de NGINX][1]. + +## Configuración + +Para recopilar métricas de NGINX con OpenTelemetry para su uso con Datadog: + +1. Configura el [receptor de NGINX][1] en tu configuración de OpenTelemetry Collector. +2. Asegúrate de que OpenTelemetry Collector está [configurado para exportar a Datadog][5]. + +Consulta la [documentación del receptor de NGINX][1] para obtener información detallada sobre las opciones y requisitos de configuración. + +## Datos recopilados + +{{< mapping-table resource="nginx.csv">}} + +Consulta [Asignación de métricas de OpenTelemetry][2] para obtener más información. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/receiver/nginxreceiver +[2]: /es/opentelemetry/guide/metrics_mapping/ +[4]: https://app.datadoghq.com/dash/integration/21/nginx---overview +[5]: /es/opentelemetry/setup/collector_exporter/ \ No newline at end of file diff --git a/content/es/opentelemetry/mapping/_index.md b/content/es/opentelemetry/mapping/_index.md index 57ef97b46a0ae..7db747fe41db6 100644 --- a/content/es/opentelemetry/mapping/_index.md +++ b/content/es/opentelemetry/mapping/_index.md @@ -4,7 +4,7 @@ aliases: further_reading: - link: /opentelemetry/correlate/ tag: Documentación - text: Explorar datos en Datadog + text: Correlacionar datos title: Mapeo semántico --- diff --git a/content/es/opentelemetry/setup/otlp_ingest/_index.md b/content/es/opentelemetry/setup/otlp_ingest/_index.md new file mode 100644 index 0000000000000..8143b494e277a --- /dev/null +++ b/content/es/opentelemetry/setup/otlp_ingest/_index.md @@ -0,0 +1,34 @@ +--- +aliases: +- /es/opentelemetry/setup/intake_endpoint/ +- /es/opentelemetry/setup/agentless/ +further_reading: +- link: /opentelemetry/setup + tag: Documentación + text: Envía datos a Datadog +title: Endpoint de ingreso del OTLP de Datadog +--- + +{{< callout header="false" btn_hidden="true">}} + El endpoint de ingreso del OTLP de Datadog está en Vista previa. Para solicitar acceso, ponte en contacto con tu representante de cuenta. +{{< /callout >}} + +## Información general + +El endpoint de la API de ingreso del protocolo OpenTelemetry (OTLP) de Datadog te permite enviar datos de observabilidad directamente a Datadog. Con esta función, no necesitas ejecutar el [Agent][1] u [OpenTelemetry Collector + Datadog Exporter][2]. + +{{< img src="/opentelemetry/setup/direct-ingest.png" alt="Diagrama: El SDK de OpenTelemetry envía datos directamente a Datadog a través del endpoint de ingreso." style="width:100%;" >}} + +Es posible que prefieras esta opción si buscas una configuración sencilla y quieres enviar telemetría directamente a Datadog sin utilizar el Datadog Agent u OpenTelemetry Collector. + +- [Endpoint de ingreso de logs del OTLP][3] +- [Endpoint de ingreso de métricas del OTLP][4] + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/opentelemetry/otlp_ingest_in_the_agent/ +[2]: /es/opentelemetry/setup/collector_exporter/ +[3]: /es/opentelemetry/setup/intake_endpoint/otlp_logs +[4]: /es/opentelemetry/setup/intake_endpoint/otlp_metrics \ No newline at end of file diff --git a/content/es/product_analytics/guide/rum_and_product_analytics.md b/content/es/product_analytics/guide/rum_and_product_analytics.md new file mode 100644 index 0000000000000..2a51441e77bc0 --- /dev/null +++ b/content/es/product_analytics/guide/rum_and_product_analytics.md @@ -0,0 +1,87 @@ +--- +description: Guía para usuarios existentes de RUM que deseen comprender la relación + entre RUM y Product Analytics. +further_reading: +- link: /real_user_monitoring/ + tag: Documentación + text: Más información sobre RUM +title: Comprensión de RUM y Product Analytics +--- + +## ¿Qué es Product Analytics? + +Product Analytics es una oferta específica creada para jefes de producto, propietarios de producto, líderes de ingeniería y otras personas que desean aprovechar el comportamiento real de los usuarios para obtener información sobre el producto y el negocio, sin necesidad de conocer otros productos de observabilidad de Datadog. + +{{< img src="product_analytics/guide/understanding-PANA-RUM-summary.png" alt="Product Analytics en Datadog. El meú izquierdo muestra Product Analytics como título y contiene los elementos de navegación Inicio, Tablas, Dashboards, Session Replay, Usuarios y Segmentos." style="width:100%;" >}} + +## Product Analytics y RUM + +Anteriormente, **Pathways** y **Retention Analysis** formaban parte de Datadog Real User Monitoring (RUM). Estas funciones se trasladan a Datadog Product Analytics. + +Esta transición sucederá el **1 de junio de 2025**. + + +## Preguntas frecuentes + +### ¿Cuál es la diferencia entre RUM y Product Analytics? + +- Tanto Product Analytics como Real User Monitoring se basan en los SDKs para navegadores o móviles. +- Product Analytics ofrece una retención de 15 meses sobre los eventos de comportamiento (Sesiones, Vistas y Acciones). Real User Monitoring se dedica a la monitorización del rendimiento. +- Los usuarios tienen la opción de adquirir ambos productos juntos o cada uno por separado. + +### ¿Cómo se ven afectados los clientes de RUM? + +Como parte de la introducción de Product Analytics, se están realizando los siguientes cambios tanto para los clientes existentes como para los nuevos clientes de RUM: + +- **Product Analytics Summary**, **Retention Analytics** y **Pathways** ahora son parte de **Product Analytics** y ya no están disponibles en RUM. + +- **Heatmaps** (Mapas de calor) siguen estando disponibles, pero se han reubicado en la pestaña **Session Replay** para facilitar el acceso y la relevancia contextual. + +- Las pestañas **Funnel** (Túnel) y **Conversion** (Conversión) siguen estando disponibles en el **RUM Explorer**. Para ver los detalles de la conversión, selecciona la visualización **Túnel** y haz clic en cualquier paso para abrir el panel **Conversión**. + +Estas actualizaciones garantizan una separación más clara de los casos de uso entre RUM y Product Analytics, lo que permite flujos de trabajo más centrados y perspectivas más profundas. + +### ¿Cómo configuro Product Analytics? + +Product Analytics utiliza los mismos SDKs y configuración que RUM. Para activar Product Analytics, ve a la página [Gestión de aplicaciones][3] y activa los productos deseados. + +Si RUM ya está configurado, no se requiere instrumentación adicional para Product Analytics. + +### ¿Por qué ya no puedo acceder a Sankeys y Retention Analysis? +- Estas funciones formaban parte de una versión preliminar y estaban disponibles para los clientes de RUM como versión beta, pero no formaban parte de la oferta principal de RUM. Estas funciones están disponibles exclusivamente para los clientes con un contrato de Product Analytics. + +### ¿Session Replay está disponible con Product Analytics? + +[Session Replay][1] es una oferta independiente que puede adquirirse junto con Product Analytics. + +### ¿De qué disponen los clientes de RUM y de qué disponen los clientes de Product Analytics? +Consulta a continuación la tabla comparativa completa de funciones. + +| Función | RUM | Análisis de productos | +|---------|-----|-------------------| +| Conservación de datos | De 15 a 30 días | 15 meses | +| Eventos de Sesión, Vista y Acción | {{< X >}} (con 30 días de retención) | {{< X >}} | +| Eventos de Error, Recurso, Tarea larga y Vitales | {{< X >}} (con 30 días de retención para Errores,
15 días para el resto) | | +| Atributos de usuario | {{< X >}} | {{< X >}} | +| Señales de frustración | {{< X >}} | {{< X >}} | +| Core Web Vitals y Mobile Vitals | {{< X >}} | {{< X >}} | +| Resumen de resultados | {{< X >}} | | +| Resumen analítico | {{< X >}} (ofrecido como vista previa en Product Analytics) | {{< X >}} | +| Solucionar problemas con los eventos vitales | {{< X >}} (solo navegador) | | +| Eventos vitales personalizados | {{< X >}} (solo navegador) | | +| Rendimiento de Feature Flags/Página de Deployment Tracking | {{< X >}} | | +| Error Tracking/Informe de fallos | {{< X >}} | | +| Correlación de RUM <> APM | {{< X >}} | | +| Retention Analysis | | {{< X >}} | +| Embudos | {{< X >}} | {{< X >}} | +| Pathways | | {{< X >}} | +| Segmentación | | {{< X >}} | +| Mapas de calor (Heatmaps) | {{< X >}} (cuando se compra con Session Replay)| {{< X >}} (cuando se compra con Session Replay) | + + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://www.datadoghq.com/pricing/?product=real-user-monitoring#products +[3]: https://app.datadoghq.com/rum/list? \ No newline at end of file diff --git a/content/es/profiler/profiler_troubleshooting/java.md b/content/es/profiler/profiler_troubleshooting/java.md index b1988c400bad9..6989707c54a6e 100644 --- a/content/es/profiler/profiler_troubleshooting/java.md +++ b/content/es/profiler/profiler_troubleshooting/java.md @@ -11,7 +11,7 @@ type: lenguaje de código múltiple ## Perfiles faltantes en la página de búsqueda de perfiles -Si has configurado el generador de perfiles y no ves perfiles en la página de búsqueda de perfiles, activa el [modo de depuración][1] y [abre un ticket de asistencia][1]. En el ticket de asistencia, incluye los archivos de depuración junto con la siguiente información: +Si has configurado el generador de perfiles y no ves perfiles en la página de búsqueda de perfiles, activa el [modo de depuración][1] y [abre un ticket de asistencia][2]. En el ticket de asistencia, incluye los archivos de depuración junto con la siguiente información: - Tipo y versión del sistema operativo (por ejemplo, Linux Ubuntu 20.04) - Tipo de tiempo de ejecución, versión y proveedor (por ejemplo, Java OpenJDK 11 AdoptOpenJDK) @@ -19,43 +19,27 @@ Si has configurado el generador de perfiles y no ves perfiles en la página de b ## Reducción de la sobrecarga de la configuración por defecto -Si la sobrecarga de configuración por defecto no es aceptable, puedes utilizar el generador de perfiles con parámetros de configuración mínimo. La configuración mínima tiene los siguientes cambios en comparación con la configuración por defecto: +Si la sobrecarga de configuración por defecto no es aceptable, puedes utilizar el generador de perfiles con parámetros de configuración mínimo. La configuración mínima presenta los siguientes cambios, en comparación con la configuración por defecto: -- Aumenta el umbral de muestreo a 500 ms para eventos `ThreadSleep`, `ThreadPark` y `JavaMonitorWait` en comparación con los 100 ms por defecto. +- Aumenta el umbral de muestreo a 500 ms para eventos `ThreadSleep`, `ThreadPark` y `JavaMonitorWait`, en comparación con los 100 ms por defecto. - Deshabilita eventos `ObjectAllocationInNewTLAB`, `ObjectAllocationOutsideTLAB`, `ExceptionSample`, `ExceptionCount` -Para utilizar la configuración mínima, asegúrate de que dispones de `dd-java-agent` versión`0.70.0` y, a continuación, cambia la invocación de servicios por lo siguiente: +Para utilizar la configuración mínima, asegúrate de que dispones de `dd-java-agent` versión `0.70.0` y, a continuación, cambia la invocación de servicios por lo siguiente: -```shell -java -javaagent:dd-java-agent.jar -Ddd.profiling.enabled=true -Ddd.profiling.jfr-template-override-file=minimal -jar .jar ``` - -## Modificación de la profundidad máxima del stack tecnológico para trazas (traces) de stack tecnológico recopiladas - -Si la profundidad máxima del stack tecnológico por defecto de 512 no es suficiente para tu caso de uso o está causando problemas de rendimiento, -puedes aumentarla configurando la propiedad del sistema `dd.profiling.stackdepth`. - -Por ejemplo, para reducir la profundidad máxima del stack tecnológico a 256, inicia tu servicio con la siguiente configuración de máquina virtual Java: - -```shell -java -javaagent:dd-java-agent.jar -Ddd.profiling.enabled=true -Ddd.profiling.stackdepth=256 -jar .jar +java -javaagent:dd-java-agent.jar -Ddd.profiling.enabled=true -Ddd.profiling.jfr-template-override-file=minimal -jar .jar ``` -Se utilizará el mismo límite para los datos recopilados por el archivo JFR y el generador de perfiles de Datadog. - -**Nota**: Si se proporciona el argumento JVM `-XX:FlightRecorderOptions=stackdepth=, la profundidad máxima del stack tecnológico definida a través de -la propiedad del sistema `dd.profiling.stackdepth` será ignorada en los datos recopilados por el JFR, por razones técnicas. - ## Aumento de la especificidad de la información del generador de perfiles -Si quieres obtener una mayor especificidad en tus datos de generación de perfiles, puedes especificar la configuración `comprehensive`. Ten en cuenta que para ofrecerte una mayor especificidad, esta estrategia aumentará la sobrecarga de tu generador de perfiles. Una configuración completa muestra los siguientes cambios con respecto a la configuración por defecto: +Si quieres obtener una mayor especificidad en tus datos de generación de perfiles, puedes especificar la configuración `comprehensive`. Ten en cuenta que para ofrecerte una mayor especificidad, esta estrategia aumentará la sobrecarga de tu generador de perfiles. Una configuración completa muestra los siguientes cambios, en comparación con la configuración por defecto: -- Reduce el umbral de muestreo a 10 ms para eventos `ThreadSleep`, `ThreadPark` y `JavaMonitorWait` en comparación con los 100 ms por defecto +- Reduce el umbral de muestreo a 10 ms para eventos `ThreadSleep`, `ThreadPark` y `JavaMonitorWait`, en comparación con los 100 ms por defecto - Habilita eventos `ObjectAllocationInNewTLAB`, `ObjectAllocationOutsideTLAB`, `ExceptionSample`, `ExceptionCount` -Para utilizar la configuración completa, asegúrate de que dispones de `dd-java-agent` versión`0.70.0` y, a continuación, cambia la invocación de servicios por lo siguiente: +Para utilizar la configuración completa, asegúrate de que dispones de `dd-trace-java` versión `0.70.0` y, a continuación, cambia la invocación de servicios por lo siguiente: -```shell +``` java -javaagent:dd-java-agent.jar -Ddd.profiling.enabled=true -Ddd.profiling.jfr-template-override-file=comprehensive -jar .jar ``` @@ -75,17 +59,21 @@ jdk.ObjectAllocationOutsideTLAB#enabled=true [Aprende a utilizar las plantillas de anulación.](#creating-and-using-a-jfr-template-override-file). ## Habilitación del generador de perfiles de heap -
La función del generador de perfiles de heap Java está en fase beta.
Esta función requiere al menos Java 11.0.12, 15.0.4, 16.0.2, 17.0.3 o 18 y posteriores.
-Para habilitar el generador de perfiles de heap, inicia tu aplicación con el parámetro de máquina virtual Java `-Ddd.profiling.heap.enabled=true` o la variable de entorno `DD_PROFILING_HEAP_ENABLED=true`. +Para activar el perfilador de montón, inicia tu aplicación con la configuración de JVM `-Ddd.profiling.heap.enabled=true` o la variable de entorno `DD_PROFILING_HEAP_ENABLED=true`. -También puedes habilitar los siguientes eventos en tu [archivo de plantillas de anulación](#creating-and-using-a-jfr-template-override-file) de `jfp`: +Alternativamente, puedes activar los siguientes eventos en tu `jfp` [archivo de plantilla de sustitución](#creating-and-using-a-jfr-template-override-file): ``` jdk.OldObjectSample#enabled=true ``` -[Aprende a utilizar las plantillas de anulación.](#creating-and-using-a-jfr-template-override-file). +[Aprende a utilizar las plantillas de sustitución](#creating-and-using-a-jfr-template-override-file) + +## Activar métricas de histograma de montón +
Esta función requiere al menos Java 17.0.9 o posterior y no funciona con ZGC.
+ +Para activar métricas de histograma de montón, inicia tu aplicación con la configuración de JVM `-Ddd.profiling.heap.histogram.enabled=true` o la variable de entorno `DD_PROFILING_HEAP_HISTOGRAM_ENABLED=true`. ## Eliminación de información confidencial de los perfiles @@ -109,8 +97,9 @@ jdk.ObjectAllocationOutsideTLAB#enabled=false [Aprende a utilizar las plantillas de anulación.](#creating-and-using-a-jfr-template-override-file). ## La detección de fugas de memoria ralentiza el recopilador de basura - -Para desactivar la detección de fugas de memoria, deshabilita el siguiente evento en tu [archivo de plantillas de anulación](#creating-and-using-a-jfr-template-override-file) de `jfp`: +{{< tabs >}} +{{% tab "JFR" %}} +Para desactivar la detección de fugas de memoria, desactiva el siguiente evento en tu `jfp` [archivo de plantilla de sustitución](#creating-and-using-a-jfr-template-override-file): ``` jdk.OldObjectSample#enabled=false @@ -118,13 +107,24 @@ jdk.OldObjectSample#enabled=false [Aprende a utilizar las plantillas de anulación.](#creating-and-using-a-jfr-template-override-file). +{{% /tab %}} +{{% tab "Datadog Profiler" %}} +Si estás utilizando la función alfa de perfiles de montón en vivo, puedes ajustar la sobrecarga cambiando el porcentaje +de las muestras de asignación rastreadas. +```shell +# track only 10% of the allocation samples +java -javaagent:dd-java-agent.jar -Ddd.profiling.enabled=true -Ddd.profiling.ddprof.liveheap.enabled=true -Ddd.profiling.ddprof.liveheap.sample_percent=10 -jar .jar +``` +{{% /tab %}} +{{< /tabs >}} + ## Excepciones que saturan el generador de perfiles -En condiciones normales, el generador de perfiles de excepciones de Datadog ocupa poco espacio y tiene poca sobrecarga. Si se crean y lanzan muchas excepciones, se puede causar una sobrecarga significativa para el generador de perfiles. Esto puede ocurrir cuando se utilizan excepciones para el flujo (flow) de control. Si tienes una tasa de excepciones inusualmente alta, desactive temporalmente la generación de perfiles de excepciones hasta que soluciones la causa. +En condiciones normales, el generador de perfiles de excepciones de Datadog ocupa poco espacio y tiene poca sobrecarga. Si se crean y lanzan muchas excepciones, se puede causar una sobrecarga significativa para el generador de perfiles. Esto puede ocurrir cuando se utilizan excepciones para el flujo (flow) de control. Si tienes una tasa de excepciones inusualmente alta, desactiva temporalmente la generación de perfiles de excepciones hasta que soluciones la causa. Para deshabilitar la generación de perfiles de excepciones, inicia el rastreador con la configuración de máquina virtual Java `-Ddd.integration.throwables.enabled=false`. -Recuerda volver a activar este ajuste cuando hayas recuperado una tasa de excepciones más habitual. +Recuerda volver a activar este ajuste, cuando hayas recuperado una tasa de excepciones más habitual. ## Compatibilidad con Java 8 @@ -139,14 +139,14 @@ Los siguientes proveedores de OpenJDK 8 son compatibles con la generación de pe | Bell-Soft (Liberica) | u262 | | Versiones posteriores de todos los proveedores | u272 | -Si tu proveedor no está en lista, [abre un ticket de asistencia][2], ya que puede haber otros proveedores en desarrollo o disponibles para la compatibilidad beta. +Si tu proveedor no está en la lista, [abre un ticket de asistencia][2], ya que otros proveedores pueden estar en desarrollo o disponibles en asistencia de Vista previa. ## Creación y uso de un archivo de anulación de plantillas JFR Las plantillas de anulación te permiten especificar las propiedades de la generación de perfiles que quieres anular. Sin embargo, los parámetros predeterminados están equilibrados para lograr un buen balance entre la sobrecarga y la densidad de datos, presentes en la mayoría de los casos de uso. Para utilizar un archivo de anulación, sigue estos pasos: -1. Crea un archivo de anulación en un directorio accesible por `dd-java-agent` durante la invocación del servicio: - ```shell +1. Crea un archivo de anulación en un directorio accesible por `dd-java-agent`, durante la invocación del servicio: + ``` touch dd-profiler-overrides.jfp ``` @@ -160,14 +160,43 @@ Las plantillas de anulación te permiten especificar las propiedades de la gener 3. Cuando ejecutes tu aplicación con `dd-java-agent`, la invocación a tu servicio debe apuntar al archivo de anulación con `-Ddd.profiling.jfr-template-override-file=`, por ejemplo: - ```shell + ``` java -javaagent:/path/to/dd-java-agent.jar -Ddd.profiling.enabled=true -Ddd.logs.injection=true -Ddd.profiling.jfr-template-override-file= -jar path/to/your/app.jar ``` +## Gestión de problemas relacionados con la carpeta tmp + +El Continuous Profiler puede encontrar errores relacionados con el uso del directorio del sistema `/tmp`, particularmente en entornos con seguridad estricta o permisos de ejecución limitados (por ejemplo, Docker, Kubernetes, o sistemas habilitados para SELinux). Estos problemas pueden dar lugar a: + +- Perfilar los fallos de arranque +- Imposibilidad de cargar las bibliotecas nativas de `.so` +- Acumulación de archivos temporales obsoletos tras reinicios o bloqueos de la JVM + +A continuación, se indican los pasos básicos para resolver estos problemas: + +- Utiliza dd-trace-java versión 1.47.0 o posterior + A partir de la versión 1.47.0, Profiler utiliza subdirectorios específicos de PID dentro del directorio temporal configurado. Esto reduce el desorden y los conflictos potenciales de los archivos huérfanos cuando los procesos de JVM salen inesperadamente. + +- Especificar un directorio temporal ejecutable personalizado + Para garantizar un funcionamiento correcto en todos los entornos, configura explícitamente un directorio temporal ejecutable y con permisos de escritura mediante la siguiente opción de JVM: + ``` + -Ddd.profiling.tempdir= + ``` + Requisitos del directorio: + - Debe ser escribible por el proceso de JVM + - Debe tener permisos de ejecución en todos los niveles de la ruta + - Debe cumplir las políticas de SELinux, si se aplican + + Ejemplo: + ``` + mkdir -p /opt/datadog-profiler-tmp + chmod 755 /opt/datadog-profiler-tmp + java -Ddd.profiling.tempdir=/opt/datadog-profiler-tmp -javaagent:/path/to/dd-java-agent.jar ... + ``` ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} -[1]: /es/tracing/troubleshooting/#tracer-debug-logs +[1]: /es/tracing/troubleshooting/#debugging-and-logging [2]: /es/help/ \ No newline at end of file diff --git a/content/es/profiler/profiler_troubleshooting/nodejs.md b/content/es/profiler/profiler_troubleshooting/nodejs.md new file mode 100644 index 0000000000000..623072847856d --- /dev/null +++ b/content/es/profiler/profiler_troubleshooting/nodejs.md @@ -0,0 +1,62 @@ +--- +code_lang: nodejs +code_lang_weight: 10 +further_reading: +- link: /tracing/troubleshooting + tag: Documentación + text: Solucionar problemas de APM +title: Solucionar problemas de Node.js Profiler +type: multi-code-lang +--- + +## Perfiles faltantes en la page (página) de búsqueda de perfiles + +Si has configurado el generador de perfiles y no ves perfiles en la page (página) de búsqueda de perfiles, activa el [modo de depuración][1] y [abre un ticket de asistencia][2]. En el ticket de asistencia, incluye los archivos de depuración junto con la siguiente información: + +- Tipo y versión del sistema operativo (por ejemplo, Linux Ubuntu 20.04) +- Tipo de tiempo de ejecución, versión y proveedor (por ejemplo, Node.js 18.19.01) + +## Profiler no encuentra el componente nativo + +Es posible que el generador de perfiles no encuentre su componente nativo. En esta situación, los logs de tu aplicación o la consola muestran un mensaje de error similar a: + +``` +Error: No native build was found for runtime=node abi=109 platform=linuxglibc arch=x64 +``` + +Si estás utilizando un bundler como esbuild o webpack, que es utilizado por marcos como Next.js, consulta [Bundling con el rastreador de Node.js][3]. El rastreador y el generador de perfiles de Datadog tienen requisitos especiales cuando se utilizan con bundlers. + +Las versiones de Node disponibles a través de los gestores de paquete pueden a veces informar incorrectamente de su versión de ABI (Interfaz binaria de aplicación). Por ejemplo, Ubuntu Linux 24.04.01 LTS incluye un paquete de Node 18 que informa incorrectamente de su versión de ABI como 109, en lugar de la versión correcta, 108, para Node 18. + +El generador de perfiles incluye binarios precreados para todas las combinaciones admitidas de plataformas, arquitecturas de CPU y versiones de ABI de Node en los archivos `node_modules/@Datadog/pprof/prebuilds/${platform}-${arch}/node-${abi}.node`. Si tu versión de Node informa una versión de ABI incompatible, no habrá un binario precreado disponible, lo que hace que el generador de perfiles no se inicie. + +Para resolver este problema, descarga e instala Node desde el [sitio web de Node.js][4] en lugar de utilizar el gestor de paquete de tu sistema operativo o bien +actualiza tu sistema operativo a una versión más reciente que pueda incluir una versión actualizada de Node.js sin este problema. + +## Profiler no puede cargar el componente nativo + +Es posible que el generador de perfiles encuentre el componente nativo, pero no lo cargue. Si esto ocurre, verás un mensaje de error como el siguiente: +``` +Error: Error relocating /app/node_modules/@datadog/pprof/prebuilds/linuxmusl-x64/node-108.node: _ZSt28__throw_bad_array_new_lengthv: symbol not found +``` +y más abajo el sack trace: +``` +code: 'ERR_DLOPEN_FAILED' +``` + +Este problema suele producirse en sistemas Linux que utilizan una versión incompatible de la biblioteca estándar musl C, como Alpine Linux. Para resolverlo: + +1. Asegúrate de que esté utilizando la última versión de la biblioteca de dd-trace. +2. Si el problema persiste, intenta actualizar musl o tu distribución de Linux. + +Si crees que tu versión de musl debería ser compatible, ponte en contacto con [asistencia técnica de Datadog][5]. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/tracing/troubleshooting/tracer_debug_logs/?code-lang=nodejs#enable-debug-mode +[2]: /es/help/ +[3]: /es/tracing/trace_collection/automatic_instrumentation/dd_libraries/nodejs/#bundling +[4]: https://nodejs.org/ +[5]: /es/help \ No newline at end of file diff --git a/content/es/real_user_monitoring/browser/setup/server/ibm.md b/content/es/real_user_monitoring/browser/setup/server/ibm.md new file mode 100644 index 0000000000000..cf7e10f59ec8a --- /dev/null +++ b/content/es/real_user_monitoring/browser/setup/server/ibm.md @@ -0,0 +1,126 @@ +--- +beta: true +code_lang: ibm +code_lang_weight: 4 +description: Configura IBM HTTP Server para inyectar automáticamente el SDK del navegador + RUM en las respuestas HTML utilizando el módulo Datadog. +further_reading: +- link: /real_user_monitoring/browser/setup/server/ + tag: Documentación + text: Instrumentación automática de la monitorización de navegadores +title: Instrumentación de IBM Server +type: lenguaje de código múltiple +--- + +
Para probar la vista previa de la Instrumentación automática RUM, sigue las instrucciones de esta página.
+ +## Información general + +La Instrumentación automática de RUM funciona inyectando el SDK del navegador RUM en las respuestas HTML que se entregan a través de un servidor web o proxy. Este método aprovecha la [funcionalidad de los módulos httpd de IBM][3] para implementar un filtro de cuerpo de respuesta. El filtro inyecta el SDK del navegador RUM en el cuerpo de la respuesta de aquellas respuestas +identificadas como HTML. Una vez configurada la instrumentación automática, puedes gestionar las configuraciones desde la interfaz de usuario. + +Para conocer las limitaciones importantes y los requisitos de compatibilidad, consulta [Limitaciones][1]. + +## Requisitos previos + +El [Datadog Agent][2] está instalado y configurado. + +## Configurar tu aplicación RUM + +Para instrumentar automáticamente tu aplicación RUM: + +1. En Datadog, ve a **Digital Experience > Manage Applications Page** (Experiencia digital > Página de gestión de aplicaciones), haz clic en [**New Application** (Nueva aplicación)][4] y selecciona el tipo de aplicación JavaScript (JS). +2. Selecciona **Auto-Instrumentación** (Instrumentación automática) y **IBM httpd** (httpd IBM). +3. Configura los parámetros de tu aplicación. Consulta el [ejemplo de guía de configuración][5]. +4. Copia y ejecuta el comando de instalación para cargar el módulo httpd Datadog con el inyector de SDK RUM en httpd. +5. Una vez que el instalador haya instalado correctamente el inyector de SDK, reinicia IBM HTTP Server para empezar a recopilar sesiones RUM. +6. (Opcional) Para verificar si el módulo inyecta correctamente el SDK del navegador RUM en páginas HTML, comprueba si hay mensajes relevantes en los logs de errores. El módulo genera logs de los pasos importantes durante el proceso de inyección. Asegúrate de que IBM HTTP Server está configurado con al menos el nivel de log `info`. + +También puedes instalar y configurar [manualmente](#alternative-installation-method) el módulo. + +## Actualización de la aplicación RUM + +Puedes ajustar las frecuencias de muestreo de tus sesiones y de Session Replay desde la página Gestión de aplicaciones. + +Para actualizar tu solicitud RUM: + +1. Ve a tu aplicación RUM desde la lista de [Gestión de aplicaciones][4]. +2. En la página de **Configuración del SDK**, ajusta el control deslizante o introduce un porcentaje específico en el campo de entrada de Session Sampling o Session Replay Sampling. +3. Copia y pega el fragmento de configuración en tu archivo `/opt/datadog-httpd/datadog.conf`. + +## Solucionar problemas + +### No se inyecta RUM + +Si observas que RUM no se inyecta en las páginas HTML, considera las siguientes causas posibles: + +- **No coincide el tipo de contenido**: RUM sólo se inyecta en páginas HTML. Si la cabecera `Content-Type` no indica correctamente `text/html`, se omite la inyección. + +### Limitaciones + +Consulta otras [limitaciones][1]. + +## Desinstalar + +Para eliminar manualmente RUM de tu servidor web instrumentado automáticamente: + +1. Busca el archivo de configuración de IBM HTTP Server (`httpd`) ejecutando `httpd -V`. Dependiendo de la distribución Linux utilizada, este archivo binario podría llamarse `http`, `apachectl`, `apache2` o `apache2ctl`. En los pasos siguientes se utiliza `httpd` como ejemplo. En este caso, la ubicación del archivo podría ser: `/usr/local/apache2/conf/httpd.conf`. +2. Al final del archivo, elimina la línea: `Include /opt/datadog-httpd/datadog.conf`. +3. Elimina el directorio `/opt/datadog-httpd/` y todo su contenido. +4. Reinicia o recarga IBM HTTP Server. + +## Método de instalación alternativo + +Si necesitas un control más preciso de más parámetros que los que proporciona la instrumentación automática, puedes cargar manualmente el módulo en tu servidor web, en lugar de ejecutar el script de instalación. + +Para instrumentar manualmente tu aplicación RUM: + +### Descargar el archivo del módulo + +1. Descarga el [módulo comprimido][6]. +2. Extrae el zip para obtener el archivo `mod_datadog.so`. Muévelo a una ubicación a la que tenga acceso IBM HTTP Server (a la que se hará referencia como `` en los pasos siguientes). + +### Actualizar la configuración de IBM HTTP Server + +1. Busca el archivo de configuración. Puedes utilizar `apachectl -V` para encontrar la ruta de configuración por defecto. Añade la siguiente línea para cargar el módulo: + + ```javascript + LoadModule datadog_module + ``` + +2. Dentro de la sección **root** o **location** correspondiente, añada lo siguiente: + + ```javascript + # APM Tracing is enabled by default. The following line disables APM Tracing + DatadogTracing Off + DatadogRum On + + DatadogRumOption "applicationId" "" + DatadogRumOption "clientToken" "" + DatadogRumOption "site" "" + DatadogRumOption "service" "my-web-application" + DatadogRumOption "env" "production" + DatadogRumOption "version" "1.0.0" + DatadogRumOption "sessionSampleRate" "100" + DatadogRumOption "sessionReplaySampleRate" "100" + DatadogRumOption "trackResources" "true" + DatadogRumOption "trackLongTasks" "true" + DatadogRumOption "trackUserInteractions" "true" + + ``` + +### Reiniciar el servidor + +1. Reinicia IBM HTTP Server para comenzar a recopilar datos de tu aplicación Datadog RUM. Por defecto, el SDK RUM se inyecta en todos los documentos HTML. Puede que necesites borrar la caché de tu navegador. +2. (Opcional) Para verificar que el módulo está inyectando con éxito el navegador RUM kit de desarrollo de software (SDK) en páginas HTML, compruebe el error httpd logs para los mensajes pertinentes. El módulo logs pasos importantes durante el proceso de inyección. Asegúrese de que IBM HTTP Server está configurado con al menos el nivel `info` log . + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/real_user_monitoring/browser/setup/server/#limitations +[2]: /es/agent/ +[3]: https://httpd.apache.org/modules/ +[4]: https://app.datadoghq.com/rum/list +[5]: /es/real_user_monitoring/guide/sampling-browser-plans/ +[6]: https://rum-auto-instrumentation.s3.amazonaws.com/httpd/latest/mod_datadog-amd64.zip \ No newline at end of file diff --git a/content/es/real_user_monitoring/browser/setup/server/nginx.md b/content/es/real_user_monitoring/browser/setup/server/nginx.md new file mode 100644 index 0000000000000..791157c48d33e --- /dev/null +++ b/content/es/real_user_monitoring/browser/setup/server/nginx.md @@ -0,0 +1,213 @@ +--- +beta: true +code_lang: nginx +code_lang_weight: 5 +description: Configura el servidor NGINX para inyectar automáticamente el SDK del + navegador RUM en las respuestas HTML utilizando el módulo dinámico de Datadog. +further_reading: +- link: /real_user_monitoring/browser/setup/server/ + tag: Documentación + text: Instrumentación automática de la monitorización de navegadores +title: Instrumentación del servidor NGINX +type: lenguaje de código múltiple +--- + +
Para probar la vista previa de la Instrumentación automática RUM, sigue las instrucciones de esta página.
+ +## Información general + +La Instrumentación automática de RUM funciona inyectando el SDK del navegador RUM en las respuestas HTML que se entregan a través de un servidor web o proxy. Este método aprovecha la [funcionalidad de los módulos dinámicosde IBM][3] para implementar un filtro de cuerpo de respuesta. El filtro inyecta el SDK del navegador RUM en el cuerpo de la respuesta de aquellas respuestas identificadas como HTML. Una vez configurada la instrumentación automática, puedes gestionar las configuraciones desde la interfaz de usuario. + +Para conocer las limitaciones importantes y los requisitos de compatibilidad, consulta [Limitaciones][1]. + +## Requisitos previos + +El [Datadog Agent][2] está instalado y configurado. + +## Configurar tu aplicación RUM + +Para instrumentar automáticamente tu aplicación RUM: + +1. En Datadog, ve a **Digital Experience > Manage Applications Page** (Experiencia digital > Página de gestión de aplicaciones), haz clic en [**New Application** (Nueva aplicación)][4] y selecciona el tipo de aplicación JavaScript (JS). +2. Selecciona **Instrumentación automática** y **NGINX**. +3. Configura los parámetros de tu aplicación. Consulta el [ejemplo de guía de configuración][5]. +4. Copia y ejecuta el comando de instalación para cargar el módulo NGINX Datadog con el inyector de SDK RUM en NGINX. +5. Una vez que el instalador haya instalado correctamente el inyector de SDK, reinicia NGINX para comenzar a recopilar sesiones RUM. +6. (Opcional) Para comprobar que el módulo está inyectando correctamente el SDK del navegador RUM en páginas HTML, consulta los [logs de error de NGINX][43] para ver si hay mensajes importantes. El módulo registra pasos importantes durante el proceso de inyección. Asegúrate de que NGINX está configurado con al menos el nivel de log `INFO` con lo siguiente: + + ```javascript + error_log info; + ``` + +También puedes instalar y configurar [manualmente](#alternative-installation-method) el módulo. + +## Actualización de la aplicación RUM + +Puedes ajustar las frecuencias de muestreo de tus sesiones y de Session Replay desde la página Gestión de aplicaciones. + +Para actualizar tu solicitud RUM: + +1. Ve a tu aplicación RUM desde la lista de [Gestión de aplicaciones][4]. +2. En la página de **Configuración del SDK**, ajusta el control deslizante o introduce un porcentaje específico en el campo de entrada de Session Sampling o Session Replay Sampling. +3. Copia y pega el fragmento de configuración en tu archivo `nginx.conf`. + +## Solucionar problemas + +### NGINX deja de responder + +Dado que el módulo se encuentra en vista previa, es posible que NGINX deje de entregar solicitudes, especialmente después de la instalación. Si experimentas este problema, ponte en contacto con el [servicio de asistencia de Datadog][6] con la siguiente información, para ayudarnos a investigar y solucionar el problema: + +- Tu archivo de configuración de NGINX +- Cualquier log de error relevante + +### No se inyecta RUM + +Si observas que RUM no se inyecta en las páginas HTML, considera las siguientes causas posibles: + +- **No coincide el tipo de contenido**: RUM sólo se inyecta en páginas HTML. Si la cabecera `Content-Type` no indica correctamente `text/html`, se omite la inyección. + +### Limitaciones + +Consulta otras [limitaciones][1]. + +## Desinstalar + +Para eliminar manualmente RUM de tu servidor web instrumentado automáticamente: + +1. Busca el archivo de configuración NGINX ejecutando `nginx -T`. Por ejemplo: `/etc/nginx/nginx.conf`. +2. Al principio del archivo, elimina la línea: `load_module /opt/datadog-nginx/ngx_http_datadog_module.so;`. +3. En el archivo, elimina todas las secciones `datadog_*` existentes dentro de la directiva `http`. Las secciones tienen un aspecto similar al siguiente, dependiendo de la configuración de su sistema: + + ``` + datadog_agent_url http://datadog-agent:8126; + datadog_tracing off; + datadog_rum on; + datadog_rum_config { + # ... specific RUM configuration + } + ``` + +4. Elimina el directorio `/opt/datadog-nginx/` y todo su contenido. +5. Reinicia o recarga tu servidor web NGINX. + +## Método de instalación alternativo + +Si necesitas un control más preciso de más parámetros que los que proporciona la instrumentación automática, puedes cargar manualmente el módulo en tu servidor web, en lugar de ejecutar el script de instalación. + +Para instrumentar manualmente tu aplicación RUM: + +### Descarga el archivo `.tgz` correspondiente + +1. Utiliza el archivo `.tgz` correspondiente a tu versión de NGINX. Puedes encontrar todos los archivos `.tgz` relevantes presentados por versión de NGINX en [Referencia](#reference). +2. Extrae el tarball para extraer el archivo `ngx_http_datadog_module.so`. Desplázalo hacia una localización a la que NGINX tenga acceso (citada como `` en los pasos siguientes). + +### Actualizar la configuración de NGINX + +1. El archivo `nginx.conf` se encuentra normalmente en el directorio de configuración de NGINX. Añade la siguiente línea para cargar el módulo: + + ```javascript + load_module ; + ``` + +2. A continuación, en la sección **http/server/location**, añade lo siguiente: + + ```javascript + # APM Tracing is enabled by default. The following line disables APM Tracing. + datadog_disable; + datadog_rum on; + datadog_rum_config "v5" { + "applicationId" ""; + "clientToken" ""; + "site" ""; + "service" "my-web-application"; + "env" "production"; + "version" "1.0.0"; + "sessionSampleRate" "100"; + "sessionReplaySampleRate" "100"; + "trackResources" "true"; + "trackLongTasks" "true"; + "trackUserInteractions" "true"; + } + ``` + +### Reiniciar el servidor + +1. Reinicia el servidor NGINX para comenzar a recopilar datos de tu aplicación RUM Datadog. Por defecto, el SDK RUM se inyecta en todos los documentos HTML. Es posible que necesites borrar la memoria caché de tu navegador. +2. (Opcional) Para comprobar que el módulo está inyectando correctamente el SDK del navegador RUM en páginas HTML, consulta los logs de error de NGINX para ver si hay mensajes importantes. El módulo registra pasos importantes durante el proceso de inyección. Asegúrate de que NGINX está configurado con al menos el nivel de log `INFO` con lo siguiente: + + ```javascript + error_log info; + ``` + +## Referencia + +### Módulos NGINX + +| Versión de NGINX | amd64 | arm 64 | +|---------------|-------|--------| +| 1.24.0 | [ngx_http_datadog-amd64-1.24.0][7] | [ngx_http_datadog-arm64-1.24.0][8] | +| 1.25.0 | [ngx_http_datadog-amd64-1.25.0][9] | [ngx_http_datadog-arm64-1.25.0][10] | +| 1.25.1 | [ngx_http_datadog-amd64-1.25.1][11] | [ngx_http_datadog-arm64-1.25.1][12] | +| 1.25.2 | [ngx_http_datadog-amd64-1.25.2][13] | [ngx_http_datadog-arm64-1.25.2][14] | +| 1.25.3 | [ngx_http_datadog-amd64-1.25.3][15] | [ngx_http_datadog-arm64-1.25.3][16] | +| 1.25.4 | [ngx_http_datadog-amd64-1.25.4][17] | [ngx_http_datadog-arm64-1.25.4][18] | +| 1.25.5 | [ngx_http_datadog-amd64-1.25.5][19] | [ngx_http_datadog-arm64-1.25.5][20] | +| 1.26.0 | [ngx_http_datadog-amd64-1.26.0][21] | [ngx_http_datadog-arm64-1.26.0][22] | +| 1.26.1 | [ngx_http_datadog-amd64-1.26.1][23] | [ngx_http_datadog-arm64-1.26.1][24] | +| 1.26.2 | [ngx_http_datadog-amd64-1.26.2][25] | [ngx_http_datadog-arm64-1.26.2][26] | +| 1.26.3 | [ngx_http_datadog-amd64-1.26.3][27] | [ngx_http_datadog-arm64-1.26.3][28] | +| 1.27.0 | [ngx_http_datadog-amd64-1.27.0][29] | [ngx_http_datadog-arm64-1.27.0][30] | +| 1.27.1 | [ngx_http_datadog-amd64-1.27.1][31] | [ngx_http_datadog-arm64-1.27.1][32] | +| 1.27.2 | [ngx_http_datadog-amd64-1.27.2][33] | [ngx_http_datadog-arm64-1.27.2][34] | +| 1.27.3 | [ngx_http_datadog-amd64-1.27.3][35] | [ngx_http_datadog-arm64-1.27.3][36] | +| 1.27.4 | [ngx_http_datadog-amd64-1.27.4][37] | [ngx_http_datadog-arm64-1.27.4][38] | +| 1.27.5 | [ngx_http_datadog-amd64-1.27.5][39] | [ngx_http_datadog-arm64-1.27.5][40] | +| 1.28.0 | [ngx_http_datadog-amd64-1.28.0][41] | [ngx_http_datadog-arm64-1.28.0][42] | + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/real_user_monitoring/browser/setup/server/#limitations +[2]: /es/agent/ +[3]: https://docs.nginx.com/nginx/admin-guide/dynamic-modules/dynamic-modules/ +[4]: https://app.datadoghq.com/rum/list +[5]: /es/real_user_monitoring/guide/sampling-browser-plans/ +[6]: /es/help +[7]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.24.0.so.tgz +[8]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.24.0.so.tgz +[9]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.25.0.so.tgz +[10]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.25.0.so.tgz +[11]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.25.1.so.tgz +[12]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.25.1.so.tgz +[13]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.25.2.so.tgz +[14]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.25.2.so.tgz +[15]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.25.3.so.tgz +[16]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.25.3.so.tgz +[17]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.25.4.so.tgz +[18]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.25.4.so.tgz +[19]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.25.5.so.tgz +[20]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.25.5.so.tgz +[21]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.26.0.so.tgz +[22]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.26.0.so.tgz +[23]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.26.1.so.tgz +[24]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.26.1.so.tgz +[25]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.26.2.so.tgz +[26]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.26.2.so.tgz +[27]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.26.3.so.tgz +[28]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.26.3.so.tgz +[29]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.27.0.so.tgz +[30]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.27.0.so.tgz +[31]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.27.1.so.tgz +[32]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.27.1.so.tgz +[33]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.27.2.so.tgz +[34]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.27.2.so.tgz +[35]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.27.3.so.tgz +[36]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.27.3.so.tgz +[37]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.27.4.so.tgz +[38]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.27.4.so.tgz +[39]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.27.5.so.tgz +[40]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.27.5.so.tgz +[41]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-amd64-1.28.0.so.tgz +[42]: https://rum-auto-instrumentation.s3.amazonaws.com/nginx/latest/ngx_http_datadog_module-arm64-1.28.0.so.tgz +[43]: https://nginx.org/en/docs/ngx_core_module.html#error_log \ No newline at end of file diff --git a/content/es/real_user_monitoring/mobile_and_tv_monitoring/react_native/setup/expo.md b/content/es/real_user_monitoring/mobile_and_tv_monitoring/react_native/setup/expo.md new file mode 100644 index 0000000000000..df6c6105298b7 --- /dev/null +++ b/content/es/real_user_monitoring/mobile_and_tv_monitoring/react_native/setup/expo.md @@ -0,0 +1,295 @@ +--- +aliases: +- /es/real_user_monitoring/reactnative/expo/ +- /es/real_user_monitoring/reactnative-expo/ +- /es/real_user_monitoring/mobile_and_tv_monitoring/setup/expo +code_lang: expo +code_lang_weight: 2 +description: Monitoriza tus proyectos de React Native utilizando Expo y Expo Go con + Datadog. +further_reading: +- link: /real_user_monitoring/mobile_and_tv_monitoring/react_native/advanced_configuration + tag: Documentación + text: Configuración avanzada de RUM React Native +- link: https://github.com/DataDog/dd-sdk-reactnative + tag: Código fuente + text: Código fuente de dd-sdk-reactnative +- link: https://www.datadoghq.com/blog/react-native-monitoring/ + tag: Blog + text: Monitorizar aplicaciones React Native +- link: real_user_monitoring/explorer/ + tag: Documentación + text: Aprender a explorar tus datos de RUM +title: Expo Setup +type: lenguaje de código múltiple +--- + +## Información general + +En esta page (página), se describe cómo instrumentar tus aplicaciones para [Real User Monitoring (RUM)][1] y para [Error Tracking][2] con el kit de desarrollo de software (SDK) de React Native. Puedes seguir los siguientes steps (UI) / pasos (generic) para instrumentar tus aplicaciones para RUM (incluye Error Tracking) o Error Tracking si lo has adquirido como producto independiente. + +El SDK de React Native de RUM es compatible con Expo y Expo Go. Para utilizarlo, instala `expo-datadog` y `@datadog/mobile-react-native`. + +`expo-datadog` es compatible con Expo a partir del SDK 45 y las versiones del complemento siguen las versiones de Expo. Por ejemplo, si utilizas Expo SDK 45, utiliza `expo-datadog` versión `45.x.x`. Datadog recomienda utilizar **Expo SDK 45** como versión mínima; las versiones anteriores pueden requerir pasos manuales. + +Si tienes algún problema al configurar el kit de desarrollo de software (SDK) de Datadog con una aplicación Expo, puedes consultar nuestra [aplicación de ejemplo][3] como referencia. + +## Configuración + +Para instalar con NPM, ejecuta: + +```sh +npm install expo-datadog @datadog/mobile-react-native +``` + +Para instalar con Yarn, ejecuta: + +```sh +yarn add expo-datadog @datadog/mobile-react-native +``` + +### Rastrear la navegación de la vista + +Para ver las sesiones de RUM o Error Tracking poblar en Datadog, necesitas implementar el rastreo de vistas, que puede inicializarse manual o automáticamente. + +#### Rastreo manual + +Puedes iniciar y detener manualmente una vista utilizando los siguientes métodos `startView()` y `stopView()`. + +```js +import { + DdRum +} from 'expo-datadog'; + +// Start a view with a unique view identifier, a custom view name, and an object to attach additional attributes to the view +DdRum.startView( + '', // has to be unique, for example it can be ViewName-unique-id + 'View Name', + { 'custom.foo': 'something' }, + Date.now() +); +// Stops a previously started view with the same unique view identifier, and an object to attach additional attributes to the view +DdRum.stopView('', { 'custom.bar': 42 }, Date.now()); +``` + +### Rastreo automático + +El rastreo automático de vistas es compatible con los siguientes módulos: + +- React Navigation: [@Datadog/mobile-react-navigation][10] +- React Native Navigation: [@Datadog/mobile-react-native-navigation][11] + +En este proyecto de ejemplo de Datadog, el rastreo de la vista se consigue a través de `@datadog/mobile-react-navigation` y se configura utilizando el `NavigationContainer`: + +```tsx + { + DdRumReactNavigationTracking.startTrackingViews( + navigationRef.current, + ); + }}> +``` + +## Utilización + +### Inicializar la biblioteca con el contexto de la aplicación + +Añade el siguiente fragmento de código a tu archivo de inicialización: + +```js +import { DdSdkReactNative, DdSdkReactNativeConfiguration } from 'expo-datadog'; + +const config = new DdSdkReactNativeConfiguration( + '', + '', + '', + true, // track user interactions such as tapping on a button. You can use the 'accessibilityLabel' element property to give the tap action a name, otherwise the element type is reported. + true, // track XHR resources. + true // track errors. +); +// Optional: Select your Datadog website ("US1", "US3", "US5", "EU1", or "US1_FED"). Default is "US1". +config.site = 'US1'; +// Optional: Enable or disable native crash reports. +config.nativeCrashReportEnabled = true; +// Optional: Sample RUM sessions, for example: 80% of sessions are sent to Datadog. Default is 100%. +config.sessionSamplingRate = 80; +// Optional: Sample tracing integrations for network calls between your app and your backend, for example: 80% of calls to your instrumented backend are linked from the RUM view to the APM view. Default is 20%. +// You need to specify the hosts of your backends to enable tracing with these backends. +config.resourceTracingSamplingRate = 80; +config.firstPartyHosts = ['example.com']; // Matches 'example.com' and subdomains like 'api.example.com'. +// Optional: Let the Datadog SDK print internal logs above or equal to the provided level. Default is undefined, which means no logs. +config.verbosity = SdkVerbosity.WARN; + +await DdSdkReactNative.initialize(config); + +// Once the Datadog SDK is initialized, you need to setup view tracking in order to see data in the RUM dashboard. +``` + +#### Tarifas de las sesiones de ejemplo + +Para controlar los datos que tu aplicación envía a Datadog RUM, puedes especificar una tasa de muestreo para las sesiones de RUM mientras [inicializas el kit de desarrollo de software (SDK) de Expo][4]. Para configurar esta tasa, utiliza el parámetro `config.sessionSamplingRate` y especifica un porcentaje entre 0 y 100. + +### Cargar mapas fuente en las compilaciones de EAS + +

Si no has activado el informe de bloqueos, puedes omitir este paso.

+ +Añade `expo-datadog` a tus complementos en el archivo `app.json`: + +```json +{ + "expo": { + "plugins": ["expo-datadog"] + } +} +``` + +Este complemento se encarga de cargar los dSYM, los mapas fuente y los archivos de asignación de Proguard en cada compilación de EAS. + +Añade `@datadog/datadog-ci` como dependencia de desarrollo. Este paquete contiene scripts para cargar los mapas fuente. Puedes instalarlo con NPM: + +```sh +npm install @datadog/datadog-ci --save-dev +``` + +o con Yarn: + +```sh +yarn add -D @datadog/datadog-ci +``` + +Ejecuta `eas secret:create` para configurar `DATADOG_API_KEY` en tu clave de la API de Datadog y `DATADOG_SITE` en el host de tu sitio Datadog (por ejemplo, `datadoghq.com`). + +Para obtener información sobre el rastreo de los bloqueos de Expo, consulta [Informe de bloqueos de Expo y Rastreo de errores][5]. + +## Rastrear pantallas de Expo Router + +Si utilizas [Expo Router][6], rastrea tus pantallas en tu archivo `app/_layout.js`: + +```javascript +import { useEffect } from 'react'; +import { usePathname, useSearchParams, useSegments, Slot } from 'expo-router'; + +export default function Layout() { + const pathname = usePathname(); + const segments = useSegments(); + const viewKey = segments.join('/'); + + useEffect(() => { + DdRum.startView(viewKey, pathname); + }, [viewKey, pathname]); + + // Export all the children routes in the most basic way. + return ; +} +``` + +## Expo Go + +Si estás utilizando Expo Go, cambia a las compilaciones de desarrollo (recomendado) o sigue utilizando Expo Go sin Datadog, mientras lo ejecutas en tu aplicación independiente (no recomendado). + +### Cambia de Expo Go a las compilaciones de desarrollo + +Las [compilaciones de desarrollo][7] de tu aplicación son compilaciones de depuración que contienen el paquete `expo-dev-client`. + +1. Activa el [código nativo personalizado para ejecutar][8] con `expo run:android` y `expo run:ios`. +2. Para empezar a utilizar tu aplicación de desarrollo, ejecuta `expo install expo-dev-client` y `expo start --dev-client`. Se instala y se inicia el [paquete `expo-dev-client`][9] para ejecutar el código nativo añadido en el modo de desarrollador. + +### Desarrollar con Expo Go + +Cuando tu aplicación se ejecuta dentro de Expo Go, no puedes añadir ningún código nativo personalizado que no forme parte de la aplicación Expo Go. Dado que el kit de desarrollo de software (SDK) de React Native depende de cierto código nativo personalizado para ejecutarse, puedes desarrollar tu aplicación dentro de Expo Go sin Datadog y utilizar Datadog en tus compilaciones independientes. + +Tu aplicación se bloquea en Expo Go cuando se llama a algún código nativo (que no está incluido). Para utilizar Datadog con tu aplicación independiente y seguir utilizando Expo Go en el desarrollo, añade el siguiente archivo TypeScript a tu proyecto: + +```typescript +// mockDatadog.ts +// Datadog does not recommend this approach, consider moving to Expo development builds instead. +// This file is not officially maintained and might not be up-to-date with new releases. + +import { DdLogs, DdTrace, DdRum, DdSdkReactNative } from 'expo-datadog'; + +if (__DEV__) { + const emptyAsyncFunction = () => new Promise(resolve => resolve()); + + DdLogs.debug = emptyAsyncFunction; + DdLogs.info = emptyAsyncFunction; + DdLogs.warn = emptyAsyncFunction; + DdLogs.error = emptyAsyncFunction; + + DdTrace.startSpan = () => + new Promise(resolve => resolve('fakeSpanId')); + DdTrace.finishSpan = emptyAsyncFunction; + DdRum.startView = emptyAsyncFunction; + DdRum.stopView = emptyAsyncFunction; + DdRum.startAction = emptyAsyncFunction; + DdRum.stopAction = emptyAsyncFunction; + DdRum.addAction = emptyAsyncFunction; + DdRum.startResource = emptyAsyncFunction; + DdRum.stopResource = emptyAsyncFunction; + DdRum.addError = emptyAsyncFunction; + DdRum.addTiming = emptyAsyncFunction; + + DdSdkReactNative.initialize = emptyAsyncFunction; + DdSdkReactNative.setUser = emptyAsyncFunction; + DdSdkReactNative.setAttributes = emptyAsyncFunction; + DdSdkReactNative.setTrackingConsent = emptyAsyncFunction; +} +``` + +A continuación, impórtalo antes de inicializar el SDK de React Native de Datadog: + +```typescript +import './mockDatadog'; +import { DdSdkReactNative } from 'expo-datadog'; + +const config = new DdSdkReactNativeConfiguration(/* your config */); +DdSdkReactNative.initialize(config); +``` + +## Envío de datos cuando el dispositivo está desconectado + +RUM garantiza la disponibilidad de los datos cuando el dispositivo del usuario está desconectado. En caso de zonas con baja red, o cuando la batería del dispositivo está demasiado baja, todos los eventos se almacenan primero en el dispositivo local por lotes. + +Cada lote sigue la especificación de entrada. Se envían tan pronto como la red está disponible y la batería está lo suficientemente cargada como para garantizar que el SDK de Datadog no afecte la experiencia del usuario final. Si la red no está disponible mientras tu aplicación está en primer plano o si falla una carga de datos, el lote se conserva hasta que se lo pueda enviar con éxito. + +Esto significa que incluso si los usuarios abren tu aplicación mientras están desconectados, no se pierde ningún dato. Para garantizar que el SDK no utilice demasiado espacio de disco, los datos del disco se descartan automáticamente si son demasiado antiguos. + +## Solucionar problemas + +### La aplicación produce muchos recursos de /logs + +Cuando el rastreo de recursos está activado y la verbosidad del kit de desarrollo de software (SDK) está configurada en `DEBUG`, cada recurso activa una llamada de `/logs` al servidor de desarrollo de Expo para imprimir el log, que a su vez crea un nuevo recurso de RUM y crea así un bucle infinito. +Los patrones más comunes de la URL del host del servidor de desarrollo de Expo se filtran con el SDK, por lo tanto, es posible que no te encuentres con este error en la mayoría de las situaciones. +Si se produce este error, añade el siguiente asignador de recursos para filtrar las llamadas: + +```js +import { DdSdkReactNativeConfiguration } from 'expo-datadog'; +import Constants from 'expo-constants'; + +const config = new DdSdkReactNativeConfiguration(/* your config */); +config.resourceEventMapper = event => { + if ( + event.resourceContext?.responseURL === + `http://${Constants.expoConfig.hostUri}/logs` + ) { + return null; + } + return event; +}; +``` + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/real_user_monitoring/ +[2]: /es/error_tracking/ +[3]: https://github.com/DataDog/dd-sdk-reactnative-examples/tree/main/rum-expo-react-navigation +[4]: /es/real_user_monitoring/mobile_and_tv_monitoring/setup/expo#initialize-the-library-with-application-context +[5]: /es/real_user_monitoring/error_tracking/mobile/expo/ +[6]: https://expo.github.io/router/docs/ +[7]: https://docs.expo.dev/development/introduction/ +[8]: https://docs.expo.dev/workflow/customizing/#releasing-apps-with-custom-native-code-to +[9]: https://docs.expo.dev/development/getting-started/ +[10]: https://www.npmjs.com/package/@datadog/mobile-react-navigation +[11]: https://www.npmjs.com/package/@datadog/mobile-react-native-navigation \ No newline at end of file diff --git a/content/es/security/access_control.md b/content/es/security/access_control.md new file mode 100644 index 0000000000000..8b2fe555fe308 --- /dev/null +++ b/content/es/security/access_control.md @@ -0,0 +1,42 @@ +--- +disable_toc: false +further_reading: +- link: logs/processing/pipelines + tag: Documentación + text: Pipelines de procesamiento de logs +products: +- icon: siem + name: Cloud SIEM + url: /security/cloud_siem/ +- icon: cloud-security-management + name: Workload Protection + url: /security/workload_protection/ +- icon: app-sec + name: Protección de aplicaciones y API + url: /security/application_security/ +title: Control de acceso +--- + +{{< product-availability >}} + +## Información general + +El sistema de gestión de acceso de Datadog utiliza un control de acceso basado en roles que te permite definir el nivel de acceso de los usuarios a los recursos de Datadog. Se asignan roles a los usuarios, que definen los permisos de sus cuentas, incluidos los datos que pueden leer y los activos de cuenta que pueden modificar. Cuando se conceden permisos a un rol, cualquier usuario asociado a ese rol recibe esos permisos. Consulta la documentación [Control de acceso de gestión de cuentas][1] para obtener más información. + +Para los productos de Datadog Security, el [control de acceso granular][3] está disponible para [reglas de detección](#restrict-access-to-detection-rules) y [supresiones](#restrict-access-to-suppression-rules), que te permite restringir el acceso por equipos, roles o cuentas de servicio. + +## Permisos + +Consulta la [lista de permisos][2] para los productos de Security. + +## Restringir el acceso a las reglas de detección + +{{% security-products/detection-rules-granular-access %}} + +## Restringir el acceso a las reglas de supresión + +{{% security-products/suppressions-granular-access %}} + +[1]: /es/account_management/rbac/#role-based-access-control +[2]: /es/account_management/rbac/permissions/#cloud-security-platform +[3]: /es/account_management/rbac/granular_access/ \ No newline at end of file diff --git a/content/es/security/application_security/setup/php.md b/content/es/security/application_security/setup/php.md new file mode 100644 index 0000000000000..c5e7b7127eb47 --- /dev/null +++ b/content/es/security/application_security/setup/php.md @@ -0,0 +1,115 @@ +--- +aliases: +- /es/security_platform/application_security/getting_started/php +- /es/security/application_security/getting_started/php +- /es/security/application_security/enabling/tracing_libraries/threat_detection/php/ +- /es/security/application_security/threats/setup/threat_detection/php +- /es/security/application_security/threats_detection/php +- /es/security/application_security/setup/aws/fargate/php +code_lang: php +code_lang_weight: 40 +further_reading: +- link: /security/application_security/add-user-info/ + tag: Documentación + text: Añadir información del usuario a trazas +- link: https://github.com/DataDog/dd-trace-php + tag: Código fuente + text: Código fuente de la biblioteca de rastreo PHP de Datadog +- link: /security/default_rules/?category=cat-application-security + tag: Documentación + text: Reglas predefinidas de App and API Protection +- link: /security/application_security/troubleshooting + tag: Documentación + text: Solución de problemas de App and API Protection +title: Habilitar AAP para PHP +type: multi-code-lang +--- + +Puedes monitorizar aplicaciones App and API Protection para PHP que se ejecutan en entornos basados ​​en host o en contenedores, como Docker, Kubernetes, AWS ECS y AWS EKS. + +{{% appsec-getstarted %}} + +## Habilitación de la detección de amenazas +### Para empezar + +1. **Instala la última versión de la biblioteca PHP de Datadog** descargando y ejecutando el instalador: + ```shell + wget https://github.com/DataDog/dd-trace-php/releases/latest/download/datadog-setup.php -O datadog-setup.php + php datadog-setup.php --php-bin all --enable-appsec + ``` + Para comprobar si el lenguaje y las versiones del marco de tu servicio son compatibles con las funciones de AAP, consulta [Compatibilidad][1]. + +2. **Habilita la biblioteca en tu código** reiniciando PHP-FPM o Apache. En un entorno contenedorizado, si previamente instalaste la biblioteca sin habilitar AAP, opcionalmente podrás habilitarla más tarde configurando la siguiente variable de entorno: + {{< tabs >}} +{{% tab "CLI Docker" %}} + +Actualiza tu contenedor de configuración para APM añadiendo el siguiente argumento en tu comando `docker run`: + +```shell +docker run [...] -e DD_APPSEC_ENABLED=true [...] +``` + +{{% /tab %}} +{{% tab "Dockerfile" %}} + +Añade el siguiente valor de variable de entorno a tu contenedor Dockerfile: + +```Dockerfile +ENV DD_APPSEC_ENABLED=true +``` + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +Actualiza el contenedor del archivo yaml de configuración para APM y añade la variable de entorno AppSec: + +```yaml +spec: + template: + spec: + containers: + - name: + image: / + env: + - name: DD_APPSEC_ENABLED + value: "true" +``` + +{{% /tab %}} +{{% tab "AWS ECS" %}} + +Actualiza tu archivo JSON de definición de tarea de ECS añadiendo esto en la sección de entorno: + +```json +"environment": [ + ..., + { + "name": "DD_APPSEC_ENABLED", + "value": "true" + } +] +``` + +{{% /tab %}} + +{{< /tabs >}} + +{{% appsec-getstarted-2-canary %}} + +{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Vídeo que muestra el explorador de señales y detalles y el explorador de vulnerabilidades y detalles." video="true" >}} + +## Uso de AAP sin el rastreo APM + +Si quieres utilizar Application & API Protection sin la funcionalidad de rastreo APM, puedes desplegarla con el rastreo desactivado: + +1. Configura tu biblioteca de rastreo con la variable de entorno `DD_APM_TRACING_ENABLED=false`, además de la variable de entorno `DD_APPSEC_ENABLED=true`. +2. Esta configuración reduce la cantidad de datos de APM enviados a Datadog al mínimo requerido por los productos App and API Protection. + +Para obtener más información, consulta [App and API Protection individual][standalone_billing_guide]. +[guía_de_facturación_individual]: /security/application_security/guide/standalone_application_security/ + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/security/application_security/setup/compatibility/php/ \ No newline at end of file diff --git a/content/es/security/application_security/setup/ruby.md b/content/es/security/application_security/setup/ruby.md new file mode 100644 index 0000000000000..43ff0e4039223 --- /dev/null +++ b/content/es/security/application_security/setup/ruby.md @@ -0,0 +1,238 @@ +--- +aliases: +- /es/security_platform/application_security/getting_started/ruby +- /es/security/application_security/getting_started/ruby +- /es/security/application_security/enabling/tracing_libraries/threat_detection/ruby/ +- /es/security/application_security/threats/setup/threat_detection/ruby +- /es/security/application_security/threats_detection/ruby +- /es/security/application_security/setup/aws/fargate/ruby +code_lang: ruby +code_lang_weight: 30 +further_reading: +- link: /security/application_security/add-user-info/ + tag: Documentación + text: Añadir información del usuario a trazas +- link: https://github.com/DataDog/dd-trace-rb + tag: Código fuente + text: Código fuente de la biblioteca Ruby de Datadog +- link: /security/default_rules/?category=cat-application-security + tag: Documentación + text: Reglas predefinidas de App and API Protection +- link: /security/application_security/troubleshooting + tag: Documentación + text: Solución de problemas de App and API Protection +title: Habilitar AAP para Ruby +type: multi-code-lang +--- + +Puedes monitorizar aplicaciones App and API Protection para Ruby que se ejecutan en Docker, Kubernetes, Amazon ECS y AWS Fargate. + +{{% appsec-getstarted %}} + +## Habilitación de la detección de amenazas + +### Para empezar + +1. **Actualiza tu Gemfile para incluir la biblioteca de Datadog**: + + ```ruby + gem 'datadog', '~> 2.0' # Use 'ddtrace' if you're using v1.x + ``` + + Para comprobar si el lenguaje y las versiones del marco de tu servicio son compatibles con las funciones de AAP, consulta [Compatibilidad][1]. + + Para obtener más información sobre la actualización a la v2 desde una versión `dd-trace` 1.x, consulta [la guía de actualización del rastreador Ruby][2]. + +2. **Habilita AAP** activando el rastreador APM. Las siguientes opciones describen una configuración rápida que cubre los casos más frecuentes. Consulta la [documentación del rastreador Ruby][3] para obtener más detalles. + + Puedes activar AAP en tu código: + + {{< tabs >}} + +{{% tab "Rails" %}} + Habilita el rastreador APM añadiendo un inicializador en el código de la aplicación: + + ```ruby + # config/initializers/datadog.rb + + require 'datadog/appsec' + + Datadog.configure do |c| + # enable the APM tracer + c.tracing.instrument :rails + + # enable AAP + c.appsec.enabled = true + c.appsec.instrument :rails + end + ``` + + O habilita el rastreador APM a través de la instrumentación automática actualizando tu Gemfile para instrumentar automáticamente: + + ```ruby + gem 'datadog', '~> 2.0', require: 'datadog/auto_instrument' + ``` + + Y también habilita `appsec`: + + ```ruby + # config/initializers/datadog.rb + + require 'datadog/appsec' + + Datadog.configure do |c| + # the APM tracer is enabled by auto-instrumentation + + # enable AAP + c.appsec.enabled = true + c.appsec.instrument :rails + end + ``` + +{{% /tab %}} + +{{% tab "Sinatra" %}} + Habilita el rastreador APM añadiendo lo siguiente al inicio de la aplicación: + + ```ruby + require 'sinatra' + require 'datadog' + require 'datadog/appsec' + + Datadog.configure do |c| + # enable the APM tracer + c.tracing.instrument :sinatra + + # enable AAP for Sinatra + c.appsec.enabled = true + c.appsec.instrument :sinatra + end + ``` + + O habilita el rastreador APM a través de la instrumentación automática: + + ```ruby + require 'sinatra' + require 'datadog/auto_instrument' + + Datadog.configure do |c| + # the APM tracer is enabled by auto-instrumentation + + # enable AAP for Sinatra + c.appsec.enabled = true + c.appsec.instrument :sinatra + end + ``` + +{{% /tab %}} + +{{% tab "Rack" %}} + Habilita el rastreador APM añadiendo lo siguiente al archivo `config.ru`: + + ```ruby + require 'datadog' + require 'datadog/appsec' + + Datadog.configure do |c| + # enable the APM tracer + c.tracing.instrument :rack + + # enable AAP for Rack + c.appsec.enabled = true + c.appsec.instrument :rack + end + + use Datadog::Tracing::Contrib::Rack::TraceMiddleware + use Datadog::AppSec::Contrib::Rack::RequestMiddleware + ``` + +{{% /tab %}} + +{{< /tabs >}} + + O uno de los siguientes métodos, dependiendo de dónde se ejecute la aplicación: + + {{< tabs >}} +{{% tab "Docker CLI" %}} + +Actualiza tu contenedor de configuración para APM añadiendo el siguiente argumento en tu comando `docker run`: + +```shell +docker run [...] -e DD_APPSEC_ENABLED=true [...] +``` + +{{% /tab %}} +{{% tab "Dockerfile" %}} + +Añade el siguiente valor de variable de entorno a tu contenedor Dockerfile: + +```Dockerfile +ENV DD_APPSEC_ENABLED=true +``` + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +Actualiza el contenedor del archivo yaml de configuración para APM y añade la variable de entorno AppSec: + +```yaml +spec: + template: + spec: + containers: + - name: + image: / + env: + - name: DD_APPSEC_ENABLED + value: "true" +``` + +{{% /tab %}} +{{% tab "Amazon ECS" %}} + +Actualiza tu archivo JSON de definición de tarea de ECS añadiendo esto en la sección de entorno: + +```json +"environment": [ + ..., + { + "name": "DD_APPSEC_ENABLED", + "value": "true" + } +] +``` + +{{% /tab %}} +{{% tab "AWS Fargate" %}} + +Inicializa AAP en tu código o configura la variable de entorno `DD_APPSEC_ENABLED` como true en la invocación de tu servicio: + +```shell +env DD_APPSEC_ENABLED=true rails server +``` + +{{% /tab %}} + +{{< /tabs >}} + +{{% appsec-getstarted-2-canary %}} + +{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Vídeo que muestra el explorador de señales y detalles y el explorador de vulnerabilidades y detalles." video="true" >}} + +## Uso de AAP sin el rastreo APM + +Si quieres utilizar Application & API Protection sin la funcionalidad de rastreo APM, puedes desplegarla con el rastreo desactivado: + +1. Configura tu biblioteca de rastreo con la variable de entorno `DD_APM_TRACING_ENABLED=false`, además de la variable de entorno `DD_APPSEC_ENABLED=true`. +2. Esta configuración reduce la cantidad de datos de APM enviados a Datadog al mínimo requerido por los productos App and API Protection. + +Para obtener más información, consulta [App and API Protection individual][standalone_billing_guide]. +[guía_de_facturación_individual]: /security/application_security/guide/standalone_application_security/ + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/security/application_security/setup/compatibility/ruby/ +[2]: https://github.com/DataDog/dd-trace-rb/blob/master/docs/UpgradeGuide2.md +[3]: /es/tracing/trace_collection/dd_libraries/ruby/ \ No newline at end of file diff --git a/content/es/security/application_security/threats/protection.md b/content/es/security/application_security/threats/protection.md new file mode 100644 index 0000000000000..83bcffc0b40d2 --- /dev/null +++ b/content/es/security/application_security/threats/protection.md @@ -0,0 +1,126 @@ +--- +further_reading: +- link: /security/application_security/ + tag: Documentación + text: App and API Protection con Datadog +is_beta: true +title: Protección +--- + +## Información general + +Si tu servicio está ejecutando [un Agent con la configuración remota habilitada y una versión de biblioteca de rastreo compatible][2], puedes bloquear ataques y atacantes desde la interfaz de usuario de Datadog sin una configuración adicional del Agent o bibliotecas de rastreo. + +App and API Protection (AAP) te permite frenar los ataques y a los atacantes _bloqueándolos_. Las trazas (trace) de seguridad son bloqueadas en tiempo real por las bibliotecas de rastreo de Datadog. Los bloqueos se guardan en la plataforma Datadog, se recuperan de forma automática y segura en el Agent, se despliegan en tu infraestructura y se aplican a tus servicios. + +## Requisitos previos + +Para utilizar las funciones de protección con tu servicio: + +- [Actualiza tu Datadog Agent][3] al menos a la versión 7.41.1. +- [Activa AAP][1]. +- [Activa la configuración remota][2]. +- Actualiza tu biblioteca de rastreo al menos a la versión mínima necesaria para activar la protección. Para obtener más información, consulta la sección de compatibilidad con las fiuncionalidades de AAP en [Compatibilidad][12] para el lenguaje de tu servicio. +- Si tienes previsto utilizar el bloqueo de usuarios autenticados, [añade información de usuario a trazas][4]. + +## Bloqueo de atacantes (IPs y usuarios autenticados) + +Puedes bloquear a los atacantes indicados en [Security Signals][5] de AAP de forma temporal o permanente. En Signals Explorer, haz clic en una señal para ver qué usuarios y direcciones IP están generando la señal y, opcionalmente, bloquearlos. + +A partir de allí, todos los servicios protegidos por AAP bloquean las solicitudes entrantes realizadas por la IP o el usuario bloqueados, durante el tiempo especificado. Todas las trazas bloqueadas se etiquetan con `security_response.block_ip` o `security_response.block_user` y se muestran en el [Trace Explorer][6]. Los servicios en los que AAP está desactivado no están protegidos. Consulta [Investigar Security Signals][20] para obtener más información. + +## Responder a las amenazas en tiempo real automatizando el bloqueo de atacantes + +Además de bloquear manualmente a los atacantes, puedes configurar reglas de automatización para que AAP bloquee automáticamente a los atacantes indicados en Security Signals. + +Para empezar, ve a **Security > App and API Protection > Protection > [Detection Rules] (Seguridad > App and API Protection > Protección > Reglas de detección)[14]**. Puedes crear una nueva regla o editar una existente con el tipo _App and API Protection_. Por ejemplo, puedes crear una regla para activar señales de gravedad `Critical`, cuando se detectan ataques de Relleno de Credenciales, y bloquear automáticamente las direcciones IP de los atacantes asociados durante 30 minutos. + +**Nota**: Debes instrumentar tus servicios para poder bloquear atacantes autenticados. Consulta [Monitorización y protección de usuarios][15] para obtener más detalles. + +## Bloquear atacantes en el perímetro: integrar AAP con tus despliegues WAF existentes + +Datadog AAP permite a los clientes bloquear a los atacantes en el perímetro, directamente desde la señal de seguridad. AAP se integra con [Workflows][17] para enviar las direcciones IP de los atacantes a Web Application Firewalls perimetrales (AWS WAF, Cloudflare, Fastly) y garantizar que las solicitudes de estos atacantes se bloqueen en el perímetro, incluso antes de que lleguen al entorno del cliente. +Crea flujos de trabajo a partir de los [planos][18] disponibles y ejecútalos directamente desde el panel lateral de señales de AAP. + +## Lista de denegados + +Las direcciones IP de los atacantes y los usuarios autenticados que se bloquean de forma permanente o temporal se añaden a la _Lista de denegados_. Gestiona la lista en la [página Lista de denegados][7]. Una lista de denegados admite el bloqueo de IPs individuales, así como de un rango de IPs (bloques CIDR). + +## Lista de aprobados + +Puedes utilizar la _Lista de aprobados_ para permitir permanentemente el acceso de direcciones IP específicas a tu aplicación. Por ejemplo, puede que desees añadir direcciones IP internas a tu lista de aprobados, o direcciones IP que ejecutan regularmente auditorías de seguridad en tu aplicación. También puedes añadir rutas específicas para garantizar un acceso ininterrumpido. Gestiona la lista desde la [página Lista de aprobados][8]. + +## Bloqueo de intentos de ataque con WAF en la aplicación + +WAF en la aplicación (cortafuegos de aplicaciones web) de AAP combina las técnicas de detección de los WAF basados en perímetro con el contexto enriquecido que proporciona Datadog, lo que ayuda a tus equipos a proteger sus sistemas con confianza. + +Dado que AAP conoce las rutas de una aplicación, la protección puede aplicarse de forma granular a servicios específicos y no necesariamente a todas las aplicaciones y al tráfico. Esta eficacia contextual reduce el esfuerzo de inspección y la tasa de falsos positivos en comparación con un WAF perimetral. No hay periodo de aprendizaje, ya que la mayoría de los marcos web proporcionan un mapa estructurado de rutas. AAP puede ayudar a tu equipo a desplegar protecciones contra vulnerabilidades de día cero automáticamente, poco después de que se divulgue la vulnerabilidad, al tiempo que se dirige a las aplicaciones vulnerables, limitando el riesgo de falsos positivos. + +### Cómo WAF en la aplicación bloquea las de trazas seguridad + +Además de los modos `monitoring` y `disabled` ofrecidos para cada una de las más de 130 reglas WAF en la aplicación, las reglas también tienen el modo `blocking`. Cada regla especifica condiciones sobre la solicitud entrante para definir lo que la biblioteca considera sospechoso. Cuando un patrón de regla determinado coincide con una solicitud HTTP en curso, la solicitud es bloqueada por la biblioteca. + +Las políticas gestionadas definen el modo en que cada una de las reglas de WAF en la aplicación se comporta en las coincidencias: `monitoring`, `blocking`, o `disabled`. Dado que dispone del contexto completo de tus aplicaciones, AAP sabe qué reglas aplicar para proteger tus aplicaciones mientras limita el número de falsos positivos. + +Para un control más preciso, puedes clonar una política gestionada por Datadog o crear una política personalizada y establecer el modo que mejor se adapte a tus necesidades. Si estableces la política en `auto-updating`, tus aplicaciones estarán protegidas por las últimas detecciones desplegadas por Datadog. También tienes la opción de fijar una política a una versión específica del conjunto de reglas. + +A medida que las reglas de WAF en la aplicación cambian de modo, los cambios se reflejan casi en tiempo real para servicios con la [configuración remota activada][2]. Para otros servicios, puedes actualizar la política en la [página de WAF en la aplicación][9] y luego [definir reglas de WAF en la aplicación][10] para que se aplique el cambio de comportamiento. + +Gestiona WAF en la aplicación yendo a Security --> App and API Protection --> Configuration --> [In-App WAF] (Seguridad --> App and API Protection --> Configuración --> WAF en la aplicación)[9]. + +Ve las trazas de seguridad bloqueadas en el [Trace Explorer][11] filtrando por la faceta `Blocked:true`. + +{{< img src="security/application_security/app_sec_blocked.png" alt="AAP Trace Explorer filtrado utilizando la faceta Blocked (Bloqueado) configurada como true (verdadero)." style="width:100%;" >}} + +### Configurar WAF en la aplicación + +1. [**Habilita la configuración remota**][2] para que tus servicios habilitados por AAP aparezcan en WAF en la aplicación. Esto es necesario para enviar de forma segura la configuración de WAF en la aplicación desde tu backend Datadog a la biblioteca de rastreo de tu infraestructura. + +2. **Asocia tus servicios habilitados por la configuración remota de AAP con una política**. Una vez activada la configuración remota en un servicio, ve a **Security --> App and API Protection --> [In-App WAF] (Seguridad --> App and API Protection --> Protección --> WAF en la aplicación)[9]**. El servicio aparece en la política _Solo monitorización Datadog_ de forma predeterminada. La política Solo monitorización Datadog es una política gestionada de solo lectura, lo que significa que no puedes modificar el estado (monitorización, bloqueo o desactivación) de reglas individuales. + + Si necesitas un control detallado, clona una de las políticas disponibles para crear una política personalizada en la que se puedan modificar los estados de las reglas. Asocia uno o varios de tus servicios a esta política personalizada. + + Para cambiar la política aplicada por defecto a tus servicios, puedes actualizar tu política predeterminada. Desde WAF en la aplicación, haz clic en la política que desees establecer como predeterminada y, a continuación, haz clic en **Actions** > **Set this policy as default** (Acciones > Establecer esta política como predeterminada). + +## Personalizar el comportamiento de la protección + +### Personalizar la respuesta a las solicitudes bloqueadas + +{{% asm-protection-page-configuration %}} + +{{< img src="/security/application_security/asm-blocking-page-html.png" alt="Página que se muestra como AAP bloquea solicitudes originadas en IP bloqueadas" width="75%" >}} + +El código de estado de respuesta HTTP predeterminado al mostrar la página de denegación a los atacantes es `403 FORBIDDEN`. Para personalizar la respuesta, ve a **Security > App and API Protection > Protection > In-App Waf > [Custom Responses] (Seguridad > App and API Protection > Protección > WAF en la aplicación > Respuestas personalizadas)[16]**. + +Opcionalmente, puedes enmascarar si el atacante ha sido detectado y bloqueado anulando el código de respuesta para que sea `200 OK` o `404 NOT FOUND` en la página de denegación. + +También puedes redirigir opcionalmente a los atacantes a una página de denegación personalizada y alejarlos de tus servicios e infraestructura críticos. Especifica una URL de redirección y el tipo de redirección, por ejemplo, permanente (código de respuesta `301`) o temporal (código de respuesta `302`). + +### Desactivar la protección en todos los servicios (Desactivar el modo de protección) + +El modo de protección está **activado** por defecto y es un conmutador disponible para desactivar rápidamente el bloqueo en **todos** tus servicios. Se pueden bloquear solicitudes de dos secciones en Datadog: todas las solicitudes de atacantes desde Security Signals y las trazas de seguridad desde WAF en la aplicación. + +Por muy importante que sea poder aplicar la protección de forma granular y reducir la probabilidad de que los usuarios legítimos sean bloqueados, a veces necesitas un simple interruptor de apagado para desactivar rápidamente **todos** los bloqueos en **todos** los servicios. Para desactivar la protección, ve a **Security > App and API Protection > Protection > [In-App WAF] (Seguridad > App and API Protection > Protección > WAF en la aplicación)[9]** y desactiva **Allow Request Blocking** (Permitir bloqueo de solicitudes). + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/security/application_security/setup/ +[2]: /es/agent/remote_config/#enabling-remote-configuration +[3]: /es/agent/versions/upgrade_between_agent_minor_versions +[4]: /es/security/application_security/how-it-works/add-user-info/#adding-authenticated-user-information-to-traces-and-enabling-user-blocking-capability +[5]: https://app.datadoghq.com/security?query=%40workflow.rule.type%3A%22Application%20Security%22&column=time&order=desc&product=appsec&view=signal +[6]: https://app.datadoghq.com/security/appsec/traces?query=%40appsec.blocked%3Atrue +[7]: https://app.datadoghq.com/security/appsec/denylist +[8]: https://app.datadoghq.com/security/appsec/passlist +[9]: https://app.datadoghq.com/security/appsec/in-app-waf +[10]: /es/security/application_security/threats/inapp_waf_rules/ +[11]: https://app.datadoghq.com/security/appsec/traces +[12]: /es/security/application_security/setup/compatibility/ +[14]: https://app.datadoghq.com/security/appsec/detection-rules +[15]: /es/security/application_security/how-it-works/add-user-info/?tab=set_user#adding-authenticated-user-information-to-traces-and-enabling-user-blocking-capability +[16]: https://app.datadoghq.com/security/appsec/in-app-waf?config_by=custom-responses +[17]: https://docs.datadoghq.com/es/service_management/workflows/ +[18]: https://app.datadoghq.com/workflow/blueprints?selected_category=SECURITY +[20]: /es/security/application_security/threats/security_signals/ \ No newline at end of file diff --git a/content/es/security/application_security/threats/setup/compatibility/envoy.md b/content/es/security/application_security/threats/setup/compatibility/envoy.md new file mode 100644 index 0000000000000..c19a39c83c50f --- /dev/null +++ b/content/es/security/application_security/threats/setup/compatibility/envoy.md @@ -0,0 +1,31 @@ +--- +code_lang: envoy +code_lang_weight: 40 +title: Requisitos de compatibilidad de Envoy +type: lenguaje de código múltiple +--- + +La siguiente tabla enumera la compatibilidad con funciones de App and API Protection en la integración Envoy, según la versión de rastreador especificada: + +| Función de App and API Protection | Versión mínima de imagen Envoy | +|----------------------------------------|------------------------------| +| Detección de amenazas | 1.71.0 | +| Protección frente a amenazas | 1.71.0 | +| Personalizar la respuesta a las solicitudes bloqueadas | 1.71.0 | +| Análisis de la composición del software (SCA) | No aplicable | +| Seguridad del código | No aplicable | +| Rastreo automático de los eventos de actividad de los usuarios | No compatible | +| Seguridad de la API | No compatible | + +Consulta las [limitaciones][1] de la integración Envoy versión 1.71.0. + +## Soporte de Envoy + +La integración Envoy está en vista previa. + +Solo se admiten la versión Linux y las arquitecturas arm64 y arm64. + +
Si quieres que agreguemos la compatibilidad para alguna función que aún no es compatible, háznoslo saber. Rellena este breve formulario para enviarnos tu información.
+ +[1]: /es/security/application_security/setup/threat_detection/envoy \ No newline at end of file diff --git a/content/es/security/application_security/threats/setup/compatibility/nginx.md b/content/es/security/application_security/threats/setup/compatibility/nginx.md new file mode 100644 index 0000000000000..bf916d651c8f9 --- /dev/null +++ b/content/es/security/application_security/threats/setup/compatibility/nginx.md @@ -0,0 +1,32 @@ +--- +code_lang: nginx +code_lang_weight: 40 +title: Requisitos de compatibilidad de Nginx +type: lenguaje de código múltiple +--- + +## Compatibilidad de funciones de App and API Protection + +Las siguientes funciones de App and API Protection son compatibles con la integración Nginx, para la versión de rastreador especificada: + +| Función de App and API Protection | Versión mínima de módulo Nginx | +|----------------------------------------|------------------------------| +| Detección de amenazas | 1.2.0 | +| Protección frente a amenazas | 1.3.0 | +| Personalizar la respuesta a las solicitudes bloqueadas | 1.3.0 | +| Análisis de la composición del software (SCA) | No aplicable | +| Seguridad del código | No aplicable | +| Seguimiento automático de los eventos de actividades de usuarios | No compatible | +| Seguridad de la API | No compatible | + +Consulta las [limitaciones][1] de la versión 1.3.0 de Nginx. + +## Compatibilidad con Nginx + +La política del módulo Nginx es compatible con las versiones de Nginx hasta un año después +del fin de su vida útil. Solo son compatibles Linux y las arquitecturas arm64 y amd64. + +
Si quieres que agreguemos la compatibilidad para alguna función que aún no es compatible, háznoslo saber. Rellena este breve formulario para enviarnos tu información.
+ +[1]: /es/security/application_security/setup/threat_detection/nginx/ \ No newline at end of file diff --git a/content/es/security/application_security/threats/setup/standalone/dotnet.md b/content/es/security/application_security/threats/setup/standalone/dotnet.md new file mode 100644 index 0000000000000..5b3b5b5f9d260 --- /dev/null +++ b/content/es/security/application_security/threats/setup/standalone/dotnet.md @@ -0,0 +1,215 @@ +--- +aliases: +- /es/security_platform/application_security/getting_started/dotnet +- /es/security/application_security/getting_started/dotnet +- /es/security/application_security/enabling/tracing_libraries/threat_detection/dotnet/ +code_lang: dotnet +code_lang_weight: 10 +further_reading: +- link: /security/application_security/add-user-info/ + tag: Documentación + text: Añadir información del usuario a trazas +- link: https://github.com/DataDog/dd-trace-dotnet + tag: Código fuente + text: Código fuente de la biblioteca .NET de Datadog +- link: /security/default_rules/?category=cat-application-security + tag: Documentación + text: Reglas predeterminadas de App & API Protection +- link: /security/application_security/troubleshooting + tag: Documentación + text: Solucionar problemas de App & API Protection +title: Activar Application & API Protection para .NET +type: lenguaje de código múltiple +--- + +Puedes monitorizar la seguridad de las aplicaciones .NET que se ejecutan en Docker, Kubernetes, Amazon ECS y AWS Fargate. + +{{% appsec-getstarted-standalone %}} + +## Activar Application & API Protection +### Para empezar + +1. **Actualiza la [biblioteca .NET de Datadog][1]** al menos a la versión 2.2.0 (o a la versión 2.16.0 para las funciones de detección del análisis de composición de software) para la arquitectura del sistema operativo de destino. + + Para comprobar que las versiones del lenguaje y del marco de trabajo de tu servicio son compatibles con las funciones de Application & API Protection, consulta [Compatibilidad][2]. + +2. **Habilita Application & API Protection** configurando las variables de entorno. Para un uso exclusivo de seguridad sin rastreo de APM, configura `DD_APPSEC_ENABLED=true` y `DD_APM_TRACING_ENABLED=false`. Por ejemplo, en Windows autoalojado, ejecuta el siguiente fragmento de PowerShell como parte del script de inicio de tu aplicación: + ``` + $target=[System.EnvironmentVariableTarget]::Process + [System.Environment]::SetEnvironmentVariable("DD_APPSEC_ENABLED","true",$target) + [System.Environment]::SetEnvironmentVariable("DD_APM_TRACING_ENABLED","false",$target) + ``` + + **O** uno de los siguientes métodos, dependiendo de dónde se ejecute la aplicación: + + {{< tabs >}} +{{% tab "Windows autoalojado" %}} + +En una consola de Windows: + +``` +rem Set environment variables +SET CORECLR_ENABLE_PROFILING=1 +SET CORECLR_PROFILER={846F5F1C-F9AE-4B07-969E-05C26BC060D8} +SET DD_APPSEC_ENABLED=true +SET DD_APM_TRACING_ENABLED=false + +rem Start application +dotnet.exe example.dll +``` + +{{% /tab %}} +{{% tab "IIS" %}} + +Ejecuta el siguiente comando de PowerShell como administrador para configurar las variables de entorno necesarias en el registro `HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Session Manager\Environment` y reinicia IIS. +``` +$target=[System.EnvironmentVariableTarget]::Machine +[System.Environment]::SetEnvironmentVariable("DD_APPSEC_ENABLED","true",$target) +[System.Environment]::SetEnvironmentVariable("DD_APM_TRACING_ENABLED","false",$target) +net stop was /y +net start w3svc +``` + +**O**, para servicios de IIS exclusivamente, en WAS y W3SVC con PowerShell como administrador, ejecuta: + +``` +$appsecPart = "DD_APPSEC_ENABLED=true DD_APM_TRACING_ENABLED=false" +[string[]] $defaultvariable = @("CORECLR_ENABLE_PROFILING=1", "CORECLR_PROFILER={846F5F1C-F9AE-4B07-969E-05C26BC060D8}", $appsecPart) + +function Add-AppSec { + + param ( + $path + ) + $v = (Get-ItemProperty -Path $path).Environment + If ($v -eq $null) { + Set-ItemProperty -Path $path -Name "Environment" -Value $defaultvariable + } + ElseIf (-not ($v -match $appsecPart)) { + $v += " " + $appsecPart; + Set-ItemProperty -Path $path -Name "Environment" -Value $v + } +} +Add-AppSec -path "HKLM:SYSTEM\CurrentControlSet\Services\WAS\" +Add-AppSec -path "HKLM:SYSTEM\CurrentControlSet\Services\W3SVC\" + +net stop was /y +net start w3svc +``` + +**Or**, to avoid editing registry keys, edit the application settings in the `web.config` file of your application: +```xml + + + + + + +``` + +Esto también puede hacerse a nivel de grupo de aplicaciones de IIS en el archivo `applicationHost.config`, normalmente en `C:\Windows\System32\inetsrv\config\`: +```xml + + + + + + + + + (...) +``` + +{{% /tab %}} +{{% tab "Linux" %}} + +Añade lo siguiente a la configuración de tu aplicación: +```conf +DD_APPSEC_ENABLED=true +DD_APM_TRACING_ENABLED=false +``` +{{% /tab %}} +{{% tab "CLI Docker" %}} + +Actualiza tu contenedor de configuración para APM añadiendo los siguientes argumentos en tu comando `docker run`: + +```shell +docker run [...] -e DD_APPSEC_ENABLED=true -e DD_APM_TRACING_ENABLED=false [...] +``` + +{{% /tab %}} +{{% tab "Dockerfile" %}} + +Añade los siguientes valores de variable de entorno a tu archivo de contenedor de Docker: + +```Dockerfile +ENV DD_APPSEC_ENABLED=true +ENV DD_APM_TRACING_ENABLED=false +``` + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +Actualiza tu archivo de configuración de despliegue para APM y añade las variables de entorno de Application & API Protection: + +```yaml +spec: + template: + spec: + containers: + - name: + image: / + env: + - name: DD_APPSEC_ENABLED + value: "true" + - name: DD_APM_TRACING_ENABLED + value: "false" +``` + +{{% /tab %}} +{{% tab "Amazon ECS" %}} + +Actualiza tu archivo JSON de definición de tareas de ECS, añadiendo esto en la sección de entorno: + +```json +"environment": [ + ..., + { + "name": "DD_APPSEC_ENABLED", + "value": "true" + }, + { + "name": "DD_APM_TRACING_ENABLED", + "value": "false" + } +] +``` + +{{% /tab %}} +{{% tab "AWS Fargate" %}} + +Añade las siguientes líneas a tu archivo de contenedor de Docker: +```Dockerfile +ENV DD_APPSEC_ENABLED=true +ENV DD_APM_TRACING_ENABLED=false +``` + +{{% /tab %}} + +{{< /tabs >}} + +3. **Reinicia la aplicación** deteniéndola por completo y volviéndola a iniciar. + +{{% appsec-getstarted-2-plusrisk %}} + +{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Vídeo que muestra el explorador de señales y detalles y el explorador de vulnerabilidades y detalles." video="true" >}} + + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://github.com/DataDog/dd-trace-dotnet/releases/latest +[2]: /es/security/application_security/setup/compatibility/dotnet/ +[3]: /es/agent/versions/upgrade_between_agent_minor_versions/ +[4]: /es/security/application_security/setup/compatibility/ \ No newline at end of file diff --git a/content/es/security/application_security/threats/setup/standalone/gcp-service-extensions.md b/content/es/security/application_security/threats/setup/standalone/gcp-service-extensions.md new file mode 100644 index 0000000000000..9e289cd7fccbf --- /dev/null +++ b/content/es/security/application_security/threats/setup/standalone/gcp-service-extensions.md @@ -0,0 +1,489 @@ +--- +code_lang: gcp-service-extensions +code_lang_weight: 50 +further_reading: +- link: https://github.com/DataDog/dd-trace-go/tree/main/contrib/envoyproxy/go-control-plane/cmd/serviceextensions + tag: Código fuente + text: Código fuente de la extensión del servicio de App and API Protection +- link: https://cloud.google.com/service-extensions/docs/overview + tag: Documentación + text: Información general de las extensiones de servicios de Google Cloud +- link: /security/default_rules/?category=cat-application-security + tag: Documentación + text: Reglas predefinidas de App and API Protection +- link: /security/application_security/troubleshooting + tag: Documentación + text: Solución de problemas de App and API Protection +title: Activación de App and API Protection para las extensiones de servicio de GCP +type: lenguaje de código múltiple +--- + +{{< callout url="#" btn_hidden="true" header="Las extensiones de App and API Protection Service está en vista previa" >}} +Para probar la vista previa de las extensiones de App and API Protection Service para GCP, sigue las instrucciones de configuración a continuación. +{{< /callout >}} + +Puedes activar App and API Protection (AAP) con extensiones de servicio de GCP dentro de GCP Cloud Load Balancing. La integración de Datadog y las extensiones de servicio de App and API Protection proporciona capacidades de detección y bloqueo de amenazas directamente en tu entorno de GCP. + +## Requisitos previos + +- El [Datadog Agent ][1] está instalado y configurado para el sistema operativo o contenedor, nube o entorno virtual de tu aplicación. +- La [configuración remota][2] está configurada para permitir el bloqueo de atacantes a través de la interfaz de usuario de Datadog. +- En tu proyecto de GCP, tienes el rol `owner` o `editor` del proyecto, o los roles de IAM de Compute Engine relevantes: `compute.instanceAdmin.v1` (para crear instancias) y `compute.networkAdmin` (para configurar el equilibrio de carga). +- Se configura un proyecto de GCP con un Cloud Load Balancer para tus servicios. El Cloud Load Balancer debe ser uno de los [Application Load Balancers compatibles con Traffic Callouts][3]. +- Las APIs Compute Engine y Network Services están activadas: + + ```bash + gcloud services enable compute.googleapis.com networkservices.googleapis.com + ``` + +## Habilitación de la detección de amenazas + +Para configurar la extensión de servicio de App and API Protection en tu entorno de GCP, utiliza la consola de Google Cloud o los scripts de Terraform y completa los siguientes pasos. + +**Nota:** Google Cloud proporciona guías para crear [un servicio de backend de llamada][4] y [configurar una extensión de servicio como extensión de tráfico][5]. Los siguientes pasos utilizan la misma configuración general, pero incluyen configuraciones personalizadas específicas para la integración de App and API Protection de Datadog. + +{{< tabs >}} +{{% tab "Google Cloud Console" %}} + +1. Crea una instancia de VM Compute utilizando la [imagen de Docker de extensiones de servicio de Datadog App and API Protection][1]. + + Consulta [Configuración](#configuration) para conocer las variables de entorno disponibles cuando configures tu instancia de VM. + +
+ Note: Be sure to update your Firewall rules to allow the Load Balancer and Datadog agent to communicate with the Callout VM instance. +
+ +2. Añade la máquina virtual a un grupo de instancias no gestionadas. + + Especifica `http:80` y `grpc:443` (o los valores que hayas configurado) para las asignaciones de puertos del grupo de instancias. + +3. Crea un servicio de backend con la siguiente configuración: + - Protocolo: `HTTP2` + - Nombre del puerto: `grpc` + - Región: selecciona tu región + - Número de puerto de check de estado: `80` (o el valor que hayas configurado) + +4. Añade el grupo de instancias con la VM de extensión de servicio como backend a este servicio de backend. + +5. Configura la llamada de Traffic Service Extension: + 1. En la consola de Google Cloud, ve a **Extensiones de servicios** y crea una nueva extensión de servicio. + 2. Selecciona el tipo de balanceador de carga. + 3. Selecciona `Traffic extensions` como tipo. + 4. Selecciona tus reglas de reenvío. +

+ +6. Crear una cadena de extensión + + 1. Para enviar todo el tráfico a la extensión, inserta `true` en la **Condición de coincidencia**. + 2. Para **Tipo de capacidad de programación**, selecciona `Callouts`. + 3. Selecciona el servicio de backend que creaste en el paso anterior. + 4. Selecciona todos los **eventos** de la lista en los que deseas que App and API Protection ejecute la detección (encabezados de solicitud y encabezados de respuesta son **obligatorios**). + +
+ +{{% appsec-getstarted-2-plusrisk %}} + +{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Vídeo que muestra el explorador de señales y detalles y el explorador de vulnerabilidades y detalles." video="true" >}} + +[1]: https://github.com/DataDog/dd-trace-go/pkgs/container/dd-trace-go%2Fservice-extensions-callout +{{% /tab %}} + +{{% tab "Terraform" %}} + +Puedes utilizar Terraform para automatizar el despliegue de la extensión de servicio de GCP de App and API Protection. Esto simplifica el proceso de configuración de la extensión de servicio para que funcione con tu equilibrador de carga existente. + +### Requisitos previos para el despliegue de Terraform + +- [Terraform][1] instalado en tu máquina local (versión 1.0.0 o posterior) +- Credenciales de GCP con los permisos adecuados +- Una clave de API de Datadog (utilizada para configurar el Datadog Agent) +- Un GCP Cloud Load Balancer existente para tu aplicación + +### Información general de la infraestructura + +El despliegue de Terraform creará los siguientes componentes: +- Una VM del Datadog Agent para recopilar trazas con eventos de seguridad +- Una VM que ejecuta la llamada de extensión de servicio de Datadog en un contenedor +- Una regla de firewall que permite la comunicación entre la extensión y el Agent +- Un grupo de instancias no gestionado que contiene la máquina virtual de extensión de servicios +- Un servicio de backend configurado para HTTP/2 con checks de estado +- Una extensión de servicio conectada a tu equilibrador de carga existente + +### Pasos de despliegue + +El despliegue de la extensión de servicio de App and API Protection requiere varios componentes que funcionan juntos. Vamos a crear un módulo de Terraform que encapsula todos estos componentes, haciendo que el proceso de despliegue sea repetible y más fácil de mantener. + +1. Crea un nuevo directorio y los archivos de Terraform necesarios: + + ```bash + mkdir gcp-aap-service-extension && cd gcp-aap-service-extension + touch main.tf variables.tf + ``` + +2. Añade el siguiente código a tu archivo `main.tf`. Este archivo define todos los componentes de infraestructura necesarios para la extensión de servicio de App and API Protection, incluidas las reglas de red, las instancias de máquina virtual y la configuración del equilibrador de carga: + + ```hcl + # main.tf + + #---------------------------------------------------------- + # Network Configuration + #---------------------------------------------------------- + + # Firewall rule to allow the Service Extension to communicate with the Datadog Agent + resource "google_compute_firewall" "aap_se_firewall" { + name = "${var.project_prefix}-dd-agent-firewall" + network = "default" + + allow { + protocol = "tcp" + ports = ["8126"] + } + + source_tags = ["http-server"] + target_tags = ["datadog-agent"] + } + + #---------------------------------------------------------- + # Datadog Agent Configuration + #---------------------------------------------------------- + + # Datadog Agent container configuration + module "gce-container-datadog-agent" { + source = "terraform-google-modules/container-vm/google" + + container = { + image = "public.ecr.aws/datadog/agent:latest" + env = [ + { + name = "DD_API_KEY", + value = var.datadog_agent_api_key, + }, + { + name = "DD_ENV", + value = "dev", + }, + ] + } + } + + # Datadog Agent VM instance that collects traces from the Service Extension + resource "google_compute_instance" "datadog_agent" { + name = "${var.project_prefix}-datadog-agent" + machine_type = "e2-medium" + zone = var.zone + + boot_disk { + auto_delete = true + + initialize_params { + image = module.gce-container-datadog-agent.source_image + } + + } + + network_interface { + network = "default" + subnetwork = var.application_vpc_subnetwork + } + + metadata = { + gce-container-declaration = module.gce-container-datadog-agent.metadata_value + google-logging-enabled = "true" + } + + lifecycle { + create_before_destroy = true + } + + tags = ["datadog-agent"] + } + + #---------------------------------------------------------- + # Service Extension Callout Container Configuration + #---------------------------------------------------------- + + # Datadog App and API Protection GCP Service Extension container configuration + module "gce-container-aap-service-extension" { + source = "terraform-google-modules/container-vm/google" + + container = { + image = "ghcr.io/datadog/dd-trace-go/service-extensions-callout:v1.72.1" # Replace with the latest version + env = [ + { + name = "DD_AGENT_HOST", + value = google_compute_instance.datadog_agent.network_interface.0.network_ip, + } + ] + } + } + + # Service Extension VM instance (callout instance) + resource "google_compute_instance" "default" { + name = "${var.project_prefix}-instance" + machine_type = "e2-medium" + zone = var.zone + + boot_disk { + auto_delete = true + + initialize_params { + image = module.gce-container-aap-service-extension.source_image + } + + } + + network_interface { + network = var.application_vpc_network + subnetwork = var.application_vpc_subnetwork + } + + metadata = { + gce-container-declaration = module.gce-container-aap-service-extension.metadata_value + google-logging-enabled = "true" + } + + lifecycle { + create_before_destroy = true + } + + # http-server: Allow access on the http server for health checks + # https-server: Allow access on the 443 port for the AAP Service Extension + tags = ["http-server", "https-server", "lb-health-check"] + } + + #---------------------------------------------------------- + # Load Balancer Integration + #---------------------------------------------------------- + + # Unmanaged Instance Group including the App and API Protection Service Extension instance + resource "google_compute_instance_group" "aap_se_instance_group" { + name = "${var.project_prefix}-instance-group" + description = "Unmanaged instance group for the App and API Protection Service Extension" + zone = var.zone + + named_port { + name = "http" + port = 80 + } + + named_port { + name = "grpc" + port = "443" + } + + instances = [ + google_compute_instance.default.self_link + ] + } + + # Health Check for the Backend Service + resource "google_compute_health_check" "aap_se_health_check" { + name = "${var.project_prefix}-health-check" + check_interval_sec = 5 + timeout_sec = 5 + healthy_threshold = 2 + unhealthy_threshold = 2 + + http_health_check { + port = 80 + request_path = "/" + } + } + + # Backend Service that points to the Service Extension instance group + resource "google_compute_backend_service" "se_backend_service" { + name = "${var.project_prefix}-backend-service" + port_name = "grpc" + protocol = "HTTP2" + timeout_sec = 10 + health_checks = [google_compute_health_check.aap_se_health_check.self_link] + load_balancing_scheme = "EXTERNAL_MANAGED" + + backend { + group = google_compute_instance_group.aap_se_instance_group.self_link + } + } + + #---------------------------------------------------------- + # GCP Service Extension + #---------------------------------------------------------- + + # GCP Service Extension configuration for traffic interception + resource "google_network_services_lb_traffic_extension" "default" { + name = "${var.project_prefix}-service-extension" + description = "Datadog App and API Protection Service Extension" + location = "global" + + load_balancing_scheme = "EXTERNAL_MANAGED" + forwarding_rules = [var.load_balancer_forwarding_rule] + + extension_chains { + name = "${var.project_prefix}-service-extension-chain" + + match_condition { + cel_expression = "true" # Match all traffic + } + + extensions { + name = "${var.project_prefix}-service-extension-chain-ext" + authority = "datadoghq.com" + service = google_compute_backend_service.se_backend_service.self_link + timeout = "0.5s" + fail_open = false # If the extension fails, the request is dropped + + # Supported events for the App and API Protection Service Extension + supported_events = ["REQUEST_HEADERS", "REQUEST_BODY", "RESPONSE_HEADERS", "RESPONSE_BODY"] + } + } + } + ``` + + +3. Añade el siguiente contenido al archivo `variables.tf`. Este archivo define todas las variables de entrada necesarias para la configuración de Terraform: + + ```hcl + # variables.tf + + variable "region" { + description = "The GCP region where resources will be created (e.g., us-central1)" + type = string + validation { + condition = length(var.region) > 0 + error_message = "Region cannot be empty." + } + } + + variable "zone" { + description = "The GCP zone where zonal resources will be created (e.g., us-central1-a)" + type = string + validation { + condition = length(var.zone) > 0 + error_message = "Zone cannot be empty." + } + } + + # Project configuration + variable "project_prefix" { + description = "Prefix for the project. All resource names will be prefixed with this value" + type = string + validation { + condition = length(var.project_prefix) > 0 + error_message = "Project prefix cannot be empty." + } + } + + # Network configuration + variable "application_vpc_network" { + + description = "Name of the VPC network for the application" + type = string + validation { + condition = length(var.application_vpc_network) > 0 + error_message = "VPC network name cannot be empty." + } + } + + variable "application_vpc_subnetwork" { + + description = "Name of the VPC subnetwork for the application" + type = string + validation { + condition = length(var.application_vpc_subnetwork) > 0 + error_message = "VPC subnetwork name cannot be empty." + } + } + + # Authentication and API keys + variable "datadog_agent_api_key" { + description = "Datadog API key" + type = string + sensitive = true + validation { + condition = length(var.datadog_agent_api_key) > 0 + error_message = "Datadog API key cannot be empty." + } + } + + # Load balancer configuration + variable "load_balancer_forwarding_rule" { + description = "Self link to the forwarding rule for the load balancer" + } + ``` + +4. Incluye el módulo en tu proyecto principal de Terraform. Este ejemplo muestra cómo hacer referencia al módulo creado anteriormente: + + ```hcl + # main.tf + + module "service_extension" { + source = "./gcp-aap-service-extension" + zone = "us-central1-a" + region = "us-central1" + project_prefix = "datadog-aap" + application_vpc_subnetwork = "your-subnet-name" + datadog_agent_api_key = "your-datadog-api-key" + load_balancer_forwarding_rule = "projects/your-project/regions/us-central1/forwardingRules/your-lb-rule" # or with a self link on your resource + } + ``` + +5. Despliega la infraestructura ejecutando estos comandos en el directorio donde se encuentran tus archivos de Terraform: + + ```bash + terraform init + terraform plan + terraform apply + ``` + +### Validación posterior al despliegue + +La extensión de servicio inspecciona automáticamente todo el tráfico que pasa por tu equilibrador de carga en busca de amenazas de seguridad. + +{{% appsec-getstarted-2-plusrisk %}} + +{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Vídeo que muestra el explorador de señales y detalles y el explorador de vulnerabilidades y detalles." video="true" >}} + +[1]: https://www.terraform.io/ +{{% /tab %}} +{{< /tabs >}} + +## Configuración + +La imagen de Docker de la extensión de servicio de Datadog App and API Protection admite los siguientes ajustes de configuración: + +| Variable de entorno | Valor por defecto | Descripción | +|----------------------------------------|-----------------|-------------------------------------------------------------------| +| `DD_SERVICE_EXTENSION_HOST` | `0.0.0.0` | Dirección de escucha del servidor gRPC. | +| `DD_SERVICE_EXTENSION_PORT` | `443` | Puerto del servidor gRPC. | +| `DD_SERVICE_EXTENSION_HEALTHCHECK_PORT`| `80` | Puerto del servidor HTTP para checks de estado. | + +Configura el contenedor para enviar trazas a tu Datadog Agent utilizando las siguientes variables de entorno: + +| Variable de entorno | Valor por defecto | Descripción | +|----------------------------------------|---------------|-----------------------------------------------------------------------| +| `DD_AGENT_HOST` | `localhost` | Nombre de host donde se ejecuta tu Datadog Agent. | +| `DD_TRACE_AGENT_PORT` | `8126` | Puerto del Datadog Agent para la recopilación de trazas. | + +
+ Note: La integración de las extensiones de servicio de GCP se basa en el Datadog Go Tracer. Sigue el mismo proceso de lanzamiento que el rastreador, y sus imágenes de Docker se etiquetan con la versión del rastreador correspondiente. +
+ +La integración de las extensiones de servicio de GCP utiliza el [Datadog Go Tracer][6] y hereda todas las variables de entorno del rastreador. Encontrarás más opciones de configuración en la [Configuración de la biblioteca de rastreo de Go][7] y [Configuración de la biblioteca de App and API Protection][8]. + +## Limitaciones + +Las extensiones de servicio de GCP tienen las siguientes limitaciones: + +* El cuerpo de la solicitud no se inspecciona, independientemente de su tipo de contenido. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/account/settings#agent +[2]: https://docs.datadoghq.com/es/agent/remote_config/?tab=configurationyamlfile#enabling-remote-configuration +[3]: https://cloud.google.com/service-extensions/docs/lb-extensions-overview#supported-lbs +[4]: https://cloud.google.com/service-extensions/docs/configure-callout-backend-service +[5]: https://cloud.google.com/service-extensions/docs/configure-traffic-extensions +[6]: https://github.com/DataDog/dd-trace-go +[7]: https://docs.datadoghq.com/es/tracing/trace_collection/library_config/go/ +[8]: https://docs.datadoghq.com/es/security/application_security/threats/library_configuration/ \ No newline at end of file diff --git a/content/es/security/application_security/threats/setup/standalone/go.md b/content/es/security/application_security/threats/setup/standalone/go.md new file mode 100644 index 0000000000000..17965d6074d12 --- /dev/null +++ b/content/es/security/application_security/threats/setup/standalone/go.md @@ -0,0 +1,131 @@ +--- +aliases: +- /es/security_platform/application_security/getting_started/go +- /es/security/application_security/getting_started/go +- /es/security/application_security/enabling/tracing_libraries/threat_detection/go/ +code_lang: go +code_lang_weight: 20 +further_reading: +- link: /security/application_security/add-user-info/ + tag: Documentación + text: Añadir información del usuario a traces (trazas) +- link: https://github.com/DataDog/dd-trace-go/tree/v1 + tag: Código fuente + text: Código fuente de la biblioteca Go de Datadog +- link: /security/default_rules/?category=cat-application-security + tag: Documentación + text: Normas predefinidas de protección de aplicaciones y API +- link: /security/application_security/troubleshooting + tag: Documentación + text: Solucionar problemas con la protección de aplicaciones y API +title: Activar la protección de aplicaciones y API para Go +type: lenguaje de código múltiple +--- + +Puedes monitorizar la seguridad de las aplicaciones Go que se ejecutan en Docker, Kubernetes y Amazon ECS. + +{{% appsec-getstarted-standalone %}} +- Tu servicio es [compatible][2]. + +## Activar la protección de aplicaciones y API +### Para empezar + +1. **Añade a las dependencias go.mod de tu programa** la última versión de la biblioteca Go de Datadog (versión 1.53.0 o posterior): + + ```shell + $ go get -v -u gopkg.in/DataDog/dd-trace-go.v1 # v1 + # $ go get -v -u github.com/DataDog/dd-trace-go/v2/ddtrace/tracer # v2 + ``` + +2. Datadog ofrece una serie de paquetes conectables que proporcionan asistencia inmediata para la instrumentación de una serie de bibliotecas Go y marcos. + En la página de [requisitos de compatibilidad][1] encontrarás una lista de estos paquetes. Importa estos paquetes en tu aplicación y sigue las instrucciones de configuración que aparecen junto a cada integración. + +3. **Vuelve a compilar tu programa** con la protección de aplicaciones y API activada: + ```console + $ go build -v -tags appsec my-program + ``` + + **Notas**: + - La etiqueta (tag) `appsec` de la compilación de Go no es necesaria si CGO está habilitado con `CGO_ENABLED=1`. + - Datadog WAF necesita las siguientes bibliotecas compartidas en Linux: `libc.so.6` y `libpthread.so.0`. + - Cuando se utiliza la etiqueta `appsec` de la compilación y CGO está deshabilitado, el binario producido permanece vinculado dinámicamente a estas bibliotecas. + - La etiqueta (tag) `datadog.no_waf` de creación Go se puede utilizar para desactivar la protección de aplicaciones y API en el momento de la creación en cualquier situación en la que los requisitos anteriores sean un obstáculo. + +4. **Vuelve a desplegar tu servicio Go y activa la protección de aplicaciones y API** configurando las variables de entorno: + ```console + $ env DD_APPSEC_ENABLED=true DD_APM_TRACING_ENABLED=false ./my-program + ``` + + O uno de los siguientes métodos, dependiendo de dónde se ejecute la aplicación: + + {{< tabs >}} +{{% tab "Docker CLI" %}} + +Añade los siguientes valores de variables de entorno a tu línea de comandos Docker: + +```console +$ docker run -e DD_APPSEC_ENABLED=true -e DD_APM_TRACING_ENABLED=false [...] +``` + +{{% /tab %}} +{{% tab "Dockerfile" %}} + +Añade los siguientes valores de variables de entorno al archivo Docker de tu contenedor de aplicaciones: + +```Dockerfile +ENV DD_APPSEC_ENABLED=true +ENV DD_APM_TRACING_ENABLED=false +``` + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +Actualiza el archivo de configuración de despliegue de tu aplicación para APM y añade las variables de entorno de protección de aplicaciones y API: + +```yaml +spec: + template: + spec: + containers: + - name: + image: / + env: + - name: DD_APPSEC_ENABLED + value: "true" + - name: DD_APM_TRACING_ENABLED + value: "false" +``` + +{{% /tab %}} +{{% tab "Amazon ECS" %}} + +Actualiza el archivo JSON de definición de tareas ECS de tu aplicación, añadiendo esto en la sección de entorno: + +```json +"environment": [ + ..., + { + "name": "DD_APPSEC_ENABLED", + "value": "true" + }, + { + "name": "DD_APM_TRACING_ENABLED", + "value": "false" + } +] +``` + +{{% /tab %}} + +{{< /tabs >}} + +{{% appsec-getstarted-2 %}} + +{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Vídeo que muestra el explorador de señales y detalles y el explorador de vulnerabilidades y detalles." video="true" >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/security/application_security/setup/compatibility/go/#web-framework-compatibility +[2]: /es/security/application_security/setup/compatibility/go/ \ No newline at end of file diff --git a/content/es/security/cloud_security_management/review_remediate/jira.md b/content/es/security/cloud_security_management/review_remediate/jira.md index c78ca2fc43b36..569c7b0822857 100644 --- a/content/es/security/cloud_security_management/review_remediate/jira.md +++ b/content/es/security/cloud_security_management/review_remediate/jira.md @@ -4,41 +4,41 @@ aliases: further_reading: - link: /security/cloud_security_management/guide tag: Documentación - text: Guías de Cloud Security Management + text: Guías de Cloud Security - link: /integrations/jira/ tag: Documentación - text: Integración de Datadog Jira + text: Integración de Datadog y Jira products: - icon: cloud-security-management - name: CSM Misconfigurations + name: Cloud Security Misconfigurations url: /security/cloud_security_management/misconfigurations/ - icon: cloud-security-management - name: Riesgos de identidad de CSM + name: Riesgos de identidad de seguridad en la nube url: /security/cloud_security_management/identity_risks/ -title: Crear problemas de Jira para problemas en Cloud Security Management +title: Crear problemas de Jira para problemas de Cloud Security --- {{< product-availability >}} -Utilice la [integración de Jira][1] para crear problemas de Jira para los recursos afectados por un problema de seguridad de Cloud Security Management (CSM). Jira para Cloud Security Management está disponible para [CSM Misconfigurations][3] y [CSM Identity Risks][4]. +Utiliza la [integración de Jira][1] para crear problemas de Jira para los recursos afectados por un problema de seguridad de Cloud Security. Jira para Cloud Security está disponible para [Cloud Security Misconfigurations][3] y [Cloud Security Identity Risks][4]. **Notas**: -- Para crear problemas de Jira, debes tener el permiso `security_monitoring_findings_write`. Consulta [Control de acceso basado en roles][2] para obtener más información sobre los roles predeterminados de Datadog y los permisos detallados de control de acceso basados en roles disponibles para CSM. +- Para crear problemas de Jira, debes tener el permiso `security_monitoring_findings_write`. Consulta [Control de acceso basado en roles][2] para obtener más información sobre los roles predeterminados de Datadog y los permisos de control de acceso granular basados en roles disponibles para Cloud Security. - En este momento, solo puedes crear un problema de Jira por hallazgo. ## Configurar la integración de Jira -Para crear problemas de Jira para problemas de seguridad de CSM, debes configurar la [integración de Jira][5]. Para obtener instrucciones detalladas, consulta la documentación de la integración de [Jira][1]. +Para crear problemas de Jira para problemas de seguridad de Cloud Security, debes configurar la [integración de Jira][5]. Para obtener instrucciones detalladas, consulta la documentación de la integración de [Jira][1]. ## Crear un problema en Jira para los recursos afectados {{< tabs >}} -{{% tab "CSM Misconfigurations" %}} +{{% tab "Cloud Security Misconfigurations" %}} Para crear un problema en Jira para uno o más recursos afectados por una configuración errónea: -1. En el [Misconfigurations Explorer][1], selecciona un error de configuración. +1. En el [Explorer de errores de configuración][1], selecciona un error de configuración. 2. En **Resources Impacted** (Recursos afectados), selecciona uno o varios resultados. 3. En el menú desplegable **Actions** (Acciones) que aparece en la parte superior, selecciona **Create Jira Issue** (Crear problema de Jira). 4. Elige si deseas crear un problema único o varias (un problema por cada recurso). @@ -49,7 +49,7 @@ Para crear un problema en Jira para uno o más recursos afectados por una config También puedes crear un problema de Jira desde el panel lateral de problemas independientes. -1. En el [Misconfigurations Explorer][1], establece el filtro Group By (Agrupar por) en **Resources** (Recursos). +1. En el [Explorer de errores de configuración][1], configura el filtro Agrupar por en **Resources** (Recursos). 2. Selecciona un recurso. 3. En la pestaña **Misconfigurations** (Errores de configuración), selecciona una configuración errónea. 4. Haz clic en **Create Jira Issue** (Crear problema de Jira). @@ -64,11 +64,11 @@ Después de crear el problema, aparecerá un enlace al problema de Jira en el pa {{% /tab %}} -{{% tab "CSM Identity Risks" %}} +{{% tab "Cloud Security Identity Risks" %}} Para crear un problema en Jira para uno o más recursos afectados por un riesgo de identidad: -1. En el [Identity Risks Explorer][1], selecciona un riesgo de identidad. +1. En el [Explorer de riesgos de identidad][1], selecciona un riesgo de identidad. 2. En **Resources Impacted** (Recursos afectados), selecciona uno o varios resultados. 3. En el menú desplegable **Actions** (Acciones) que aparece en la parte superior, selecciona **Create Jira Issue** (Crear problema de Jira). 4. Elige si deseas crear un problema único o varias (un problema por cada recurso). @@ -79,7 +79,7 @@ Para crear un problema en Jira para uno o más recursos afectados por un riesgo También puedes crear un problema de Jira desde el panel lateral de problemas independientes. -1. En el [Identity Risks Explorer][1], establece el filtro Group By (Agrupar por) en **Resources** (Recursos). +1. En el [Explorer de riesgos de identidad][1], configura el filtro Agrupar por en **Resources** (Recursos). 2. Selecciona un recurso. 3. En la pestaña **Misconfigurations** (Errores de configuración), selecciona un riesgo de identidad. 4. Haz clic en **Create Jira Issue** (Crear problema de Jira). diff --git a/content/es/security/cloud_security_management/setup/agent/ecs_ec2.md b/content/es/security/cloud_security_management/setup/agent/ecs_ec2.md index 8c91497419e49..89fdcf9053548 100644 --- a/content/es/security/cloud_security_management/setup/agent/ecs_ec2.md +++ b/content/es/security/cloud_security_management/setup/agent/ecs_ec2.md @@ -5,11 +5,11 @@ aliases: - /es/security/cloud_security_management/setup/csm_enterprise/agent/ecs_ec2/ code_lang: ecs_ec2 code_lang_weight: 70 -title: Configuración de Cloud Security Management en ECS EC2 +title: Configuración de Cloud Security en ECS EC2 type: multi-code-lang --- -Sigue las instrucciones a continuación para activar las funciones de Misconfigurations, Threat Detection y Vulnerability Management. +Sigue las siguientes instrucciones para activar Misconfigurations y Vulnerability Management. {{< partial name="security-platform/CSW-billing-note.html" >}} @@ -27,83 +27,89 @@ Añade las siguientes variables de entorno a tu definición de contenedor de `da "containerDefinitions": [ { "name": "datadog-agent", + ... + "mountPoints": [ + { + "sourceVolume": "docker_sock", + "containerPath": "/var/run/docker.sock", + "readOnly": true + }, + { + "sourceVolume": "proc", + "containerPath": "/host/proc/", + "readOnly": true + }, + { + "sourceVolume": "cgroup", + "containerPath": "/host/sys/fs/cgroup", + "readOnly": true + }, + { + "sourceVolume": "passwd", + "containerPath": "/etc/passwd", + "readOnly": true + }, + { + "sourceVolume": "os_release", + "containerPath": "/host/etc/os-release", + "readOnly": true + }, + { + "sourceVolume": "kernel_debug", + "containerPath": "/sys/kernel/debug" + }, + { + "sourceVolume": "root", + "containerPath": "/host/root", + "readOnly": true + } + ], + ... + "environment": [ ... - "mountPoints": [ - { - "sourceVolume": "docker_sock", - "containerPath": "/var/run/docker.sock", - "readOnly": true - }, - { - "sourceVolume": "proc", - "containerPath": "/host/proc/", - "readOnly": true - }, - { - "sourceVolume": "cgroup", - "containerPath": "/host/sys/fs/cgroup", - "readOnly": true - }, - { - "sourceVolume": "passwd", - "containerPath": "/etc/passwd", - "readOnly": true - }, - { - "sourceVolume": "os_release", - "containerPath": "/host/etc/os-release", - "readOnly": true - }, - { - "sourceVolume": "kernel_debug", - "containerPath": "/sys/kernel/debug" - }, - { - "sourceVolume": "root", - "containerPath": "/host/root", - "readOnly": true - } - ], - ... - "environment": [ - ... - { - "name": "DD_COMPLIANCE_CONFIG_ENABLED", - "value": "true" - }, - { - "name": "DD_COMPLIANCE_CONFIG_HOST_BENCHMARKS_ENABLED", - "value": "true" - }, - { - "name": "DD_RUNTIME_SECURITY_CONFIG_ENABLED", - "value": "true" - }, - { - "name": "DD_SYSTEM_PROBE_ENABLED", - "value": "true" - }, - { - "name": "DD_RUNTIME_SECURITY_CONFIG_REMOTE_CONFIGURATION_ENABLED", - "value": "true" - }, - { - "name": "DD_SBOM_ENABLED", - "value": "true" - }, - { - "name": "DD_SBOM_CONTAINER_IMAGE_ENABLED", - "value": "true" - }, - { - "name": "DD_CONTAINER_IMAGE_ENABLED", - "value": "true" - }, - { - "name": "DD_SBOM_HOST_ENABLED", - "value": "true" - } - ] + { + "name": "DD_COMPLIANCE_CONFIG_ENABLED", + "value": "true" + }, + { + "name": "DD_COMPLIANCE_CONFIG_HOST_BENCHMARKS_ENABLED", + "value": "true" + }, + { + "name": "DD_SYSTEM_PROBE_ENABLED", + "value": "true" + }, + { + "name": "DD_SBOM_ENABLED", + "value": "true" + }, + { + "name": "DD_SBOM_CONTAINER_IMAGE_ENABLED", + "value": "true" + }, + { + "name": "DD_CONTAINER_IMAGE_ENABLED", + "value": "true" + }, + { + "name": "DD_SBOM_HOST_ENABLED", + "value": "true" + } + ], + "linuxParameters": { + "capabilities": { + "add": [ + "SYS_ADMIN", + "SYS_RESOURCE", + "SYS_PTRACE", + "NET_ADMIN", + "NET_BROADCAST", + "NET_RAW", + "IPC_LOCK", + "CHOWN" + ] + } + }, } ], ... @@ -151,20 +157,6 @@ Añade las siguientes variables de entorno a tu definición de contenedor de `da } } ], - "linuxParameters": { - "capabilities": { - "add": [ - "SYS_ADMIN", - "SYS_RESOURCE", - "SYS_PTRACE", - "NET_ADMIN", - "NET_BROADCAST", - "NET_RAW", - "IPC_LOCK", - "CHOWN" - ] - } - }, "requiresCompatibilities": [ "EC2" ] diff --git a/content/es/security/cloud_security_management/setup/cloud_integrations.md b/content/es/security/cloud_security_management/setup/cloud_integrations.md new file mode 100644 index 0000000000000..aac547d704dc3 --- /dev/null +++ b/content/es/security/cloud_security_management/setup/cloud_integrations.md @@ -0,0 +1,77 @@ +--- +aliases: +- /es/security/cloud_security_management/setup/csm_enterprise/cloud_accounts +- /es/security/cloud_security_management/setup/csm_pro/cloud_accounts +- /es/security/cloud_security_management/setup/cloud_accounts +title: Despliegue Cloud Security con integraciones de la nube +--- + +Utiliza las siguientes instrucciones para activar Misconfigurations and Identity Risks (CIEM) en AWS, Azure y GCP. + +## Activar la exploración de recursos + +Para activar la exploración de recursos para tus cuentas en la nube, primero debes configurar la integración y luego activar Cloud Security para cada cuenta de AWS, suscripción de Azure y proyecto de Google Cloud. + +{{< partial name="security-platform/CSW-billing-note.html" >}} + +{{< tabs >}} +{{% tab "AWS" %}} + +{{% csm-setup-aws %}} + +{{% /tab %}} + +{{% tab "Azure" %}} + +{{% csm-setup-azure %}} + +{{% /tab %}} + +{{% tab "Google Cloud" %}} + +{{% csm-setup-google-cloud %}} + +{{% /tab %}} + +{{< /tabs >}} + +## Desactivar la exploración de recursos + +
Puedes acceder a los resultados históricos de los últimos 15 meses incluso si la exploración de recursos está desactivada.
+ +{{< tabs >}} +{{% tab "AWS" %}} + +1. En la page (página) [**Cloud Security Setup** (Configuración de Cloud Security)][1], haz clic en **Cloud Integrations** (Integraciones en la nube). +1. Amplía la sección **AWS**. +1. Para detener la recopilación de recursos para una cuenta, haz clic en el botón **Edit** (Editar) ({{< img src="security/csm/setup/edit-button.png" inline="true" style="width:24px;">}}) y cambia la alternancia **Enable Resource Scanning** (Activar Exploración de recursos) a la posición desactivada. +1. Haz clic en **Done** (Listo). + +[1]: https://app.datadoghq.com/security/configuration/csm/setup +[2]: https://app.datadoghq.com/integrations/amazon-web-services + +{{% /tab %}} +{{% tab "Azure" %}} + +1. En la Page (página) [**Cloud Security Setup** (Configuración de Cloud Security)][1], haz clic en **Cloud Integrations** (integraciones en la nube). +1. Amplía la sección **Azure**. +1. Para detener la recopilación de recursos para una suscripción, cambia a alternancia **Resource Scanning** (Exploración de recursos) a la posición desactivada. +1. Haz clic en **Done** (Listo). + +[1]: https://app.datadoghq.com/security/configuration/csm/setup +[2]: https://app.datadoghq.com/integrations/azure + +{{% /tab %}} +{{% tab "Google Cloud" %}} + +1. En la page (página) [**Cloud Security Setup** (Configuración de Cloud Security)][1], haz clic en **Cloud Integrations** (Integraciones en la nube). +1. Amplía la sección **GCP**. +1. Para detener la recopilación de recursos para un proyecto, cambie la alternancia **Resource Scanning** (Exploración de recursos) a la posición desactivada. +1. Haz clic en **Done** (Listo). + +[1]: https://app.datadoghq.com/security/configuration/csm/setup +[2]: https://app.datadoghq.com/integrations/google-cloud-platform + +{{% /tab %}}{{< /tabs >}} + +[1]: https://app.datadoghq.com/security/configuration/csm/setup \ No newline at end of file diff --git a/content/es/security/cloud_security_management/vulnerabilities/_index.md b/content/es/security/cloud_security_management/vulnerabilities/_index.md index 742a2ccaf886e..d9421a634a187 100644 --- a/content/es/security/cloud_security_management/vulnerabilities/_index.md +++ b/content/es/security/cloud_security_management/vulnerabilities/_index.md @@ -22,12 +22,6 @@ further_reading: title: Cloud Security Vulnerabilities --- -{{< site-region region="gov" >}} -
Cloud Security Vulnerabilities está en vista previa para tu sitio de Datadog seleccionado ({{< region-param key="dd_site_name" >}}). -Solicita acceso rellenando este formulario. -
-{{< /site-region >}} - ## Información general Cloud Security Vulnerabilities te ayuda a mejorar tu postura de seguridad y lograr el cumplimiento mediante el análisis continuo de imágenes de contenedor, hosts, imágenes de host y funciones serverless en busca de vulnerabilidades, desde los pipelines CI/CD hasta la producción en directo. Aprovechando la capacidad de observación en tiempo de ejecución, te ayuda a priorizar y corregir vulnerabilidades explotables en tus flujos de trabajo diarios, todo en una única vista y sin dependencias de otros productos de Datadog. diff --git a/content/es/serverless/aws_lambda/distributed_tracing.md b/content/es/serverless/aws_lambda/distributed_tracing.md index 6847a9c120bb4..62dfaa12cabf3 100644 --- a/content/es/serverless/aws_lambda/distributed_tracing.md +++ b/content/es/serverless/aws_lambda/distributed_tracing.md @@ -21,8 +21,7 @@ further_reading: text: Monitoriza tu pila serverless en la vista serverless - link: https://www.datadoghq.com/blog/monitor-aws-fully-managed-services-datadog-serverless-monitoring/ tag: Blog - text: Monitorización serverless de Datadog para servicios completamente administrados - de AWS + text: Datadog Serverless Monitoring para servicios totalmente gestionados de AWS - link: https://www.datadoghq.com/blog/dotnet-lambda-functions-distributed-tracing/ tag: Blog text: Rastreo distribuido en tiempo real para funciones de Lambda de .NET @@ -47,8 +46,8 @@ Las bibliotecas de rastreo de Python, Node.js, Ruby, Go, Java y .NET de Datadog #### Python y Node.js -La Biblioteca de Lambda de Datadog y las bibliotecas de rastreo para Python y Node.js admiten lo siguiente: -- Correlación automática de logs y trazas de Lambda con el ID de traza y la inyección de etiquetas (tags). +La biblioteca Lambda de Datadog y las bibliotecas de rastreo para Python y Node.js admiten lo siguiente: +- Correlación automática de logs y trazas de Lambda con ID de traza e inyección de etiquetas. - Instalación sin cambios en el código mediante las integraciones de Serverless Framework, AWS SAM y AWS CDK. - Rastreo de solicitudes HTTP que invocan contenedores o funciones de Lambda. - Rastreo de invocaciones de Lambda consecutivas realizadas a través de AWS SDK. @@ -60,7 +59,9 @@ La Biblioteca de Lambda de Datadog y las bibliotecas de rastreo para Python y No - Integración directa de SNS y SQS - Kinesis - EventBridge -- Rastreo de decenas de librerías de [Python][3] y [Node.js][4] adicionales listas para usar. + - DynamoDB + - S3 +- Rastreo de decenas de bibliotecas de [Python][3] y [Node.js][4] adicionales listas para usar. En el caso de las aplicaciones serverless de Python y Node.js, Datadog recomienda [instalar bibliotecas de rastreo de Datadog][5]. @@ -68,10 +69,10 @@ En el caso de las aplicaciones serverless de Python y Node.js, Datadog recomiend #### Ruby -La Biblioteca de Lambda de Datadog y las bibliotecas de rastreo para Ruby admiten lo siguiente: +La biblioteca Lambda de Datadog y las bibliotecas de rastreo para Ruby admiten lo siguiente: - Correlación automática de logs y trazas de Lambda con ID de traza e inyección de etiquetas. - Rastreo de solicitudes HTTP que invocan contenedores o funciones de Lambda. -- Rastreo de decenas de librerías de [Ruby][8] adicionales listas para usar. +- Rastreo de decenas de bibliotecas de [Ruby][8] adicionales listas para usar. Puedes rastrear funciones serverless en Datadog con [bibliotecas de rastreo de Datadog][5]. @@ -79,10 +80,10 @@ Puedes rastrear funciones serverless en Datadog con [bibliotecas de rastreo de D #### Go -La Biblioteca de Lambda de Datadog y las bibliotecas de rastreo para Go admiten lo siguiente: +La biblioteca Lambda de Datadog y las bibliotecas de rastreo para Go admiten lo siguiente: - Correlación manual de logs y trazas de Lambda con ID de traza e inyección de etiquetas. - Rastreo de solicitudes HTTP que invocan contenedores o funciones de Lambda. -- Rastreo de decenas de librerías de [Go][9] adicionales listas para usar. +- Rastreo de decenas de bibliotecas de [Go][9] adicionales listas para usar. En el caso de las aplicaciones serverless de Go, Datadog recomienda instalar [bibliotecas de rastreo de Datadog][5]. @@ -90,10 +91,10 @@ En el caso de las aplicaciones serverless de Go, Datadog recomienda instalar [bi #### Java -La Biblioteca de Lambda de Datadog y las bibliotecas de rastreo para Java admiten lo siguiente: +La biblioteca Lambda de Datadog y las bibliotecas de rastreo para Java admiten lo siguiente: - Correlación de logs y trazas de Lambda con ID de traza e inyección de etiquetas. Consulta [Conexión de logs y trazas de Java][10] para obtener más detalles. - Rastreo de solicitudes HTTP que invocan contenedores o funciones de Lambda. -- Rastreo de decenas de librerías de [Java][11] adicionales listas para usar. +- Rastreo de decenas de bibliotecas de [Java][11] adicionales listas para usar. En el caso de las aplicaciones serverless de Java, Datadog recomienda [instalar bibliotecas de rastreo de Datadog][5]. @@ -101,41 +102,80 @@ En el caso de las aplicaciones serverless de Java, Datadog recomienda [instalar #### .NET -La librería de rastreo para .NET admite lo siguiente: +La biblioteca de rastreo para .NET admite lo siguiente: - Rastreo de solicitudes HTTP que invocan contenedores o funciones de Lambda. -- Rastreo de decenas de librerías de [.NET][14] adicionales listas para usar. +- Rastreo de decenas de bibliotecas de [.NET][14] adicionales listas para usar. En el caso de las aplicaciones serverless de .NET, Datadog recomienda [instalar bibliotecas de rastreo de Datadog][5]. Obtén más información sobre el [rastreo a través de aplicaciones serverless de Azure de .NET][15]. -### Entornos híbridos +## Enlace automático de tramos (span) +{{< img src="serverless/lambda/tracing/autolink.png" alt="En Datadog, una traza DynamoDB. En la parte superior, un mensaje dice: 'Esta traza está vinculada con otras trazas'. La pestaña Enlaces de tramos está abierta y muestra un enlace que permite hacer clic en él para ir a otra traza de DynamoDB." style="width:100%;" >}} + +Datadog detecta automáticamente tramos vinculados cuando los segmentos de tus solicitudes asíncronas no pueden propagar el contexto de rastreo. Por ejemplo, esto puede ocurrir cuando una solicitud activa [eventos de cambios de S3][28], o [flujos (streams) DynamoDB][29]. Puedes ver que aparecen tramos autovinculados en la pestaña [Enlaces de tramos][30]. Estos aparecen como Backward (Atrás) o **Forward** (Adelante). + +_Backward_ (Atrás): El tramo vinculado fue generado por la traza que estás visualizando. + +_Forward_ (Adelante): El tramo vinculado generó la traza que estás visualizando. + + +
Los filtros de muestreo y retención de trazas pueden interferir con el enlace automático. Para aumentar tus posibilidades de ver tramos de enlace automático, aumenta tu frecuencia de muestreo o ajusta tus filtros de retención.
+ +### Tecnologías compatibles + +El enlace automático de tramos está disponible para: +- Funciones Lambda Python AWS instrumentadas con la capa [`Datadog-lambda-Python`][33] v101 o posterior +- Aplicaciones Python instrumentadas con [`dd-rastrear-py`][31] v2.16 o posterior +- Funciones Lambda Node.js AWS instrumentadas con la capa [`Datadog-lambda-js`][34] v118 o posterior +- Aplicaciones Node.js instrumentadas con [`dd-rastrear-js`][32] v4.53.0 o posterior o v5.29.0 o posterior + +### Enlace automático de flujos de cambios de DynamoDB -Si instalaste las bibliotecas de rastreo de Datadog (`dd-trace`) en tus hosts y funciones de Lambda, tus trazas te mostrarán automáticamente la imagen completa de las solicitudes que cruzan los límites de la infraestructura, ya sea de AWS Lambda, contenedores, hosts on-prem o servicios administrados. +En los [flujos de cambios de DynamoDB][29], el enlace automático de tramos admite las siguientes operaciones: + +- `PutItem` +- `UpdateItem` +- `DeleteItem` +- `BatchWriteItem` +- `TransactWriteItems` + +
La operación PutItem requiere una configuración adicional. Para obtener más información, consulta Instrumentación de aplicaciones Python serverless o Instrumentación de aplicaciones Node.js serverless.
+ +### Enlace automático de notificaciones de cambios de S3 + +En las [notificaciones de cambios de S3][28], el enlace automático de tramos admite las siguientes operaciones: + +- `PutObject` +- `CompleteMultipartUpload` +- `CopyObject` + + +## Entornos híbridos + +Si instalaste las bibliotecas de rastreo de Datadog (`dd-trace`) en tus hosts y funciones de Lambda, tus trazas te mostrarán automáticamente la imagen completa de las solicitudes que cruzan los límites de la infraestructura, ya sea de AWS Lambda, contenedores, hosts on-prem o servicios gestionados. Si `dd-trace` está instalado en tus hosts con el Datadog Agent y tus funciones serverless se rastrean con AWS X-Ray, es necesario fusionar las trazas para ver una traza única y conectada de toda la infraestructura. Consulta la documentación [Fusión de trazas serverless][6] para obtener más información sobre la fusión de trazas de `dd-trace` y AWS X-Ray. La [integración de AWS X-Ray][2] de Datadog solo ofrece trazas para las funciones de Lambda. Consulta la [documentación de Datadog APM][16] para obtener más información sobre el rastreo en entornos basados en contenedores o hosts. -## Creación de perfiles para las funciones de Lambda (beta pública) - -
Durante el periodo beta, la creación de perfiles está disponible sin coste adicional.
+## Creación de perfiles de tus funciones Lambda -[Continuous Profiler][27] de Datadog está disponible en beta para Python en la versión 4.62.0 y la versión de capa 62 y superiores. Esta característica opcional se habilita mediante la definición de la variable de entorno `DD_PROFILING_ENABLED` como `true`. +[Continuous Profiler][27] de Datadog está disponible en Vista Previa para Python en la versión 4.62.0 y la versión de capa 62 y posteriores. Esta función opcional se activa configurando la variable de entorno `DD_PROFILING_ENABLED` como `true`. Continuous Profiler genera un subproceso que se activa periódicamente y toma una snapshot de la CPU y el montículo de todo el código de Python en ejecución. Esto puede incluir el propio generador de perfiles. Si quieres que el generador de perfiles se ignore a sí mismo, define `DD_PROFILING_IGNORE_PROFILER` como `true`. ## Fusión de trazas -### Casos de uso +### Casos prácticos -Datadog recomienda usar solo la librería de rastreo de Datadog APM (`dd-trace`), pero en algunas situaciones avanzadas los usuarios pueden combinar el rastreo de Datadog y AWS X-Ray mediante la fusión de trazas. La fusión de trazas está disponible para las funciones de AWS Lambda de Node.js y Python. Si no estás seguro de qué biblioteca de rastreo usar, lee sobre [cómo elegir una biblioteca de rastreo][17]. +Datadog recomienda usar solo la biblioteca de rastreo de Datadog APM (`dd-trace`), pero en algunas situaciones avanzadas los usuarios pueden combinar el rastreo de Datadog y AWS X-Ray mediante la fusión de trazas. La fusión de trazas está disponible para las funciones de AWS Lambda de Node.js y Python. Si no estás seguro de qué biblioteca de rastreo usar, lee sobre [cómo elegir una biblioteca de rastreo][17]. Hay dos razones principales para instrumentar las bibliotecas de rastreo de `dd-trace` y AWS X-Ray: -- En un entorno serverless de AWS, ya rastreas tus funciones de Lambda con `dd-trace`, necesitas el rastreo activo de AWS X-Ray para los servicios administrados de AWS como AppSync y Step Functions, y quieres visualizar los tramos (spans) de `dd-trace` y AWS X-Ray en un sola traza. +- En un entorno serverless de AWS, ya rastreas tus funciones de Lambda con `dd-trace`, necesitas el rastreo activo de AWS X-Ray para los servicios gestionados de AWS como AppSync y Step Functions, y quieres visualizar los tramos de `dd-trace` y AWS X-Ray en una sola traza. - En un entorno híbrido con hosts y funciones de Lambda, `dd-trace` instrumenta tus hosts, AWS X-Ray instrumenta tus funciones de Lambda, y quieres visualizar las trazas conectadas sobre las transacciones entre los hosts y las funciones de Lambda. -**Nota:** Esto puede dar lugar a facturas de uso más elevadas. Los tramos de X-Ray siguen estando disponibles en tus trazas fusionadas después de 2 o 5 minutos. En muchos casos, Datadog recomienda utilizar una sola librería de rastreo. Obtén más información sobre [cómo elegir una biblioteca de rastreo][17]. +**Nota:** Esto puede dar lugar a facturas de uso más elevadas. Los tramos de X-Ray siguen estando disponibles en tus trazas fusionadas después de 2 o 5 minutos. En muchos casos, Datadog recomienda utilizar una sola biblioteca de rastreo. Obtén más información sobre [cómo elegir una biblioteca de rastreo][17]. A continuación se ofrecen instrucciones de configuración para cada uno de los casos de uso mencionados: @@ -144,7 +184,7 @@ A continuación se ofrecen instrucciones de configuración para cada uno de los ### Fusión de trazas en un entorno serverless de AWS -AWS X-Ray ofrece tanto un servicio backend de AWS (el rastreo activo de AWS X-Ray) como un conjunto de librerías de clientes. La [Habilitación de solo el servicio backend de AWS en la consola de Lambda][18] te otorga los tramos `Initialization` e `Invocation` para tus funciones de AWS Lambda. También puedes habilitar el rastreo activo de AWS X-Ray desde las consolas de API Gateway y Step Functions. +AWS X-Ray ofrece tanto un servicio backend de AWS (el rastreo activo de AWS X-Ray) como un conjunto de bibliotecas de clientes. La [Habilitación de solo el servicio backend de AWS en la consola de Lambda][18] te otorga los tramos `Initialization` e `Invocation` para tus funciones de AWS Lambda. También puedes habilitar el rastreo activo de AWS X-Ray desde las consolas de API Gateway y Step Functions. Tanto el SDK de AWS X-Ray como las bibliotecas de clientes de Datadog APM (`dd-trace`) añaden metadatos y tramos para las llamadas descendentes mediante el acceso directo a la función. Suponiendo que utilizas `dd-trace` para rastrear en el nivel de controlador, tu configuración debe ser similar a la siguiente: @@ -155,12 +195,14 @@ Tanto el SDK de AWS X-Ray como las bibliotecas de clientes de Datadog APM (`dd-t ### Rastreo entre AWS Lambda y hosts -Si instalaste las bibliotecas de rastreo de Datadog (`dd-trace`) en tus hosts y funciones de Lambda, tus trazas te mostrarán automáticamente la imagen completa de las solicitudes que cruzan los límites de la infraestructura, ya sea de AWS Lambda, contenedores, hosts on-prem o servicios administrados. +#### Propagación de contextos con bibliotecas de rastreo de Datadog +Si instalaste las bibliotecas de rastreo de Datadog (`dd-trace`) en tus hosts y funciones de Lambda, tus trazas te mostrarán automáticamente la imagen completa de las solicitudes que cruzan los límites de la infraestructura, ya sea de AWS Lambda, contenedores, hosts on-prem o servicios gestionados. +#### Propagación de contextos con la integración X-Ray Si `dd-trace` está instalado en tus hosts con el Datadog Agent y tus funciones serverless de Node.js o Python se rastrean con AWS X-Ray, tu configuración debe ser similar a la siguiente: 1. Instalaste la [integración de AWS X-Ray][18] para rastrear tus funciones de Lambda, para lo cual habilitaste el rastreo activo de AWS X-Ray e instalaste las bibliotecas de clientes de X-Ray. -2. Instalaste la [Biblioteca de Lambda de Datadog para tu tiempo de ejecución de Lambda][5] y definiste la variable de entorno `DD_TRACE_ENABLED` como `false`. +2. Has instalado la [biblioteca Datadog Lambda para tu tiempo de ejecución Lambda][5] y la variable de entorno `DD_TRACE_ENABLED` está configurada como `true`. 3. [Datadog APM][20] está configurado en tu infraestructura basada en hosts y contenedores. Entonces, para que las trazas de X-Ray y Datadog APM aparezcan en el mismo gráfico de llamas, todos los servicios deben tener la misma etiqueta `env`. @@ -174,11 +216,11 @@ Entonces, para que las trazas de X-Ray y Datadog APM aparezcan en el mismo gráf ### Configuración necesaria -A veces es necesario aplicar instrumentación adicional para ver una traza única y conectada en aplicaciones serverless de Node y Python que activan funciones de Lambda de forma asíncrona. Si recién estás empezando con la monitorización de aplicaciones serverless en Datadog, [sigue nuestros pasos de instalación principales][21] y [lee esta página sobre cómo elegir una biblioteca de rastreo][22]. Una vez que ya estés enviando trazas desde tus funciones de Lambda a Datadog mediante la [Biblioteca de Lambda de Datadog][23], quizás quieras seguir estos pasos para conectar trazas entre dos funciones de Lambda en casos como los siguientes: +A veces es necesario aplicar instrumentación adicional para ver una traza única y conectada en aplicaciones serverless de Node y Python que activan funciones de Lambda de forma asíncrona. Si recién estás empezando con la monitorización de aplicaciones serverless en Datadog, [sigue nuestros pasos de instalación principales][21] y [lee esta página sobre cómo elegir una biblioteca de rastreo][22]. Una vez que ya estés enviando trazas desde tus funciones de Lambda a Datadog mediante la [biblioteca Lambda de Datadog][23], quizás quieras seguir estos pasos para conectar trazas entre dos funciones de Lambda en casos como los siguientes: - Activación de funciones de Lambda a través de Step Functions - Invocación de funciones de Lambda a través de protocolos no HTTP como MQTT -El rastreo de muchos de los servicios administrados de AWS (enumerados [aquí][24]) ya está listo para usar y no requiere seguir los pasos descritos en esta página. +El rastreo de muchos de los servicios gestionados de AWS (enumerados [aquí][24]) ya está listo para usar y no requiere seguir los pasos descritos en esta página. Para conectar correctamente el contexto de rastreo entre los recursos que envían trazas, debes hacer lo siguiente: - Incluye el contexto de rastreo de Datadog en los eventos salientes. El evento saliente puede originarse en un host o en función de Lambda con `dd-trace` instalado. @@ -186,7 +228,7 @@ Para conectar correctamente el contexto de rastreo entre los recursos que envía ### Traspaso del contexto de rastreo -Los siguientes ejemplos de código describen cómo pasar el contexto de rastreo en las cargas útiles salientes a servicios que no admiten encabezados HTTP o a servicios administrados que Datadog no admite [de forma nativa][24] en Node y Python: +Los siguientes ejemplos de código describen cómo pasar el contexto de rastreo en las cargas útiles salientes a servicios que no admiten encabezados HTTP o a servicios gestionados que Datadog no admite [de forma nativa][24] en Node y Python: {{< tabs >}} {{% tab "Python" %}} @@ -359,3 +401,10 @@ Si ya rastreas tu aplicación serverless con X-Ray y quieres seguir utilizándol [25]: /es/tracing/trace_collection/custom_instrumentation/ [26]: /es/serverless/guide/handler_wrapper/ [27]: /es/profiler/ +[28]: https://docs.aws.amazon.com/AmazonS3/latest/userguide/EventNotifications.html +[29]: https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/Streams.html +[30]: https://docs.datadoghq.com/es/tracing/trace_explorer/trace_view/?tab=spanlinksbeta +[31]: https://github.com/DataDog/dd-trace-py/ +[32]: https://github.com/DataDog/dd-trace-js/ +[33]: https://github.com/DataDog/datadog-lambda-python +[34]: https://github.com/DataDog/datadog-lambda-js \ No newline at end of file diff --git a/content/es/service_management/on-call/guides/migrating-from-your-current-providers.md b/content/es/service_management/on-call/guides/migrating-from-your-current-providers.md new file mode 100644 index 0000000000000..50a672e551f27 --- /dev/null +++ b/content/es/service_management/on-call/guides/migrating-from-your-current-providers.md @@ -0,0 +1,154 @@ +--- +further_reading: +- link: /service_management/on-call/ + tag: Documentación + text: On-Call +- link: /service_management/incident_management/ + tag: Documentación + text: Gestión de incidentes +title: Migrar desde tu actual proveedor de servicios de guardia +--- + +La migración desde tu actual proveedor de servicios de guardia a [Datadog On-Call][1] permite a los equipos centralizar la monitorización y la respuesta ante incidentes, reducir la complejidad de las alertas y unificar la monitorización y la respuesta ante incidentes. Esta guía te proporciona una estrategia por fases para ayudarte a planificar, probar y finalizar con éxito una migración. + +Muchas organizaciones empiezan probando Datadog On-Call con un pequeño número de equipos para comprobar la funcionalidad y evaluar su aptitud operativa. Partiendo de esa base, esta guía te mostrará los pasos clave para pasar de la evaluación a la adopción plena en producción. + +Aprenderás a: + +- Crear un inventario y evaluar la configuración actual de tus servicios de guardia +- Configurar Datadog On-Call en función de la estructura de tu equipo y de las vías de escalado +- Validar los flujos de trabajo de enrutamiento y escalado de alertas +- Desconectarte de tu proveedor legacy de forma segura +- Monitorizar, mantener y escalar tus nuevos procesos de guardia + +La guía también incluye listas de validación, estrategias de reversión y salvaguardas para garantizar una transición fiable y de bajo riesgo. + +**¿Quién debe utilizar esta guía?** + +Esta guía está dirigida a los ingenieros y las partes interesadas que participan en la migración de servicios de guardia, incluyendo ingenieros de fiabilidad del sitio (SRE), ingenieros de DevOps, jefes de equipo y otras personas responsables de configurar o gestionar los flujos de trabajo de respuesta ante incidentes. + +## Crear un inventario y asignar tu configuración actual + +Empieza por crear un inventario de todas las herramientas que actualmente llaman a tu equipo de guardia. Esto incluye: + +- Monitorización de plataformas (como Datadog, CloudWatch y Prometheus) +- Sistemas de tickets (como Jira y Zendesk) +- Herramientas personalizadas de alertas o flujos de trabajo + +Para cada herramienta, documenta el método de integración actual, ya sea a través de integraciones nativas, webhooks, ingestión de correo electrónico o scripts personalizados. + +Al evaluar la configuración actual de tus servicios de guardia, empieza a identificar cómo se traducirán sus componentes (horarios, rutas de escalado, anulaciones y grupos de respuesta) en el modelo de configuración de Datadog On-Call. Esta es también una buena oportunidad para simplificar una lógica de escalado compleja u obsoleta y estandarizar las políticas entre los equipos. Evita migrar configuraciones que no se utilizan o legacy, a menos que exista una clara necesidad operativa de conservarlas. + +Para favorecer una fase de configuración continua, asegúrate de obtener: + +- Controles de acceso y permisos del equipo +- Asignación de intervinientes de emergencia y preferencias de notificación +- Anular Windows y expectativas de transición + +Un modelo de alerta unificado en Datadog puede ayudar a reducir la carga operativa y mejorar la visibilidad, pero solo si tus entradas están claramente definidas y cuidadosamente asignadas desde el principio. + +## Diseñar tu estrategia de migración + +El éxito de una migración depende de un plan claro y por fases que alinee a las partes interesadas, reduzca los riesgos y mantenga abierta la comunicación. Divide tu migración en etapas controlables: + +1. **Detección**: Documenta flujos de trabajo actuales, integraciones, reglas de alerta y requisitos del equipo. +2. **Configuración**: Configura Datadog On-Call en función de tu configuración actual y de las mejoras deseadas. +3. **Validación y tests**: Confirma que las alertas se enrutan correctamente y que la lógica de escalado se comporta como se espera. +4. **Traspaso**: Transición de la responsabilidad de alerta a Datadog On-Call, normalmente utilizando una ventana de enrutamiento doble. +5. **Limpieza**: Pon fuera de servicio los sistemas legacy, verifica la estabilidad y actualiza la documentación y los libros de ejecución. + +Asigna responsables claros a cada fase y comunica los plazos con antelación. Utiliza un canal compartido (como Slack o Microsoft Teams) para coordinar tareas, compartir actualizaciones y señalar bloqueos en tiempo real. + +## Configurar Datadog On-Call + +Antes de empezar a configurar Datadog On-Call, revisa el concepto de [Equipos][4]. Los equipos son la base de los servicios de guardia y se utilizan para definir: + +- Horarios +- Políticas de escalado +- Reglas de notificación +- Propiedad de los incidentes + +Después de revisar el modelo de equipo y asignar tus recursos existentes, ya puedes configurar Datadog On-Call para reflejar tu estructura deseada. + +
Si estás migrando desde PagerDuty, Datadog proporciona una herramienta de migración exclusiva que puede ayudarte a importar selectivamente horarios y políticas de escalado. Utilízala durante la configuración para reducir el esfuerzo manual y evitar migrar configuraciones que no se utilizan.
+ +Durante la configuración, asegúrate de: + +- Revisar los permisos del equipo y el control de acceso +- Definir los intervinientes de emergencia y las preferencias de notificación +- Configurar la anulación de Windows y las expectativas de transición de los servicios de guardia + +Una configuración minuciosa garantiza un traspaso continuo y ayuda a los equipos a responder eficientemente desde el primer día. + +## Validar y monitorizar la migración + +Antes de poner fuera de servicio tu sistema legacy, realiza tests exhaustivos para confirmar que Datadog On-Call enruta, escala y notifica correctamente a todos los equipos de todos los escenarios de alerta. + +### Lista de validación + +- **Enrutar alertas de monitores críticos**: Identifica tus monitores con mayor gravedad y activa alertas de test para confirmar que se enrutan al equipo de Datadog On-Call adecuado. Asegúrate de que las entregas sean puntuales y que los metadatos estén correctos. +- **Verificar cadenas de escalado**: Simula alertas no reconocidas para garantizar que los escalados siguen la secuencia prevista. Incluye escalados temporales y de respaldo. Confirma la recepción por parte de todos los intervinientes previstos. +- **Verificar canales de notificación**: Asegúrate de que los miembros del equipo reciben alertas a través de todos los métodos configurados, incluyendo correo electrónico, SMS, notificaciones push y voz. Pide a los destinatarios que confirmen la entrega y la claridad del contenido. +- **Probar anulaciones y transiciones**: Configura una anulación temporal para un miembro del equipo y confirma que las alertas se enrutan correctamente durante ese periodo. Repítelo con una transición entre turnos para detectar casos extremos. +- **Confirmar la visibilidad en Slack o Teams**: Activa una alerta de prueba y confirma que aparece en los canales de incidentes de Slack o Teams con las etiquetas (tags), la propiedad y los enlaces correctos para confirmarla o resolverla. +- **Simular incidentes en Synthetic**: Activa manualmente alertas de Synthetic o utiliza monitores ficticios para probar flujos de trabajo completos de incidencias, incluyendo el reconocimiento, el escalado y la resolución. +- **Cobertura de horarios de auditoría**: Revisa minucioisamente los horarios del equipo para asegurarte de que no queden horas sin cubrir, incluyendo fechas festivas y fines de semana. +- **Comparar con el proveedor legacy**: Si utilizas el enrutamiento dual, comprueba que ambos sistemas reciben alertas y siguen un comportamiento de escalado similar. Registra y resuelve cualquier discrepancia antes del traspaso. + +### Enrutamiento dual en la práctica + +Muchas organizaciones optan por ejecutar un enrutamiento dual durante la validación, enviando alertas en paralelo a su proveedor legacy y a Datadog On-Call. Esto permite a los equipos: + +- Comparar el enrutamiento de las alertas y el comportamiento del escalado en tiempo real +- Confirmar que no existen lagunas entre los sistemas +- Reducir el riesgo durante el periodo de transición + +Utiliza el [editor de monitores en bloque][3] de Datadog para añadir identificadores de Datadog On-Call junto con los destinos existentes. Una vez que hayas confirmado el rendimiento y la cobertura, podrás eliminar las rutas de alerta legacy y finalizar el traspaso. + +### Monitorizar la migración + +Utiliza dashboards de Datadog para observar el rendimiento de la migración en tiempo real. Controla: + +- Volumen de alertas por proveedor +- Latencia de confirmación y escalado +- Incidencias que no cuentan con la propiedad de un equipo + +Estas señales ayuda a confirmar la preparación, a detectar errores de configuración y a señalar problemas antes del traspaso completo. + +## Desconectar y retirar sistemas legacy + +Una vez completada la confirmación y cuando todos los equipos utilicen activamente Datadog On-Call, comienza a retirar tu proveedor legacy. Para minimizar las interrupciones, la mayoría de los equipos lo hacen de forma gradual: + +- Retirando primero las vías de alerta de baja gravedad o poco frecuentes +- Eliminando horarios, políticas de escalado y claves de enrutamiento obsoletos +- Archivando las configuraciones legacy o expórtandolas como documentación de referencia + +Comprueba minuciosamente que todos los monitores apuntan exclusivamente a Datadog On-Call y que las integraciones legacy ya no están en uso. Si durante el periodo de enrutamiento dual se detectan incoherencias o lagunas, resuélvelas antes de finalizar el traspaso. + +Finalizar este paso garantiza una transición limpia y elimina el riesgo de confundir o pasar por alto las alertas durante la respuesta a incidentes. + +## Sostener y escalar la práctica de tus servicios de guardia + +Una vez finalizada la migración principal a Datadog On-Call, céntrate en las operaciones a largo plazo y en la mejora continua. Utiliza las siguientes prácticas para mantener la buena salud de tus procesos de guardia, mantener la preparación del equipo y desarrollar tu configuración a medida que crecen tus necesidades. + +- **Establecer una responsabilidad permanente**: Asigna a tu equipo una clara responsabilidad de Datadog On-Call. Esto incluye el mantenimiento de los horarios, la incorporación de nuevos intervinientes y la adaptación a los cambios de las funciones a lo largo del tiempo. +- **Incorporar análisis retrospectivos**: Revisa los incidentes ocurridas durante o después de la migración para identificar cualquier problema de escalado o alerta que se haya pasado por alto. Incorpora estas lecciones a tu documentación de tests y libros de ejecución. +- **Realizar un seguimiento del estado de los servicios de guardia**: Utiliza [On-Call Analytics][8] para monitorizar el volumen de alertas por interviniente, las tendencias MTTA/MTTR, la fatiga de las notificaciones y los escalados recurrentes. +- **Mantenerse al día**: Suscríbete a las [actualizaciones del producto Incident Response][9] para mantenerte al día con las nuevas funciones, mejoras y funciones obsoletas. +- **Profundizar en tu conocimiento del producto**: Explora la documentación de Datadog sobre [Gestión de incidentes][6], [Horarios][7] e [Integraciones][2] para ampliar tu uso de la plataforma. +- **Únete a la comunidad**: Conéctate con colegas e ingenieros de Datadog en la [Datadog Slack Community][10] para compartir las prácticas recomendadas, obtener consejos y dar tu opinión. +- **Programar una evaluación retrospectiva**: Entre 30 y 60 días después de la migración, organiza una evaluación retrospectiva para reunir las lecciones aprendidas y actualizar la documentación, las guías internas y los planes de tests. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/on-call/ +[2]: /es/integrations/ +[3]: /es/monitors/notify/#bulk-editing-monitor--handles +[4]: /es/service_management/on-call/teams/ +[6]: /es/service_management/incident_management +[7]: /es/service_management/on-call/schedules/ +[8]: https://app.datadoghq.com/on-call/analytics +[9]: https://app.datadoghq.com/release-notes?category=Incident%20Response +[10]: https://chat.datadoghq.com/ \ No newline at end of file diff --git a/content/es/synthetics/browser_tests/test_results.md b/content/es/synthetics/browser_tests/test_results.md index ae891744e3421..758ec00bbb4d2 100644 --- a/content/es/synthetics/browser_tests/test_results.md +++ b/content/es/synthetics/browser_tests/test_results.md @@ -43,11 +43,11 @@ En la sección **Historial**, puedes ver tres gráficos: {{< img src="synthetics/browser_tests/history.png" alt="Sección Historial y ejecuciones de muestra, en la página de detalles de tests" style="width=80%" >}} -## Resultados de muestra +## Resultados de ejemplo Las ejecuciones de tests de navegador incluyen componentes como [capturas de pantalla](#screenshots-and-actions), [datos de rendimiento de página](#page-performance), [errores](#errors-and-warnings), [recursos](#resources) y [trazas (traces) de backend](#backend-traces) para ayudar a solucionar [tests fallidos](#failed-results). -En la sección **Ejecuciones de muestra**, se pueden analizar las ejecuciones de tests fallidas más recientes y compararlas con las ejecuciones de tests que han tenido éxito recientes. +En la sección **Ejecuciones de ejemplo**, se pueden analizar las ejecuciones de tests fallidas más recientes y compararlas con ejecuciones de tests recientes superadas. ### Atributos de información general @@ -80,7 +80,7 @@ Tipo de ejecución ### Sesiones RUM -Para ver sesiones asociadas y reproducciones disponibles en el [Explorador RUM][22], haz clic en **Ver Sesión en RUM**. Para acceder a una sesión de usuario para realizar una acción o un paso específico en [Session Replay][23], haz clic en **Reproducir sesión**. Para obtener más información, consulta [Explorar RUM y Session Replay en Synthetics][16]. +Para ver sesiones relacionadas y reproducciones disponibles en el [Explorador RUM][22], haz clic en **View Session in RUM** (Ver Sesión en RUM). Para acceder a una sesión de usuario para ver una acción o un paso específico en [Session Replay][23], haz clic en **Replay Session** (Reproducir sesión). Para obtener más información, consulta [Explorar RUM y Session Replay en Synthetic Monitoring][16]. ### Capturas de pantalla y acciones @@ -113,7 +113,7 @@ Se pueden filtrar los recursos por tipo y realizar una búsqueda por nombre en l {{< img src="synthetics/browser_tests/resources_panel.png" alt="Panel de recursos" style="width:100%" >}} Tiempo relativo -: La duración del recurso durante el tiempo total de interacción. +: momento en el que el recurso comenzó a cargarse durante el paso de test. CDN : El proveedor CDN que ha proporcionado el recurso. Pasa el cursor sobre el icono de un proveedor CDN para ver el estado del cache sin procesar. diff --git a/content/es/synthetics/guide/email-validation.md b/content/es/synthetics/guide/email-validation.md index df4f1adfda928..0d172977c5b96 100644 --- a/content/es/synthetics/guide/email-validation.md +++ b/content/es/synthetics/guide/email-validation.md @@ -8,6 +8,7 @@ further_reading: - link: /synthetics/browser_tests/advanced_options/ tag: Documentación text: Configurar opciones avanzadas en los pasos +site_support_id: synthetics_email_validation title: Utiliza la validación de correo electrónico en los tests de navegador --- @@ -24,7 +25,7 @@ Para añadir una variable de correo electrónico llamada `EMAIL`, sigue estos pa 1. Haz clic en **Variables** y selecciona **Email** (Correo electrónico) en el menú desplegable. 2. Haz clic en **Add Variable** (Añadir variable) para que puedas usar la variable cuando empieces a grabar. -{{< img src="synthetics/guide/email-validation/adding-variable.mp4" alt="Crear una variable de correo electrónico" video="true" width="100%">}} +{{< img src="synthetics/guide/email-validation/adding-variable-email.mp4" alt="Crear una variable de email" video="true" width="100%">}} La variable de correo electrónico genera un buzón único de cuyo mantenimiento se encarga Datadog cada vez que se ejecuta el test, lo que permite que los tests de navegador se desarrollen sin ningún conflicto. @@ -34,7 +35,7 @@ Cuando has creado la variable de correo electrónico, puedes [confirmar que el c Haz clic en **Start Recording** (Iniciar grabación) y graba todos los pasos que hacen que el correo se active con la variable de correo electrónico. Haz clic en el icono de la mano de una de las variables para introducir su valor en la entrada de texto de un formulario o un campo. -{{< img src="synthetics/guide/email-validation/record-steps.mp4" alt="Grabar los pasos" video="true" width="100%">}} +{{< img src="synthetics/guide/email-validation/record_steps_2.mp4" alt="Registrar tus pasos" video="true" width="100%">}} Después de haber grabado los pasos para completar el formulario, haz clic en el botón **Sign Up** (Registro) para activar una notificación por correo electrónico. Con ello, se envía un mensaje específico de la sesión de grabación al buzón de Datadog; por ejemplo, `838-n3q-q2y.6238933596@synthetics.dtdg.co`. @@ -42,9 +43,9 @@ Después de haber grabado los pasos para completar el formulario, haz clic en el Para confirmar que se ha enviado el correo electrónico, haz clic en **Assertion** (Aserción) y selecciona **Test that an email was received** (Comprobar que se ha recibido un correo electrónico). Si quieres asegurarte de que el contenido del correo electrónico se adhiere a unas directrices concretas, puedes añadir más verificaciones que engloben el asunto y el cuerpo. -{{< img src="synthetics/guide/email-validation/assertion-step.mp4" alt="Añadir una aserción" video="true" width="100%">}} +{{< img src="synthetics/guide/email-validation/assertion-step_2.mp4" alt="Añadir una afirmación" video="true" width="100%">}} -En este ejemplo, la aserción da buen resultado si el asunto es `Welcome to Shopist!`, si el cuerpo contiene `Your verification code is...` y si el código de verificación se ajusta a la expresión regular `\d{1,6}`. +En este ejemplo, la aserción tiene éxito si el asunto del email contiene `Welcome to Shopist!`, el cuerpo contiene la frase `Your verification code is...` y el código de verificación coincide con el patrón de expresión regular `\d{1,6}`. ### Desplazarse por los enlaces de un correo electrónico diff --git a/content/es/tests/browser_tests.md b/content/es/tests/browser_tests.md new file mode 100644 index 0000000000000..b26aceefa50d4 --- /dev/null +++ b/content/es/tests/browser_tests.md @@ -0,0 +1,70 @@ +--- +aliases: +- /es/continuous_integration/guides/rum_integration +- /es/continuous_integration/integrate_tests/browser_tests +- /es/continuous_integration/tests/browser_tests +description: Aprende a utilizar CI Visibility y RUM para conectar los resultados de + tus tests con sesiones de navegador y repeticiones de sesión. +further_reading: +- link: /continuous_integration/tests + tag: Documentación + text: Más información sobre Test Optimization +- link: /real_user_monitoring/browser + tag: Documentación + text: Más información sobre la monitorización de navegador de RUM +title: Instrumentar tus tests de navegador con RUM +--- + +## Información general + +Test Optimization se integra con Datadog [Real User Monitoring][2] para proporcionarte las herramientas para un análisis profundo de tus tests de navegador. + +### Compatibilidad + +Para habilitar la integración de RUM, asegúrate de que [Test Optimization][1] está configurado para tus tests y que la aplicación que se está testeando está instrumentada con [RUM][2]. + +La integración de RUM es compatible con los tests de navegador de Cypress y los tests de navegador de Selenium. + +#### Cypress + +* `cypress` >= 6.7.0 +* `dd-trace-js` >= 1.7.0 +* `browser-sdk` >= 3.11.0 + +#### Selenium + +* `selenium-js` >= 4.11.0, `dd-trace-js` >= 5.11.0 / >= 4.35.0 +* `selenium-java` >= 3.141.59, `dd-trace-java` >= 1.34.0 +* `selenium-dotnet` >= 3.0.0, `dd-trace-dotnet` >= 2.51.0 +* `selenium-ruby` >= 4.0.0, `datadog-ci` >= 1.0.0.beta6 +* `browser-sdk` >= 5.15.0 + +#### Playwright + +* `playwright` >= 1.38.0 +* `dd-trace-js` >= 5.46.0 +* `browser-sdk` >= 5.15.0 + +
+Desde el SDK de navegador v5.0.0, activa el parámetro de inicialización `allowUntrustedEvents` durante los tests para capturar correctamente los clics. +
+ +## Conectar tests de navegador y RUM + +Si utilizas Cypress, Selenium o Playwright para ejecutar tus tests de navegador y la aplicación que se está testeando está instrumentada mediante [Real User Monitoring][2], tus resultados de test y sus sesiones de navegador de RUM generadas y las repeticiones de sesión se vinculan automáticamente. + +En el panel lateral de detalles del test en Test Optimization aparece una pestaña **Browser Sessions** (Sesiones de navegador). + +{{< img src="ci/ci-browser-session-tab.png" alt="Pestaña de sesión de navegador en los detalles de test" style="width:100%;">}} + +La sesión de RUM tiene todos los datos que [RUM normalmente recopila][3] para que puedas depurar posibles problemas en tus tests de navegador, como errores inesperados. + +{{< img src="ci/ci-browser-session-tab-errors.png" alt="Errores de pestaña de sesión de navegador en los detalles del test" style="width:100%;">}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/tests/setup/ +[2]: /es/real_user_monitoring/browser/ +[3]: /es/real_user_monitoring/browser/data_collected/ \ No newline at end of file diff --git a/content/es/tests/troubleshooting/_index.md b/content/es/tests/troubleshooting/_index.md index ee0a803c3a22a..ef8f138fdbe13 100644 --- a/content/es/tests/troubleshooting/_index.md +++ b/content/es/tests/troubleshooting/_index.md @@ -1,20 +1,24 @@ --- -null -... +further_reading: +- link: /continuous_integration/tests + tag: Documentación + text: Para aprender a monitorizar tus tests CI +title: Solucionar problemas de la Optimización de tests --- ## Información general -Esta página proporciona información para ayudarte a solucionar problemas de visibilidad de tests. Si necesita más ayuda, ponte en contacto con el [servicio de asistencia de Datadog][2]. +Este página proporciona información para ayudarte a solucionar problemas con Test Optimization (Optimización de tests). Si necesitas ayuda adicional, ponte en contacto con el [soporte de Datadog][2]. ## Tus tests están instrumentados, pero Datadog no muestra ningún dato 1. Ve a la página [**Tests**][3] del lenguaje que estás instrumentando. En la sección **Compatibilidad**, comprueba que el marco para tests que estás utilizando es compatible. 2. Fíjate si ves los resultados de algún test en la sección [**Ejecuciones de tests**][4]. Si ves resultados allí, pero no en la sección [**Tests**][5], esto significa que falta información de Git. Para solucionarlo, consulta [Los datos aparecen en las ejecuciones de tests pero no en los tests](#data-appears-in-test-runs-but-not-tests). -3. Si estás informando los datos a través del Datadog Agent, asegúrate de que se está ejecutando en el host donde se ejecutan los tests (accesible en `localhost:8126`). Si es accesible en otro nombre de host o puerto, asegúrate de ejecutar tus tests con el nombre de host del Agent apropiado, definido en el `DD_AGENT_HOST`, y el puerto apropiado, en las variables de entorno `DD_TRACE_AGENT_PORT`. Puedes activar el [modo de depuración][6] en el rastreador para comprobar si puede conectarse al Agent. -4. Si sigues sin ver resultados, [ponte en contacto con el servicio de asistencia][2] para recibir ayuda y solucionar el problema. +3. Si informas de los datos a través del Datadog Agent, asegúrate de que existe [conectividad de red][15] desde tu host de ejecución de tests al host y puerto del Agent. Ejecuta tus tests con el nombre de host apropiado del Agent establecido en la variable de entorno `DD_AGENT_HOST` y el puerto apropiado en la variable de entorno `DD_TRACE_AGENT_PORT`. Puedes activar el [modo de depuración][6] en el rastreador para verificar la conectividad con el Agent. +4. Si estás enviando los datos directamente a Datadog ("modo sin Agent"), asegúrate de que existe la [conectividad de red][16] desde los hosts que ejecutan tests a los hosts de Datadog. Puedes activar el [modo de depuración][6] en el rastreador para verificar la conectividad con Datadog. +5. Si sigues sin ver resultados, [ponte en contacto con el servicio de asistencia][2] para recibir ayuda y solucionar el problema. -## Está cargando informes de tests JUnit con `datadog-ci` pero faltan algunos o todos los tests +## Estás cargando informes de tests JUnit con `datadog-ci` pero faltan algunos o todos los tests Si estás cargando archivos de informes de tests JUnit con la CLI `datadog-ci` y no ves los tests, es probable que los tests se estén descartando debido a que el informe se considera incorrecto. Los siguientes aspectos hacen que un informe de test JUnit sea incorrecto: @@ -23,16 +27,16 @@ Los siguientes aspectos hacen que un informe de test JUnit sea incorrecto: ## Los datos aparecen en las ejecuciones de tests pero no en los tests -Si puedes ver los datos de los resultados de los tests en la pestaña **Test Runs** (Ejecuciones de tests), pero no en la pestaña **Tests**, es probable que falten metadatos de Git (repositorio, confirmación o rama). Para confirmar que este es el caso, abre una ejecución de test en la sección [**Ejecuciones de tests**][4] y comprueba que no hay `git.repository_url`, `git.commit.sha` o `git.branch`. Si estas etiquetas (tags) no están rellenadas, no se muestra nada en la sección [**Tests**][5]. +Si puedes ver los datos de los resultados de los tests en la pestaña **Test Runs** (Ejecuciones de tests), pero no en la pestaña **Tests**, es probable que falten metadatos de Git (repositorio, confirmación o rama). Para confirmar que este es el caso, abre una ejecución de test en la sección [**Ejecuciones de tests**][4] y comprueba que no hay etiquetas `git.repository_url`, `git.commit.sha` o `git.branch`. Si estas etiquetas (tags) no están rellenadas, no se muestra nada en la sección [**Tests**][5]. -1. Los rastreadores utilizan primero las variables de entorno, si las hay, configuradas por el proveedor CI para recopilar información de Git. Para ver una lista de las variables de entorno que el rastreador intenta leer para cada proveedor CI compatible, consulta la [ejecución de tests dentro de un contenedor][7]. Como mínimo, esto rellena el repositorio, el hash de confirmación y la información de la rama. +1. Los rastreadores utilizan primero las variables de entorno, si las hay, configuradas por el proveedor CI, para recopilar información de Git. Para ver una lista de las variables de entorno que el rastreador intenta leer para cada proveedor CI compatible, consulta la [ejecución de tests dentro de un contenedor][7]. Como mínimo, esto rellena el repositorio, el hash de confirmación y la información de la rama. 2. A continuación, los rastreadores obtienen los metadatos de Git utilizando la carpeta local `.git`, si está presente, mediante la ejecución de comandos `git`. Esto rellena todos los campos de metadatos de Git, incluyendo el mensaje de confirmación, el autor y la información del autor de la confirmación. Asegúrate de que la carpeta `.git` está presente y que el binario `git` está instalado y en `$PATH`. Esta información se utiliza para rellenar los atributos no detectados en el paso anterior. 3. También puedes proporcionar información de Git manualmente utilizando variables de entorno, que anulan la información detectada por cualquiera de los pasos anteriores. Las variables de entorno admitidas para proporcionar información de Git son: `DD_GIT_REPOSITORY_URL` **(Obligatorio)** - : La URL del repositorio donde se almacena el código. Se admiten tanto URL HTTP como SSH.
+ : La URL del repositorio donde se almacena el código. Se admiten URL tanto HTTP como SSH.
**Ejemplo**: `git@github.com:MyCompany/MyApp.git`, `https://github.com/MyCompany/MyApp.git` `DD_GIT_COMMIT_SHA` **(Obligatorio)** @@ -40,7 +44,7 @@ Si puedes ver los datos de los resultados de los tests en la pestaña **Test Run **Ejemplo**: `a18ebf361cc831f5535e58ec4fae04ffd98d8152` `DD_GIT_BRANCH` - : La rama Git a la que se realizan tests. Déjala vacía si se proporciona información de etiquetas.
+ : La rama de Git a la que se realizan tests. Déjala vacía si se proporciona información de etiquetas.
**Ejemplo**: `develop` `DD_GIT_TAG` @@ -75,7 +79,7 @@ Si puedes ver los datos de los resultados de los tests en la pestaña **Test Run : La fecha de confirmación del autor de la confirmación en formato ISO 8601.
**Ejemplo**: `2021-03-12T16:00:28Z` -4. Si no se encuentras ninguna variable de entorno del proveedor CI, los resultados de los tests se envían sin metadatos de Git. +4. Si no se encuentra ninguna variable de entorno del proveedor CI, los resultados de los tests se envían sin metadatos de Git. ### El tiempo total del test está vacío Si no puedes ver el tiempo total del test, es probable que la visibilidad a nivel del conjunto de tests no esté habilitada. Para confirmar, comprueba si tu lenguaje es compatible con la visibilidad a nivel del conjunto de tests en [Características admitidas][14]. Si la visibilidad a nivel del conjunto de tests es compatible, actualiza tu rastreador a la última versión. @@ -92,16 +96,16 @@ El tiempo total se define como la suma de las duraciones máximas de las sesione ## Los números de estado de los tests no son los esperados -Los números de estado de los tests se calculan a partir de los tests únicos que se han recopilado. La singularidad de un test se define no sólo por su conjunto y su nombre, sino también por sus parámetros y configuraciones de tests. +Los números de estado de los tests se calculan a partir de los tests individuales que se han recopilado. La singularidad de un test se define no sólo por su conjunto y su nombre, sino también por sus parámetros y configuraciones de tests. ### Los números son más bajos de lo esperado -Si los números son más bajos de lo esperado, es probable que la librería o la herramienta que estás utilizando para recopilar los datos de tests no puedan recopilar parámetros de tests o algunas configuraciones de tests. +Si los números son más bajos de lo esperado, es probable que la biblioteca o la herramienta que estás utilizando para recopilar los datos de tests no puedan recopilar parámetros de tests o algunas configuraciones de tests. 1. Si estás cargando archivos de informes de tests JUnit: - 1. Si estás ejecutando los mismos tests en entornos con diferentes configuraciones, [asegúrate de que estás definiendo esas etiquetas de configuración durante la carga][10]. + 1. Si estás ejecutando los mismos tests en entornos con diferentes configuraciones, [asegúrate de definir esas etiquetas de configuración durante la carga][10]. 2. Si estás ejecutando tests parametrizados, es muy probable que el informe JUnit no tenga esa información. [Prueba a utilizar una biblioteca nativa para informar de los datos de los tests][3]. -2. Si sigues sin ver resultados esperados, [ponte en contacto con el servicio de asistencia][2] para recibir ayuda y solucionar el problema. +2. Si sigues sin ver los resultados esperados, [ponte en contacto con el servicio de asistencia][2] para recibir ayuda y solucionar el problema. ### Los números aprobados/fallados/omitidos son diferentes de los esperados @@ -133,19 +137,45 @@ La rama por defecto se utiliza para alimentar algunas funciones de los productos ### Cómo reparar la rama por defecto -Si tienes acceso de administrador, puedes actualizar desde la [página de configuración del repositorio][11]. +Si tienes acceso de administrador, puedes actualizarla desde la [página de configuración del repositorio][11]. ## El historial de ejecución no está disponible para un caso de test específico Otros síntomas del mismo problema son: - Un caso de test que no se clasifica como defectuoso aunque muestre defectos. -- Un caso de test que no puede ser omitido por [Intelligent Test Runner][12]. +- Una incidencia de test no puede ser omitida por [Test Impact Analisys][12]. Es probable que la [configuración del caso de test][13] sea inestable porque uno o varios de los parámetros del test no son deterministas (por ejemplo, incluyen la fecha actual o un número aleatorio). La mejor forma de solucionar este problema es asegurarse de que los parámetros de test son los mismos en todas las ejecuciones de tests. -## Leer más +## Las pestañas de historial de sesión, rendimiento o cobertura de código solo muestran una única ejecución + +Es probable que esto se deba a una huella de sesión inestable de test. Hay un conjunto de parámetros que Datadog comprueba para establecer la correspondencia entre las sesiones de test. El comando test utilizado para ejecutar los tests es uno de ellos. Si el comando test contiene una cadena que cambia en cada ejecución, como una carpeta temporal, Datadog considera que las sesiones no están relacionadas entre sí. Por ejemplo: + +- `yarn test --temp-dir=/var/folders/t1/rs2htfh55mz9px2j4prmpg_c0000gq/T` +- `mvn test --temp-dir=/var/folders/t1/rs2htfh55mz9px2j4prmpg_c0000gq/T` +- `bundle exec rspec --temp-dir=/var/folders/t1/rs2htfh55mz9px2j4prmpg_c0000gq/T` +- `dotnet test --results-directory /var/folders/t1/rs2htfh55mz9px2j4prmpg_c0000gq/T` + +Esto puede solucionarse utilizando la variable de entorno `DD_TEST_SESSION_NAME`. Utiliza `DD_TEST_SESSION_NAME` para identificar un grupo de tests. Los valores de ejemplo para esta etiqueta incluyen: + +- `unit-tests` +- `integration-tests` +- `smoke-tests` +- `flaky-tests` +- `ui-tests` +- `backend-tests` + +## Test Impact Analysis no muestra ningún ahorro de tiempo + +Esto también está causado por una huella de sesión inestable de test. Consulta la sección [La pestaña de historial de sesión, rendimiento o cobertura de código solo muestra una única ejecución](#session-history-performance-or-code-coverage-tab-only-show-a-single-execution) para obtener más información. + +## Las etiquetas de gestión de tests defectuosos faltan o tienen un orden inesperado en los eventos de test + +Al reintentar un test defectuoso varias veces en un breve tramo de tiempo (menos de un segundo), los eventos de ejecución de test pueden contener etiquetas `@test.is_flaky`, `@test.is_known_flaky` o `@test.is_new_flaky` inesperadas. Se trata de una limitación conocida que se produce debido a una condición de velocidad en el sistema de detección de test defectuoso. En algunos casos, los eventos de ejecución de test pueden ser procesados fuera de orden, causando que las etiquetas no sigan el orden lógico de los eventos. + +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} @@ -153,13 +183,15 @@ La mejor forma de solucionar este problema es asegurarse de que los parámetros [2]: /es/help/ [3]: /es/continuous_integration/tests/ [4]: https://app.datadoghq.com/ci/test-runs -[5]: https://app.datadoghq.com/ci/test-services +[5]: https://app.datadoghq.com/ci/test-repositories [6]: /es/tracing/troubleshooting/tracer_debug_logs [7]: /es/continuous_integration/tests/containers/ [8]: https://github.com/travisjeffery/timecop [9]: https://github.com/spulec/freezegun [10]: /es/continuous_integration/tests/junit_upload/?tabs=linux#collecting-environment-configuration-metadata [11]: https://app.datadoghq.com/source-code/repositories -[12]: /es/continuous_integration/intelligent_test_runner/ +[12]: /es/tests/test_impact_analysis/ [13]: /es/tests/#parameterized-test-configurations [14]: /es/tests/#supported-features +[15]: /es/agent/configuration/network/ +[16]: /es/tests/network/ \ No newline at end of file diff --git a/content/es/tracing/trace_explorer/visualize.md b/content/es/tracing/trace_explorer/visualize.md index 932fa6f52d55b..2ca3008f4746f 100644 --- a/content/es/tracing/trace_explorer/visualize.md +++ b/content/es/tracing/trace_explorer/visualize.md @@ -1,10 +1,16 @@ --- +aliases: +- /es/tracing/trace_search_and_analytics/request_flow_map +- /es/tracing/trace_explorer/request_flow_map/ description: Visualiza tramos (spans) en una lista o agrega tramos en series temporales, listas principales y mucho más. further_reading: - link: tracing/trace_explorer/ tag: Documentación text: Trace Explorer +- link: https://www.datadoghq.com/blog/apm-request-flow-map-datadog + tag: Blog + text: Más información sobre los mapas de flujo de solicitudes title: Visualizaciones de tramos --- @@ -14,21 +20,21 @@ Las visualizaciones definen cómo se muestran los datos de tramos consultados. S ## Vista de lista -La vista de lista muestra una lista de tramos que coinciden con el contexto seleccionado, definido por el filtro [consulta de barra de búsqueda][1] y un [intervalo de tiempo][2]. +En la vista de lista se muestra una lista de tramos que coinciden con el contexto seleccionado, definido por el filtro [consulta de barra de búsqueda][1] y un [intervalo de tiempo][2]. En la tabla, selecciona qué información de interés deseas visualizar como columnas. Administra las columnas de una de las siguientes maneras: -- interactuando con la fila de cabecera de la tabla para **ordenar**, **reorganizar** o **eliminar** columnas. +- interactuando con la fila de cabecera de la tabla para **ordenar**, **reorganizar** o **eliminar** columnas; o - seleccionando una faceta desde el panel de facetas de la izquierda o desde el panel lateral de trazas (traces) tras hacer clic en un tramo específico, para **añadir** una columna para un campo. También puedes añadir columnas con el botón **Optons** (**Opciones**). {{< img src="tracing/trace_explorer/visualize/list_view_table_controls.mp4" alt="Configurar la tabla de visualización" vídeo=true style="width:80%;">}} -El orden por defecto de tramos en la visualización de lista es por fecha y hora, con la tramos más recientes en primer lugar. Para visualizar tramos con el valor más bajo o más alto de una medida en primer lugar o para ordenar tramos lexicográficamente por el valor de una etiqueta (tag), especifica esa columna como columna **por**. +El orden por defecto de tramos en la visualización de lista es por marca de tiempo, con la tramos más recientes en primer lugar. Para visualizar tramos con el valor más bajo o más alto de una medida en primer lugar o para ordenar tramos lexicográficamente por el valor de una etiqueta (tag), especifica esa columna como columna **por**. La configuración de las columnas se almacena junto con otros elementos de tu contexto de solución de problemas en las vistas guardadas. -El `Latency Breakdown` de la traza (trace) puede faltar en algunos tramos si la traza tiene un formato incorrecto o está incompleta. Por ejemplo, los muestreadores de errores y poco frecuentes capturan trozos de trazas (traces), sin la garantía de capturar la traza completa. En este caso, los datos se omiten para evitar mostrar información de latencia incoherente o engañosa que solo tendría sentido cuando la traza estuviera completa. +El `Latency Breakdown` de la traza puede faltar en algunos tramos si la traza tiene un formato incorrecto o está incompleta. Por ejemplo, los muestreadores de errores y poco frecuentes capturan trozos de trazas (traces), sin la garantía de capturar la traza completa. En este caso, los datos se omiten para evitar mostrar información de latencia incoherente o engañosa que solo tendría sentido cuando la traza estuviera completa. Cuando la consulta se filtra en tramos de errores, selecciona la opción **Agrupar en incidencias** para visualizar una lista de incidencias de [Rastreo de errores][5] en lugar de cada tramo de error. Haz clic en cualquier incidencia de la lista para abrir el panel de incidencias y acceder a información adicional sobre este grupo de errores. @@ -42,7 +48,7 @@ En los detalles de la incidencia, haz clic en `See all errors` para ver cada tra Utiliza las series temporales para visualizar la evolución de una [medida][3] (o un número de valores únicos de etiquetas) a lo largo de un intervalo de tiempo seleccionado y, opcionalmente, divide los datos en hasta tres etiquetas (agrupación). -**Nota**: El [Explorador en vivo][4] (15 minutos) permite agrupar por una sola dimensión. +**Nota**: El [Explorer en vivo][4] (15 minutos) permite agrupar por una sola dimensión. Las vistas agregadas utilizan opciones de consulta adicionales, para definir la **dimensión de etiqueta medida**, las dimensiones por las que **agrupar** la consulta y el **periodo de agregación**. Por ejemplo: @@ -50,7 +56,7 @@ Las vistas agregadas utilizan opciones de consulta adicionales, para definir la {{< img src="tracing/trace_explorer/visualize/group_by_measured_dimension.png" alt="Dimensión medida" style="width:100%;">}} -2. Selecciona la función de agregación para la medida de`Duration`. La selección de una medida permite elegir la función de agregación mientras que la selección de un atributo cualitativo muestra el número único. +2. Selecciona la función de agregación para la medida de `Duration`. La selección de una medida permite elegir la función de agregación mientras que la selección de un atributo cualitativo muestra el número único. {{< img src="tracing/trace_explorer/visualize/group_by_aggregation_function.png" alt="Función de agregación" style="width:100%;">}} @@ -60,13 +66,13 @@ Las vistas agregadas utilizan opciones de consulta adicionales, para definir la 4. Selecciona si deseas mostrar un número de valores superiores o inferiores en función de la etiqueta seleccionada. - {{< img src="tracing/trace_explorer/visualize/group_by_top_bottom.png" alt="X values superiores o inferiores" style="width:100%;">}} + {{< img src="tracing/trace_explorer/visualize/group_by_top_bottom.png" alt="X valores superiores o inferiores" style="width:100%;">}} 5. Selecciona el periodo de acumulación, por ejemplo, `10min`. {{< img src="tracing/trace_explorer/visualize/group_by_rollup_period.png" alt="Período de acumulación" style="width:100%;">}} -En la siguiente vista de series temporales de Trace Explorer se muestra la evolución de los diez principales nombres de recursos de la `shopist-web-ui` de servicio según el percentil 95 de `Duration` en las últimas cuatro horas: +En la siguiente vista de series temporales de Trace Explorer, se muestra la evolución de los diez principales nombres de recursos de la `shopist-web-ui` de servicio según el percentil 95 de `Duration` en las últimas cuatro horas: {{< img src="tracing/trace_explorer/visualize/timeseries_view.png" alt="Vista de series temporales" style="width:100%;">}} @@ -90,7 +96,32 @@ En la siguiente tabla se muestra el número de tramos de errores por `Env`, `Ser {{< img src="tracing/trace_explorer/visualize/table_view.png" alt="Vista de tabla" style="width:100%;">}} -## Leer más +## Mapa de flujos de solicitudes + +Los [mapas de flujo de solicitudes][6] combinan las funciones de [mapas de servicios][7] y [exploración en directo][8] de APM para ilustrar las rutas de las solicitudes en tu stack tecnológico. Delimita tus trazas (traces) a cualquier combinación de etiquetas y genera un mapa dinámico que represente el flujo de solicitudes entre cada servicio. + +{{< img src="tracing/live_search_and_analytics/request_flow_map/Overview.png" style="width:100%; background:none; border:none; box-shadow:none;" alt="Mapa de flujo de solicitudes que muestra el flujo de solicitudes entre servicios, así como la hora de las solicitudes y las tasas de error" >}} + +Por ejemplo, puedes utilizar los mapas de flujo de solicitudes para identificar los servicios con tráfico elevado o realizar un seguimiento del número de llamadas a la base de datos generadas por una solicitud a un endpoint específico. Si utilizas [despliegues de sombra][9] o marcadores de características configurados como etiquetas (tags) de tramos personalizadas, puedes utilizar mapas de flujo de solicitudes para comparar las latencias de las solicitudes entre ellas y anticipar cómo afectarán los cambios de código al rendimiento. + +### Navegar por el mapa de flujo de solicitudes + +- Pasa el cursor sobre el borde que conecta dos servicios para ver métricas de solicitudes, errores y latencias entre esos servicios. **Nota**: Los bordes resaltados representan las conexiones de mayor rendimiento, o las rutas más comunes. + +- Haz clic en **Export** (Exportar) para guardar una imagen PNG del mapa de flujo de solicitudes actual. Utiliza esta función para generar un diagrama de arquitectura en directo o uno limitado a un flujo de usuario específico. + +- Haz clic en cualquier servicio del mapa para ver métricas de salud, de rendimiento, de infraestructura y de tiempo de ejecución de ese servicio. + +{{< img src="tracing/live_search_and_analytics/request_flow_map/ServicePanel.png" style="width:100%; background:none; border:none; box-shadow:none;" alt="Panel latral del mapa de flujo de solicitudes con métricas y metadatos del servicio seleccionado" >}} + +- El mapa selecciona automáticamente un diseño adecuado en función del número de servicios presentes. Haz clic en **Cluster* o **Flow** (Flujo) para cambiar entre los diseños. + +- Las aplicaciones RUM están representadas en el mapa de flujo de solicitudes, si [conectaste RUM y trazas][10]. + +{{< img src="tracing/live_search_and_analytics/request_flow_map/RUMService.mp4" alt="Vídeo que muestra cómo navegar la información de servicio de una aplicación RUM en el mapa de flujo de solicitudes" video=true style="width:100%;">}} + + +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} @@ -98,4 +129,9 @@ En la siguiente tabla se muestra el número de tramos de errores por `Env`, `Ser [2]: /es/tracing/trace_explorer/query_syntax/#time-range [3]: /es/tracing/trace_explorer/facets/#quantitative-facets-measures [4]: /es/tracing/trace_explorer/?tab=timeseriesview#live-search-for-15-minutes -[5]: /es/tracing/error_tracking/ \ No newline at end of file +[5]: /es/tracing/error_tracking/ +[6]: https://app.datadoghq.com/apm/flow-map +[7]: /es/tracing/services/services_map/ +[8]: /es/tracing/trace_explorer/ +[9]: /es/tracing/services/deployment_tracking/#shadow-deploys +[10]: /es/real_user_monitoring/correlate_with_other_telemetry/apm?tab=browserrum \ No newline at end of file diff --git a/content/fr/api/latest/_index.md b/content/fr/api/latest/_index.md index 1e00f22f08e16..1a893d1ad9707 100644 --- a/content/fr/api/latest/_index.md +++ b/content/fr/api/latest/_index.md @@ -250,4 +250,4 @@ Vous préférez démarrer avec l’application ? Consultez la [documentation g [4]: /fr/api/v1/using-the-api/ [5]: https://brew.sh [6]: https://docs.datadoghq.com/fr/developers/community/libraries/ -[7]: /fr/getting_started/application/ +[7]: /fr/getting_started/application/ \ No newline at end of file diff --git a/content/ja/account_management/billing/custom_metrics.md b/content/ja/account_management/billing/custom_metrics.md index db284b2500548..7dd9643fceda3 100644 --- a/content/ja/account_management/billing/custom_metrics.md +++ b/content/ja/account_management/billing/custom_metrics.md @@ -10,7 +10,7 @@ further_reading: text: カスタムメトリクスについて - link: /metrics/guide/custom_metrics_governance/ tag: ガイド - text: カスタムメトリクスのガバナンスに関するベストプラクティス + text: カスタムメトリクス管理のベストプラクティス title: カスタムメトリクスの課金 --- @@ -82,9 +82,9 @@ Florida の気温を入手するには、次のようにカスタムメトリク - `temperature{country:USA, state:Florida, city:Miami}` - `temperature{state:Florida, city:Miami, country:USA}` -### Metrics without LimitsTM でタグと集計を構成する +### Metrics without LimitsTM でタグを構成する -カスタムメトリクスのボリュームは、[Metrics without LimitsTM][3] を使用してタグと集計を構成することによって影響を受ける可能性があります。Metrics without LimitsTM は、インジェストコストとインデキシングコストを切り離すので、Datadog に全てのデータを送り続けることができ (全てインジェストされます)、Datadog プラットフォームでクエリ可能に残しておきたいタグの許可リストを指定することができます。Datadog が構成したメトリクスにインジェストするデータ量は、インデックスを作成した残りのデータ量とは異なるため、Usage ページと Metrics Summary ページには 2 つの異なるボリュームが表示されます。 +カスタムメトリクスのボリュームは、[Metrics without LimitsTM][3] を使用してタグを構成することによって影響を受ける可能性があります。Metrics without LimitsTM は、インジェストコストとインデキシングコストを切り離すので、Datadog に全てのデータを送り続けることができ (全てインジェストされます)、Datadog プラットフォームでクエリ可能に残しておきたいタグの許可リストを指定することができます。お客様が構成したメトリクスに対して Datadog がインジェストするデータ量は、インデックス化したデータ量とは異なるため、Usage ページと Metrics Summary ページには 2 つの異なるボリュームが表示されます。 - **Ingested Custom Metrics**: インジェストされたすべてのタグに基づくカスタムメトリクスの元となる量 (コード経由で送信されます)。 - **Indexed Custom Metrics**: Datadog プラットフォームでクエリ可能なカスタムメトリクスの量 (Metrics without LimitsTM のコンフィギュレーションに基づく) @@ -99,7 +99,7 @@ Metrics without LimitsTM で構成されていないメトリクスについて | アカウントの割り当て | - Pro: 1 ホストあたり 100 のインデックスされたカスタムメトリクス
- Enterprise: 1 ホストあたり 200 のインデックスされたカスタムメトリクス | | 使用量がアカウントの割り当てを超える | アカウントの割り当てを超えるインデックスされたカスタムメトリクス 100 個ごとに、現在の契約で指定された金額をお支払いいただきます。 | -Metrics without LimitsTM で構成されたメトリクス (タグ/集計が構成されている) の場合、インジェストされたカスタムメトリクスとインデックスされたカスタムメトリクスに対してお支払いいただきます。 +Metrics without LimitsTM で構成されたメトリクス (タグが構成されている) の場合、インジェストされたカスタムメトリクスとインデックスされたカスタムメトリクスに対してお支払いいただきます。 | | 取り込まれたカスタムメトリクス | インデックスされたカスタムメトリクス | |--------------------------------------|---------------------------------------------------------------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------| @@ -114,12 +114,6 @@ Metrics without LimitsTM を使って、`endpoint` と `status` のタグだけ タグ構成の結果、`request.Latency` は合計で **3 つのインデックスされたカスタムメトリクス**を報告しています。このメトリクスに送信されたオリジナルのタグに基づくと、`request.Latency` のオリジナルの**インジェストされた**カスタムメトリクス量は、**4 個のインジェストされたカスタムメトリクス**となります。 -デフォルトでは、Datadog は、構成したメトリクスのクエリの数学的精度を維持するために、メトリクスのタイプに応じて、最も頻繁にクエリされる集計の組み合わせを保存します。 - -- 構成されたカウント/レートは `SUM` の時間/空間集計でクエリ可能です - -クエリにとって価値がある場合は、より多くの集計にオプトインできます。インデックスされたカスタムメトリクスの数は、有効な集計の数に比例します。 - [Metrics without LimitsTM][3] の詳細についてはこちらをご覧ください。 [1]: /ja/metrics/types/?tab=count#metric-types @@ -167,9 +161,9 @@ Florida の気温を入手するには、次のようにカスタムメトリク - `temperature{country:USA, state:Florida, city:Miami}` - `temperature{state:Florida, city:Miami, country:USA}` -### Metrics without LimitsTM でタグと集計を構成する +### Metrics without LimitsTM でタグを構成する -カスタムメトリクスのボリュームは、[Metrics without LimitsTM][4] を使用してタグと集計を構成することによって影響を受ける可能性があります。Metrics without LimitsTM は、インジェストコストとインデキシングコストを切り離すので、Datadog に全てのデータを送り続けることができ (全てインジェストされます)、Datadog プラットフォームでクエリ可能に残しておきたいタグの許可リストを指定することができます。Datadog が構成したメトリクスにインジェストするデータ量は、インデックスを作成した残りのデータ量とは異なるため、Usage ページと Metrics Summary ページには 2 つの異なるボリュームが表示されます。 +カスタムメトリクスのボリュームは、[Metrics without LimitsTM][4] を使用してタグを構成することによって影響を受ける可能性があります。Metrics without LimitsTM は、インジェストコストとインデキシングコストを切り離すので、Datadog に全てのデータを送り続けることができ (全てインジェストされます)、Datadog プラットフォームでクエリ可能に残しておきたいタグの許可リストを指定することができます。Datadog が構成したメトリクスにインジェストするデータ量は、インデックスを作成した残りのデータ量とは異なるため、Usage ページと Metrics Summary ページには 2 つの異なるボリュームが表示されます。 - **Ingested Custom Metrics**: インジェストされたすべてのタグに基づくカスタムメトリクスの元となる量 (コード経由で送信されます)。 - **Indexed Custom Metrics**: Datadog プラットフォームでクエリ可能なカスタムメトリクスの量 (Metrics without LimitsTM のコンフィギュレーションに基づく) @@ -184,18 +178,24 @@ Metrics without LimitsTM で構成されていないメトリクスについて | アカウントの割り当て | - Pro: 1 ホストあたり 100 のインデックスされたカスタムメトリクス
- Enterprise: 1 ホストあたり 200 のインデックスされたカスタムメトリクス | | 使用量がアカウントの割り当てを超える | アカウントの割り当てを超えるインデックスされたカスタムメトリクス 100 個ごとに、現在の契約で指定された金額をお支払いいただきます。 | -Metrics without LimitsTM で構成されたメトリクス (タグ/集計が構成されている) の場合、インジェストされたカスタムメトリクスとインデックスされたカスタムメトリクスに対してお支払いいただきます。 +Metrics without LimitsTM で構成されたメトリクス (タグが構成されている) の場合、インジェストされたカスタムメトリクスとインデックスされたカスタムメトリクスに対してお支払いいただきます。 | | 取り込まれたカスタムメトリクス | インデックスされたカスタムメトリクス | |--------------------------------------|---------------------------------------------------------------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------| | アカウントの割り当て | - Pro: 1 ホストあたり 100 のインジェストされたカスタムメトリクス
- Enterprise: 1 ホストあたり 200 のインジェストされたカスタムメトリクス | - Pro: 1 ホストあたり 100 のインデックスされたカスタムメトリクス
- Enterprise: 1 ホストあたり 200 のインデックスされたカスタムメトリクス | | 使用量がアカウントの割り当てを超える | カスタムメトリクスを 100 個インジェストするごとに、アカウントの割り当てを超える場合は、0.10 ドルをお支払いいただきます。 | アカウントの割り当てを超えるインデックスされたカスタムメトリクス 100 個ごとに、現在の契約で指定された金額をお支払いいただきます。 | -デフォルトでは、Datadog は、構成したメトリクスのクエリの数学的精度を維持するために、メトリクスのタイプに応じて、最も頻繁にクエリされる集計の組み合わせを以下のように保存します。 +デフォルトでは、以下の集約をクエリに使用できます: +- group by `SUM` と rollup by `AVG` +- group by `MAX` と rollup by `AVG` +- group by `MIN` と rollup by `AVG` +- group by `AVG` と rollup by `SUM` +- group by `SUM` と rollup by `SUM` +- group by `MAX` と rollup by `MAX` +- group by `MIN` と rollup by `MIN` +- group by `SUM` と rollup by `COUNT` -- 構成されたゲージは `AVG/AVG` の時間/空間集計ででクエリ可能です - -クエリにとって価値がある場合は、より多くの集計にオプトインできます。インデックスされたカスタムメトリクスの数は、有効な集計の数に比例します。 +インデックス化されたカスタム メトリクスの数は、有効化された集約の数に応じて **スケールしません**。 [Metrics without LimitsTM][1] の詳細についてはこちらをご覧ください。 @@ -293,7 +293,8 @@ Metrics without LimitsTM で構成されたメトリクス (タグ/集計が構 管理者ユーザー ([Datadog Admin ロール][7]を持つユーザー) は、1 時間あたりの**インジェスト**および**インデックス**されたカスタムメトリクスの月平均数を確認することができます。また、カスタムメトリクスのトップテーブルでは、[使用量の詳細ページ][8]で**インデックスされた**カスタムメトリクスの平均数を一覧で確認できます。詳細については、[使用量の詳細][9]のドキュメントを参照してください。 特定のメトリクス名のカスタムメトリクスの数をよりリアルタイムに追跡するには、[Metrics Summary ページ][10]でメトリクス名をクリックします。メトリクスの詳細サイドパネルで、**インジェストされた**カスタムメトリクスと**インデックスされた**カスタムメトリクスの数を確認することができます。 -{{< img src="account_management/billing/custom_metrics/mwl_sidepanel_ingested.jpg" alt="Metrics Summary サイドパネル" style="width:80%;">}} + +{{< img src="account_management/billing/custom_metrics/mwl_sidepanel_ingested_3142025.jpg" alt="Metrics Summary サイドパネル" style="width:80%;">}} ## 割り当て diff --git a/content/ja/containers/datadog_operator/secret_management.md b/content/ja/containers/datadog_operator/secret_management.md new file mode 100644 index 0000000000000..8493143fdd73a --- /dev/null +++ b/content/ja/containers/datadog_operator/secret_management.md @@ -0,0 +1,251 @@ +--- +dependencies: +- https://github.com/DataDog/datadog-operator/blob/main/docs/secret_management.md +title: Secret の管理 +--- +セキュリティを強化するため、Datadog Operator は [Secrets][4] を使用して Datadog の認証情報 (API キーとアプリケーション キー) を取得できます。 + +## Secret の設定 + +Secret を設定するには、次のいずれかの方法を選択します: + +### DatadogAgent リソースに平文の認証情報を設定する + +**この方法はテスト用途にのみ推奨されます。** + +`DatadogAgent` の spec に API キーとアプリケーション キーを追加します: + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + credentials: + apiKey: + appKey: + # ... +``` + +ここで指定した認証情報は、Operator によって作成される Secret に保存されます。`DatadogAgent` CRD に対する RBAC を適切に設定することで、これらの認証情報を閲覧できるユーザーを制限できます。 + +### Secret 参照を使用する + +1. Secret を作成します: + + ```yaml + apiVersion: v1 + kind: Secret + metadata: + name: datadog-api-secret + data: + api_key: + + --- + apiVersion: v1 + kind: Secret + metadata: + name: datadog-app-secret + data: + app_key: + ``` + +2. `DatadogAgent` リソースで、これらの Secret の名前を指定します: + + ```yaml + apiVersion: datadoghq.com/v2alpha1 + kind: DatadogAgent + metadata: + name: datadog + spec: + global: + credentials: + apiSecret: + secretName: datadog-api-secret + keyName: api-key + appSecret: + secretName: datadog-app-secret + keyName: app-key + # ... + ``` + + + +**注**: 同じ Secret を使用して両方の認証情報を保存することもできます: + +```yaml +--- +apiVersion: v1 +kind: Secret +metadata: + name: datadog-secret +data: + api_key: + app_key: +``` + +次に、`DatadogAgent` リソースで: + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + credentials: + apiSecret: + secretName: datadog-secret + keyName: api-key + appSecret: + secretName: datadog-secret + keyName: app-key + # ... +``` +## secret backend を使用する + +Datadog Operator は [secret backend][1] と互換性があります。 + +### secret backend を使用して Datadog Operator をデプロイする + +1. secret backend のコマンドを含む Datadog Operator のコンテナ イメージを作成します。 + + 独自に作成する場合は、次の Dockerfile の例では、`latest` イメージをベース イメージとして使用し、`my-secret-backend.sh` スクリプト ファイルをコピーします: + + ```Dockerfile + FROM gcr.io/datadoghq/operator:latest + COPY ./my-secret-backend.sh /my-secret-backend.sh + RUN chmod 755 /my-secret-backend.sh + ``` + + 次に、以下を実行します。 + + ```shell + docker build -t datadog-operator-with-secret-backend:latest . + ``` + +2. `.Values.secretBackend.command` パラメーターにコンテナ内の secret backend コマンドのパスを設定した状態で、Datadog Operator のデプロイメントをインストールまたは更新します。カスタム イメージを使用している場合は、そのイメージを更新します。 + + ```shell + $ helm [install|upgrade] dd-operator --set "secretBackend.command=/my-secret-backend.sh" --set "image.repository=datadog-operator-with-secret-backend" ./chart/datadog-operator + ``` + +### Secret ヘルパーの使用 + +**注**: Datadog Operator v0.5.0+ が必要です。 + +Kubernetes は、Secrets を pod 内のファイルとして公開することをサポートしています。Datadog は、Datadog Operator イメージ内に、ファイルから Secrets を読み取るためのヘルパー スクリプトを提供しています。 + +1. Operator コンテナに Secret をマウントします。例えば、`/etc/secret-volume` にマウントできます。 + +2. `.Values.secretBackend.command` パラメーターを `/readsecret.sh` に、`.Values.secretBackend.arguments` パラメーターを `/etc/secret-volume` に設定して、Datadog Operator デプロイメントをインストールまたは更新します: + + ```shell + helm [install|upgrade] dd-operator --set "secretBackend.command=/readsecret.sh" --set "secretBackend.arguments=/etc/secret-volume" ./chart/datadog-operator + ``` + +### DatadogAgent で secret backend 機能を使用して Agent コンポーネントをデプロイする + +**注**: Datadog Operator v1.11+ が必要です。 + +#### カスタム スクリプトを使用する場合 + +カスタム スクリプトを使用している場合は、Datadog Agent (または Cluster Agent) のイメージを作成し、`ENC[]` を用いて認証情報を指定し、`spec.global.secretBackend.command` に secret backend コマンドを指定します: + + ```yaml + apiVersion: datadoghq.com/v2alpha1 + kind: DatadogAgent + metadata: + name: datadog + spec: + global: + credentials: + apiKey: ENC[] + appKey: ENC[] + secretBackend: + command: "/my-secret-backend.sh" + # ... + ``` + +この構成で設定される環境変数 `DD_SECRET_BACKEND_COMMAND` は、デプロイされるすべてのコンポーネントに自動的に適用されます: node Agent、Cluster Agent、Cluster Checks Runners。すべてのコンポーネントで使用するイメージに、指定したコマンドが含まれていることを確認してください。 + +#### ヘルパー関数を使用する場合 + +利便性のため、Datadog Agent および Cluster Agent のイメージには、ファイルおよび Kubernetes Secrets の両方から読み取るために使用できる `readsecret_multiple_providers.sh` [ヘルパー関数][2] が含まれています。Secret を作成したら、`spec.global.secretBackend.command` を `"/readsecret_multiple_providers.sh"` に設定します。 + +例えば、Agent と Cluster Agent で secret backend を使用するには、"test-secret" という名前の Secret を作成します: + +`kubectl create secret generic test-secret --from-literal=api_key='' --from-literal=app_key=''` + +その後、DatadogAgent の spec を設定します: + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + secretBackend: + command: "/readsecret_multiple_providers.sh" + credentials: + apiKey: ENC[k8s_secret@default/test-secret/api_key] + appKey: ENC[k8s_secret@default/test-secret/app_key] +``` + +## 補足 + +### ServiceAccount の権限 + +`"/readsecret_multiple_providers.sh"` ヘルパーにより、Agent は自身の Namespace と他の Namespace の両方にわたる Kubernetes Secrets を直接読み取ることができます。関連する ServiceAccount に適切な Roles と RoleBindings を割り当て、必要な権限が付与されていることを確認してください。これらは手動で設定するか、次のオプションを使用できます: + +- `global.secretBackend.enableGlobalPermissions`: Agents が Kubernetes Secrets を **すべて** 読み取れるようにする ClusterRole を作成するかどうかを決定します。 + + ```yaml + apiVersion: datadoghq.com/v2alpha1 + kind: DatadogAgent + metadata: + name: datadog + spec: + global: + secretBackend: + command: "/readsecret_multiple_providers.sh" + enableGlobalPermissions: true + # ... + ``` + +- `global.secretBackend.roles`: `enableGlobalPermissions` を置き換え、Agents がアクセスできる namespace/secret の一覧を詳細に指定します。 + + ```yaml + apiVersion: datadoghq.com/v2alpha1 + kind: DatadogAgent + metadata: + name: datadog + spec: + global: + secretBackend: + command: "/readsecret_multiple_providers.sh" + roles: + - namespace: rabbitmq-system + secrets: + - "rabbitmqcluster-sample-default-user" + # ... + ``` + + この例では、`rabbitmq-system` Namespace の Secret `rabbitmqcluster-sample-default-user` への読み取りアクセスを付与する Role が作成されます。 + + **注**: `roles` リスト内の各 Namespace は、Datadog Operator デプロイメントの環境変数 `WATCH_NAMESPACE` または `DD_AGENT_WATCH_NAMESPACE` にも設定する必要があります。 + +### secret backend の構成オプション + +Agent と Cluster Agent に対しては、secret backend コマンドに関するその他の構成オプションがあります: + * `global.secretBackend.args`: Agent が secret backend コマンドを実行する際にコマンドへ渡される引数です。 + * `global.secretBackend.timeout`: secret backend の実行タイムアウトを秒数で指定します。デフォルト値は 30 秒です。 + +Operator 1.11 より前のバージョンでは、`spec.global.secretBackend` は使用できません。代わりに [これらの手順][3] に従ってください。 + +[1]: https://docs.datadoghq.com/ja/agent/guide/secrets-management +[2]: https://docs.datadoghq.com/ja/agent/guide/secrets-management/?tab=linux#script-for-reading-from-multiple-secret-providers +[3]: https://github.com/DataDog/datadog-operator/blob/2bbda7adace27de3d397b3d76d87fbd49fa304e3/docs/secret_management.md#how-to-deploy-the-agent-components-using-the-secret-backend-feature-with-datadogagent +[4]: https://kubernetes.io/docs/concepts/configuration/secret/ \ No newline at end of file diff --git a/content/ja/continuous_testing/environments/multiple_env.md b/content/ja/continuous_testing/environments/multiple_env.md new file mode 100644 index 0000000000000..2bb66389f973a --- /dev/null +++ b/content/ja/continuous_testing/environments/multiple_env.md @@ -0,0 +1,151 @@ +--- +description: Continuous Testing を使用して、同じ Synthetic テスト シナリオを複数の環境で再利用する方法を学びます。 +further_reading: +- link: https://www.datadoghq.com/blog/datadog-synthetic-ci-cd-testing/ + tag: ブログ + text: Datadog Continuous Testing のテストを CI/CD パイプラインに組み込む +- link: https://www.datadoghq.com/blog/internal-application-testing-with-datadog/ + tag: ブログ + text: Datadog の testing tunnel と private locations を使用して社内アプリケーションをテストする +- link: /continuous_testing/environments/proxy_firewall_vpn + tag: ドキュメント + text: プロキシ、ファイアウォール、または VPN を使用しながらテストする方法について学ぶ +title: 複数の環境をテストする +--- + +## 概要 + +Continuous Testing では、本番環境でスケジュールされたテストの同じシナリオを、開発環境やステージング環境にも適用できます。Continuous Testing は、開発サイクル全体で Synthetic テストを使用し、リグレッションをできるだけ早く検出できるようにします。 + +CI テストのトリガー時に、[ブラウザ][1] または [API テスト][2] の開始 URL を上書きして、Synthetic Worker を適切な環境にルーティングできます。これにより、同じテストを本番環境とステージング環境の両方で使用できます。 + +[ブラウザ テスト][1] の場合、テスト実行中に `resourceUrlSubstitutionRegexes` を使って、リソース URL の一部をリダイレクトすることもできます。これにより、現在のブランチのフロントエンド アセットをプロダクション バックエンドに対してテストできます。また、API 呼び出しの一部 (ドメインまたはパスに一致するもの) を、変更が含まれるステージング環境にルーティングしつつ、その他のリクエストは本番環境で処理させることもできます。 + +## ステージング環境で本番テストを使用する + +### 開始 URL を上書きする + +Synthetic ブラウザ テストは、開始 URL に移動してテスト シナリオを開始します。同様に、API HTTP テストは特定の URL にリクエストを送信します。CI テストをトリガーするとき、この開始 URL を上書きして、アプリケーションがデプロイされている別の環境を指すようにできます。 + +{{< img src="continuous_testing/starting_url_substitution.png" alt="Continuous Testing トンネルにより、Synthetics Worker がプライベート アプリケーションに到達できる" width="100%" >}} + +CI テストをトリガーする際、`startUrl` フィールドを使うと、ブラウザ テストが最初に遷移する URL、または HTTP テストのリクエストで使用される URL を上書きできます。このオプションは、グローバル設定ファイル、Synthetic Monitoring 構成ファイル (`*.synthetics.json`)、またはコマンド ライン フラグ `--override startUrl=` で指定できます。 + +```shell +datadog-ci synthetics run-tests \ + --public-id \ + --override startUrl="https://staging.my-app.com" +``` + +このオプションにより、対象が公開されている限り、同じテスト シナリオを本番環境とその他の開発環境 (例: ステージング) の両方で再利用できます。[プライベート環境][4] に対するテスト方法については、[プロキシ、ファイアウォール、または VPN を使用しながらのテスト][3] を参照してください。 + +### 開始 URL を部分的に変更する + +テストの一部がホーム ページや同様にシンプルな URL から始まる場合、前述の解決策で問題ありませんが、すべてのユース ケースをカバーできるわけではありません。開始 URL を無分別に置き換えると、シナリオがテストすべき URL のパスや、特定の検索クエリ パラメーターが意図せず失われる可能性があります。 + +`startUrlSubstitutionRegex` フィールドを使うと、開始 URL を完全に上書きすることなく、開始 URL の一部のみを変更できます。このオプションは、指定した正規表現に基づいて既定の開始 URL の一部を置換します。 + +```shell +datadog-ci synthetics run-tests \ + --public-id \ + --override startUrlSubstitutionRegex="|" +``` + +このフィールドは、パイプ文字 `|` で区切られた 2 つの部分を含む文字列を受け取ります: + +`|` +- ``: 既定の開始 URL に適用する正規表現 (regex) +- ``: URL を書き換えるための表現 + +#### 例 1 + +次の `|` 文字列を考えてみます: + +```shell +https://prod.my-app.com/(.*)|https://staging.my-app.com/$1 +``` + +この正規表現は、キャプチャ グループを使用して URL のパスを取得します。リライト ルールは、`staging.my-app.com` を指す同様の URL を生成し、`$1` を使ってキャプチャしたグループを付加します。例えば、URL `https://prod.my-app.com/product-page?productId=id` が与えられた場合、`https://staging.my-app.com/product-page?productId=id` に書き換えられます。 + +#### 例 2 + +次の `|` 文字列を考えてみます: + +``` +(https?://)([^/]*)|$1.$2 +``` + +このオーバーライドにより、URL `https://my-app.com/some/path` は `https://.my-app.com/some/path` に書き換えられます。 +URL パスは置換用の正規表現の一部ではないため、書き換えの影響は受けない点に注意してください。 + +
+上で示したパイプ | 構文に加えて、startUrlSubstitutionRegex は sed 構文 s/<regex>/<rewriting rule>/<modifiers> もサポートします。

+sed 構文はスラッシュ / を区切り文字として使用するため、URL のスラッシュをエスケープする必要が生じ、エラーになりやすい場合があります。regex 修飾子が必要な場合を除き、Datadog は可読性の観点からパイプ | 構文の使用を推奨します。 +
+ +このツールを使用すると、本番環境で使用している任意のスケジュール済みテストを、開発環境を指すように再利用できます。 + +## 既存の環境に変更を導入する + +### リソース URL を変更する + +開始 URL の変更に加えて、`resourceUrlSubstitutionRegexes` オーバーライドを使用して、その後のすべてのリソース リクエストの URL も変更できます。このオプションは、指定した正規表現に基づいてリソース URL の一部を置換します。 + +これにより、メインの環境から独立してアプリケーションの一部をテストできます。メイン ページは引き続き `startUrl` で指定された環境から配信されますが、`resourceUrlSubstitutionRegexes` の最初の regex に一致する各リクエストは、CI パイプラインをトリガーしたブランチの変更のみをホストする別の環境へリダイレクトできます。 + +For example: if your frontend JavaScript assets are located under the path `https://prod.my-app.com/resources/chunks/*`, you can use `resourceUrlSubstitutionRegexes` to redirect all JavaScript assets requests to `https://staging.my-app.com/resources/chunks`—while main page and all API calls continue to be served by `prod.my-app.com`. Similarly, if you want to test the service behind the endpoints `https://prod.my-app.com/api/my-service`, you can redirect these API calls to `https://staging.my-app.com/api/my-service` to test this service in isolation with the production frontend. + +```shell +datadog-ci synthetics run-tests \ + --public-id \ + --override resourceUrlSubstitutionRegexes="|" \ + --override resourceUrlSubstitutionRegexes="|" +``` + +`resourceUrlSubstitutionRegexes` フィールドは、パイプ文字 `|` で区切られた 2 つの部分を含む文字列を受け付けます: + +`|` +- ``: リソース URL に適用する正規表現 (regex) +- ``: URL を書き換えるための表現 + +#### 例 1 + +次の `|` 文字列を考えてみます: + +``` +https://prod.my-app.com/assets/(.*)|https://staging.my-app.com/assets/$1 +``` + +regex `https://prod.my-app.com/assets/(.*)` は、キャプチャ グループを使用してリソース URL のパスを取得します。 + +リライト ルール `https://staging.my-app.com/assets/$1` は、`staging.my-app.com` を指す同様の URL を生成し、`$1` を使ってキャプチャしたグループを付加します。 + +その結果、URL `https://prod.my-app.com/assets/js/chunk-123.js` は `https://staging.my-app.com/assets/js/chunk-123.js` に書き換えられます。 + +#### 例 2 + +次の `|` 文字列を考えてみます: + +``` +(https?://)([^/]*)|$1.$2 +``` + +このオーバーライドにより、URL `https://my-app.com/some/path` は `https://.my-app.com/some/path` に書き換えられます。URL パスは置換用の正規表現の一部ではないため、書き換えの影響は受けません。 + +
+resourceUrlSubstitutionRegexes は、startUrl および startUrlSubstitutionRegex と同様に、最初のリクエストにも適用されます。 +
+ +
+上で示したパイプ | 構文に加えて、resourceUrlSubstitutionRegexes は sed 構文 s/<regex>/<rewriting rule>/<modifiers> もサポートします。

+この構文はスラッシュ / 区切りを使用するため、URL のスラッシュをエスケープする必要が生じ、エラーになりやすい場合があります。regex 修飾子が必要な場合を除き、Datadog は可読性の観点からパイプ | 構文の使用を推奨します。 +
+ +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/synthetics/browser_tests/ +[2]: /ja/synthetics/api_tests/ +[3]: /ja/continuous_testing/environments/proxy_firewall_vpn +[4]: /ja/synthetics/private_locations \ No newline at end of file diff --git a/content/ja/opentelemetry/setup/otlp_ingest_in_the_agent.md b/content/ja/opentelemetry/setup/otlp_ingest_in_the_agent.md new file mode 100644 index 0000000000000..a010190b855b5 --- /dev/null +++ b/content/ja/opentelemetry/setup/otlp_ingest_in_the_agent.md @@ -0,0 +1,324 @@ +--- +aliases: +- /ja/tracing/setup_overview/open_standards/otlp_ingest_in_the_agent/ +- /ja/tracing/trace_collection/open_standards/otlp_ingest_in_the_agent/ +- /ja/opentelemetry/otlp_ingest_in_the_agent/ +- /ja/opentelemetry/interoperability/otlp_ingest_in_the_agent/ +description: Datadog Agent 経由で OTLP トレース データを取り込む +further_reading: +- link: https://www.datadoghq.com/about/latest-news/press-releases/datadog-announces-opentelemetry-protocol-support/ + tag: ブログ + text: Agent における OTLP 取り込み +- link: /metrics/open_telemetry/otlp_metric_types + tag: ドキュメント + text: OTLP メトリクス タイプ +- link: /opentelemetry/runtime_metrics/ + tag: ドキュメント + text: OpenTelemetry ランタイム メトリクス +title: Datadog Agent による OTLP 取り込み +--- + + +Agent における OTLP 取り込みは、[OpenTelemetry SDK][1] でインスツルメントされたアプリケーションから Datadog Agent へテレメトリ データを直接送信する方法です。バージョン 6.32.0 および 7.32.0 以降、Datadog Agent は gRPC または HTTP 経由で OTLP トレースと [OTLP メトリクス][2] を取り込めます。バージョン 6.48.0 および 7.48.0 以降、Datadog Agent は gRPC または HTTP 経由で OTLP ログも取り込めます。 + +Agent における OTLP 取り込みにより、Datadog Agent の各種可観測性機能を利用できます。OpenTelemetry SDK でインスツルメントされたアプリケーションのデータは、App and API Protection、Continuous Profiler、Ingestion Rules といった Datadog 独自製品では使用できない場合があります。[一部の言語で OpenTelemetry ランタイム メトリクスがサポートされています][10]。 + +{{< img src="/opentelemetry/setup/dd-agent-otlp-ingest.png" alt="Diagram: OpenTelemetry SDK が OTLP プロトコルでデータを Collector (Datadog Exporter 搭載) に送信し、Collector が Datadog のプラットフォームへ転送する。" style="width:100%;" >}} + +
このセットアップでサポートされる Datadog 機能については、OTel to Datadog Agent (OTLP) セクションにある 機能互換性表 を参照してください。
+ +## 初期セットアップ + +開始するには、まず OpenTelemetry SDK で [アプリケーションをインスツルメント][3] します。次に、テレメトリ データを OTLP 形式で Datadog Agent にエクスポートします。具体的な構成手順は、以下のページで説明するように、サービスがデプロイされているインフラの種類によって異なります。最新の OTLP バージョンとの互換性を目指していますが、Agent における OTLP 取り込みがすべての OTLP バージョンに対応しているわけではありません。Datadog Agent と互換性のある OTLP バージョンは、OpenTelemetry Collector の OTLP Receiver でサポートされているバージョンと一致します。サポートされている正確なバージョンを確認するには、Agent の `go.mod` ファイル内に記載された `go.opentelemetry.io/collector` のバージョンを確認してください。 + +OpenTelemetry のインスツルメンテーション ドキュメントを参照し、インスツルメンテーションの送信先として Agent を指定する方法を理解してください。以下に記載する `receiver` セクションは、[OpenTelemetry Collector の OTLP Receiver 構成スキーマ][5] に準拠します。 + +
サポートされるセットアップは、OpenTelemetry データを生成する各ホストに取り込み用 Agent をデプロイする方式です。1 つのホストで動作する Collector やインスツルメント済みアプリから、別ホストの Agent に OpenTelemetry テレメトリを送信することはできません。ただし、Agent が Collector または SDK インスツルメント済みアプリと同一ホスト上にある場合は、複数のパイプラインを構成できます。
+ +## Datadog Agent で OTLP 取り込みを有効化する + +{{< tabs >}} +{{% tab "ホスト" %}} + +OTLP 取り込みはデフォルトで無効です。`datadog.yaml` の設定を更新するか、環境変数を設定して有効化できます。以下の `datadog.yaml` の設定は、デフォルト ポートでエンドポイントを有効にします。 + +{{% otel-endpoint-note %}} + +gRPC のデフォルト ポート 4317: + +```yaml +otlp_config: + receiver: + protocols: + grpc: + endpoint: 0.0.0.0:4317 +``` +HTTP のデフォルト ポート 4318: + +```yaml +otlp_config: + receiver: + protocols: + http: + endpoint: 0.0.0.0:4318 +``` + +代替として、環境変数でポートを指定してエンドポイントを構成できます: + +- gRPC (`localhost:4317`): `DD_OTLP_CONFIG_RECEIVER_PROTOCOLS_GRPC_ENDPOINT` +- HTTP (`localhost:4318`): `DD_OTLP_CONFIG_RECEIVER_PROTOCOLS_HTTP_ENDPOINT` + +これらは core Agent と trace Agent の両プロセスに渡す必要があります。コンテナ化された環境で実行している場合は、ローカル以外のインターフェイスでもサーバーを公開できるよう、`localhost` の代わりに `0.0.0.0` を使用してください。 + +本機能には gRPC または HTTP のいずれかを構成してください。両方の構成を示す [サンプル アプリケーション][1] があります。 + +Datadog Agent での OTLP ログ取り込みは、課金に影響する予期せぬログ製品の利用を避けるため、デフォルトで無効になっています。OTLP ログ取り込みを有効にするには: + +1. [Host Agent のログ収集セットアップ][2] に従ってログ収集全体を明示的に有効にします: + + ```yaml + logs_enabled: true + ``` + +2. `otlp_config.logs.enabled` を true に設定します: + + ```yaml + otlp_config: + logs: + enabled: true + ``` + +[1]: https://gist.github.com/gbbr/4a54dd02d34ad05e694952e0a02e1c67 +[2]: /ja/agent/logs/ +{{% /tab %}} +{{% tab "Docker" %}} + +1. [Datadog Docker Agent のセットアップ][1] に従ってください。 + +2. Datadog Agent コンテナでは、以下のエンドポイント環境変数を設定し、対応するポートを公開します: + - gRPC: `DD_OTLP_CONFIG_RECEIVER_PROTOCOLS_GRPC_ENDPOINT` を `0.0.0.0:4317` に設定し、ポート `4317` を公開します。 + - HTTP: `DD_OTLP_CONFIG_RECEIVER_PROTOCOLS_HTTP_ENDPOINT` を `0.0.0.0:4318` に設定し、ポート `4318` を公開します。 + +3. OTLP ログ取り込みを有効にする場合は、Datadog Agent コンテナで次の環境変数を設定します: + - `DD_LOGS_ENABLED` を true に設定します。 + - `DD_OTLP_CONFIG_LOGS_ENABLED` を true に設定します。 + +
+既知の問題: Agent バージョン 7.61.0 以降、Docker 環境で OTLP 取り込みパイプラインの起動に失敗し、次のエラーが表示される場合があります: Error running the OTLP ingest pipeline: failed to register process metrics: process does not exist.

+該当バージョンを使用している場合は、次のいずれかの回避策を使用できます:

+1. Agent の Docker コンテナで、環境変数 HOST_PROC/proc に設定します。
+2. Agent の Docker コンテナで、volumes から /proc/:/host/proc/:ro を削除します。
+3. Agent の Docker コンテナで、pidhost に設定します。

+これらの設定は、docker コマンドまたは Docker compose ファイルのいずれかで適用できます。
+ +[1]: /ja/agent/docker/ +{{% /tab %}} +{{% tab "Kubernetes (Daemonset)" %}} + +1. [Kubernetes Agent のセットアップ][1] に従ってください。 + +2. trace Agent コンテナと core Agent コンテナの両方で、次の環境変数を構成します: + + gRPC の場合: + ``` + name: DD_OTLP_CONFIG_RECEIVER_PROTOCOLS_GRPC_ENDPOINT # enables gRPC receiver on port 4317 + value: "0.0.0.0:4317" + ``` + + HTTP の場合: + ``` + name: DD_OTLP_CONFIG_RECEIVER_PROTOCOLS_HTTP_ENDPOINT # enables HTTP receiver on port 4318 + value: "0.0.0.0:4318" + ``` +3. core Agent コンテナでは、コンテナ ポート 4317 または 4318 をホスト ポートにマッピングします: + + gRPC の場合: + ``` + ports: + - containerPort: 4317 + hostPort: 4317 + name: traceportgrpc + protocol: TCP + ``` + + HTTP の場合: + ``` + ports: + - containerPort: 4318 + hostPort: 4318 + name: traceporthttp + protocol: TCP + ``` + +4. OTLP ログ取り込みを有効にする場合は、core Agent コンテナで次のエンドポイント 環境変数を設定します: + + [DaemonSet でのログ収集][2] を有効化します: + ``` + name: DD_LOGS_ENABLED + value: "true" + ``` + + 続いて OTLP ログ取り込みを有効化します: + ``` + name: DD_OTLP_CONFIG_LOGS_ENABLED + value: "true" + ``` + +[1]: /ja/agent/kubernetes/?tab=daemonset +[2]: /ja/containers/guide/kubernetes_daemonset/#log-collection +{{% /tab %}} + +{{% tab "Kubernetes (Helm) - values.yaml" %}} + +1. [Kubernetes Agent のセットアップ][1] に従ってください。 + +2. `values.yaml` ファイルの `datadog.otlp` セクションを編集して、Agent で OTLP エンドポイントを有効化します: + + gRPC の場合: + ``` + otlp: + receiver: + protocols: + grpc: + endpoint: 0.0.0.0:4317 + enabled: true + ``` + + HTTP の場合: + ``` + otlp: + receiver: + protocols: + http: + endpoint: 0.0.0.0:4318 + enabled: true + ``` + +これにより、各プロトコルがデフォルト ポートで有効になります (OTLP/gRPC は `4317`、OTLP/HTTP は `4318`)。 + + +[1]: /ja/agent/kubernetes/?tab=helm +{{% /tab %}} + +{{% tab "Kubernetes (Helm) - set" %}} + +1. [Kubernetes Agent のセットアップ][1] に従ってください。 + +2. 使用したいプロトコルを有効化します: + + gRPC の場合: + ``` + --set "datadog.otlp.receiver.protocols.grpc.enabled=true" + ``` + HTTP の場合: + ``` + --set "datadog.otlp.receiver.protocols.http.enabled=true" + ``` + +これにより、各プロトコルがデフォルト ポートで有効になります (OTLP/gRPC は `4317`、OTLP/HTTP は `4318`)。 + +[1]: /ja/agent/kubernetes/?tab=helm +{{% /tab %}} +{{% tab "Kubernetes (Operator)" %}} + +1. [Kubernetes Agent のセットアップ][1] に従ってください。 + +2. Operator のマニフェストで、使用するプロトコルを有効化します: + + gRPC の場合: + ```yaml + features: + otlp: + receiver: + protocols: + grpc: + enabled: true + ``` + HTTP の場合: + ```yaml + features: + otlp: + receiver: + protocols: + http: + enabled: true + ``` + +これにより、各プロトコルがデフォルト ポートで有効になります (OTLP/gRPC は `4317`、OTLP/HTTP は `4318`)。 + +[1]: /ja/agent/kubernetes/?tab=helm +{{% /tab %}} +{{% tab "AWS Lambda" %}} + +AWS Lambda と Datadog で OpenTelemetry を使用するための詳細な手順 (次を含む): + +- OpenTelemetry を用いた Lambda 関数のインスツルメンテーション +- Datadog トレーサーにおける OpenTelemetry API サポートの利用 +- Datadog Lambda Extension への OpenTelemetry トレースの送信 + +詳細は、Serverless ドキュメントの [AWS Lambda と OpenTelemetry][100] を参照してください。 + +[100]: /ja/serverless/aws_lambda/opentelemetry/ +{{% /tab %}} +{{< /tabs >}} + +Datadog Agent でサポートされる環境変数や設定は、ほかにも多数あります。全体像については、[設定テンプレート][6] を参照してください。 + +## OpenTelemetry のトレース、メトリクス、ログを Datadog Agent に送信する + +{{< tabs >}} +{{% tab "Docker" %}} +1. アプリケーション コンテナで、Datadog Agent コンテナを指すように環境変数 `OTEL_EXPORTER_OTLP_ENDPOINT` を設定します。例: + + ``` + OTEL_EXPORTER_OTLP_ENDPOINT=http://:4318 + ``` + +2. 両コンテナは同じブリッジ ネットワーク内に定義されている必要があります。Docker Compose を使用している場合は自動的に処理されます。そうでない場合は、[Docker アプリケーションのトレーシング][1] の Docker の例に従って、適切なポートを開けたブリッジ ネットワークを設定してください。 + +[1]: /ja/agent/docker/apm/#docker-network +{{% /tab %}} + +{{% tab "Kubernetes" %}} + +アプリケーションのデプロイメント ファイルで、環境変数 `OTEL_EXPORTER_OTLP_ENDPOINT` を用いて、OpenTelemetry クライアントがトレースを送信するエンドポイントを構成します。 + +gRPC の場合: +```yaml +env: + - name: HOST_IP + valueFrom: + fieldRef: + fieldPath: status.hostIP + - name: OTEL_EXPORTER_OTLP_ENDPOINT + value: "http://$(HOST_IP):4317" # ポート 4317 の gRPC レシーバーに送信 +``` + +HTTP の場合: +```yaml +env: + - name: HOST_IP + valueFrom: + fieldRef: + fieldPath: status.hostIP + - name: OTEL_EXPORTER_OTLP_ENDPOINT + value: "http://$(HOST_IP):4318" # ポート 4318 の HTTP レシーバーに送信 +``` +**注**: カスタム メトリクスのコンテナ タグを充実させるには、OTLP メトリクスを生成するアプリケーション コード内で適切なリソース 属性を設定してください。例えば、`container.id` リソース 属性に Pod の UID を設定します。 + +{{% /tab %}} +{{< /tabs >}} + +
トレースの送信先エンドポイントを構成する際は、使用している OTLP ライブラリが要求する正しいパスを指定してください。ライブラリによっては、トレースの送信先を /v1/traces パスに期待するものもあれば、ルート パス / を使用するものもあります。
+ +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://opentelemetry.io/docs/instrumentation/ +[2]: /ja/metrics/open_telemetry/otlp_metric_types/ +[3]: https://opentelemetry.io/docs/concepts/instrumenting/ +[4]: https://github.com/DataDog/datadog-agent/blob/main/CHANGELOG.rst +[5]: https://github.com/open-telemetry/opentelemetry-collector/blob/main/receiver/otlpreceiver/config.md +[6]: https://github.com/DataDog/datadog-agent/blob/main/pkg/config/config_template.yaml +[10]: /ja/opentelemetry/runtime_metrics/ \ No newline at end of file diff --git a/content/ja/software_catalog/service_definitions/v3-0.md b/content/ja/software_catalog/service_definitions/v3-0.md new file mode 100644 index 0000000000000..ff25995f9e5bc --- /dev/null +++ b/content/ja/software_catalog/service_definitions/v3-0.md @@ -0,0 +1,396 @@ +--- +aliases: +- /ja/service_catalog/service_definitions/v3-0 +further_reading: +- link: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/service_definition_yaml + tag: 外部サイト + text: Terraform を用いた定義の作成および管理 +- link: /api/latest/service-definition/ + tag: API + text: Definition API について +- link: /integrations/github + tag: ドキュメント + text: GitHub インテグレーションについて +- link: https://www.datadoghq.com/blog/service-catalog-backstage-yaml/ + tag: ブログ + text: Backstage の YAML ファイルを Datadog にインポート +- link: https://www.datadoghq.com/blog/service-catalog-schema-v3/ + tag: ブログ + text: Service Catalog スキーマ v3.0 で開発者体験とコラボレーションを向上 +title: 定義スキーマ v3.0 +--- + +## 概要 + +スキーマ v3.0 は、柔軟性と詳細な定義を提供するために、いくつかの新機能と拡張を導入します。 + +## 主な特徴 + +- **拡張されたデータ モデル**: v3.0 は複数種のエンティティをサポートします。システム、サービス、キュー、データ ストアなどのさまざまなコンポーネントでシステムを編成できます。 + +- **複数所有者**: v3.0 スキーマで定義した任意のオブジェクトに複数の所有者を割り当て、複数の連絡先を指定できます。 + +- **関係性のマッピング強化**: APM と USM のデータにより、コンポーネント間の依存関係を自動検出できます。v3.0 では、自動検出されたシステム トポロジーを補強するための手動宣言をサポートし、システム内でコンポーネントがどのように相互作用するかの全体像を把握できます。 + +- **システム メタデータの継承**: システム内のコンポーネントは、そのシステムのメタデータを自動的に継承します。v2.1 や v2.2 のときのように、関連コンポーネントそれぞれにメタデータを一つずつ宣言する必要はありません。 + +- **コード ロケーションの明確化**: サービスのコード ロケーションのマッピングを追加できます。v3.0 の `codeLocations` セクションでは、コードを含むリポジトリと、その関連する `paths` を指定します。`paths` 属性は、リポジトリ内のパスにマッチさせるための [グロブ][4] のリストです。 + +- **(プレビュー) カスタム エンティティ**: Service、System、Datastore、Queue、API 以外のカスタムなエンティティ タイプを定義できます。スコアカードやアクションの適用範囲を特定のエンティティ タイプに限定できます。 + +- **(プレビュー) インテグレーション**: サードパーティ ツールと連携し、コンポーネントに関連する情報を動的に取り込めます (例: GitHub の pull request、PagerDuty のインシデント、GitLab のパイプライン)。任意のサードパーティ ソースに対してレポートし、スコアカード ルールを作成できます。 + +- **(プレビュー) 製品またはドメインでのグループ化**: コンポーネントを製品別に整理し、複数層の階層グループ化を可能にします。 + +{{< callout url="https://forms.gle/fwzarcSww6By7tn39" d_target="#signupModal" btn_hidden="false" header="Software Catalog の最新バージョンの Preview にオプトイン" >}} +{{< /callout >}} + +## メタデータ スキーマ v3.0 + +Entity Definition Schema は、エンティティの基本情報を格納する構造体です。[GitHub にあるフルスキーマ][1]を参照してください。 + +
v3.0 では、更新された公開スキーマの用語に合わせ、ドキュメント内の application フィールドは system に置き換えられました。
+ +### `kind:system` の YAML 例 +{{< code-block lang="yaml" filename="entity.datadog.yaml" collapsible="true" >}} +apiVersion: v3 +kind: system +metadata: + name: myapp + displayName: My App + tags: + - tag:value + links: + - name: shopping-cart runbook + type: runbook + url: https://runbook/shopping-cart + - name: shopping-cart architecture + provider: gdoc + url: https://google.drive/shopping-cart-architecture + type: doc + - name: shopping-cart Wiki + provider: wiki + url: https://wiki/shopping-cart + type: doc + - name: shopping-cart source code + provider: github + url: http://github/shopping-cart + type: repo + contacts: + - name: Support Email + type: email + contact: team@shopping.com + - name: Support Slack + type: slack + contact: https://www.slack.com/archives/shopping-cart + owner: myteam + additionalOwners: + - name: opsTeam + type: operator +integrations: + pagerduty: + serviceURL: https://www.pagerduty.com/service-directory/Pshopping-cart + opsgenie: + serviceURL: https://www.opsgenie.com/service/shopping-cart + region: US +spec: + components: + - service:myservice + - service:otherservice +extensions: + datadoghq.com/shopping-cart: + customField: customValue +datadog: + codeLocations: + - repositoryURL: https://github.com/myorganization/myrepo.git + paths: + - path/to/service/code/** + events: + - name: "deployment events" + query: "app:myapp AND type:github" + - name: "event type B" + query: "app:myapp AND type:github" + logs: + - name: "critical logs" + query: "app:myapp AND type:github" + - name: "ops logs" + query: "app:myapp AND type:github" + pipelines: + fingerprints: + - fp1 + - fp2 +{{< /code-block >}} + +### `kind:custom.library` の YAML 例 +{{< code-block lang="yaml" filename="entity.datadog.yaml" collapsible="true" >}} +apiVersion: v3 +kind: custom.library +metadata: + name: my-library + displayName: My Library + tags: + - tag:value + links: + - name: shopping-cart runbook + type: runbook + url: https://runbook/shopping-cart + - name: shopping-cart architecture + provider: gdoc + url: https://google.drive/shopping-cart-architecture + type: doc + - name: shopping-cart Wiki + provider: wiki + url: https://wiki/shopping-cart + type: doc + - name: shopping-cart source code + provider: github + url: http://github/shopping-cart + type: repo + contacts: + - name: Support Email + type: email + contact: team@shopping.com + - name: Support Slack + type: slack + contact: https://www.slack.com/archives/shopping-cart + owner: myteam + additionalOwners: + - name: opsTeam + type: operator +{{< /code-block >}} + +### 複数のシステムに属する共通コンポーネントの指定 +1 つのコンポーネントが複数のシステムに属する場合は、各システムの YAML にそのコンポーネントを記述する必要があります。たとえば、データ ストア `orders-postgres` が postgres フリートと Web アプリケーションの両方のコンポーネントである場合は、2 つの YAML を用意します: + +postgres フリート (`managed-postgres`) には、`kind:system` の定義を記述します: +{{< code-block lang="yaml" filename="entity.datadog.yaml" collapsible="true" >}} +apiVersion: v3 +kind: system +spec: + components: + - datastore:orders-postgres + - datastore:foo-postgres + - datastore:bar-postgres +metadata: + name: managed-postgres + owner: db-team +{{< /code-block >}} + +Web アプリケーション (`shopping-cart`) には、別の `kind:system` 定義を宣言します: + +{{< code-block lang="yaml" filename="entity.datadog.yaml" collapsible="true" >}} +apiVersion: v3 +kind: system +spec: + lifecycle: production + tier: critical + components: + - service:shopping-cart-api + - service:shopping-cart-processor + - queue:orders-queue + - datastore:orders-postgres +metadata: + name: shopping-cart + owner: shopping-team + additionalOwners: + - name: sre-team + type: operator +--- +apiVersion: v3 +kind: datastore +metadata: + name: orders-postgres + additionalOwners: + - name: db-team + type: operator +--- +apiVersion: v3 +kind: service +metadata: + name: shopping-cart-api +--- +apiVersion: v3 +kind: service +metadata: + name: shopping-cart-processor +--- +{{< /code-block >}} + +### 明示的・暗黙的なメタデータの継承 + +#### 明示的継承 +{{< code-block lang="yaml" filename="entity.datadog.yaml" collapsible="true" >}} +inheritFrom:: +{{< /code-block >}} + +`inheritFrom` フィールドは、`:` で参照されるエンティティのメタデータを継承するように取り込みパイプラインに指示します。 + +#### 暗黙的継承 +コンポーネント(`kind:service`、`kind:datastore`、`kind:queue`、`kind:ui`)は、次の条件を満たす場合に、所属するシステムのすべてのメタデータを継承します: +- YAML ファイル内で定義されているシステムが 1 つだけであること。 +- YAML ファイルに `inheritFrom::` という句が存在しないこと。 + +### v3.0 の API エンドポイント +v3.0 の API エンドポイントについては、最新の [API ドキュメント][5] を参照してください。 + +## スキーマ概要 +[GitHub 上のスキーマ定義全文][1] を参照できます。以下はスキーマ構造の概要です: +- `api_version`: スキーマのバージョン (2.0、2.1、3.0)。 +- `kind`: 新しいフィールドで、コンポーネントの種類を定義します (service、queue、datastore、system、API)。 +- `metadata`: 命名、説明、所有者、リンク (ドキュメント、ランブック、リポジトリ、連絡先、ダッシュボード)、およびタグを含みます。 +- `spec`: 階層、ライフサイクル、言語、タイプ、他コンポーネントとの関係を含みます。 +- `integrations`: PagerDuty と OpsGenie への接続を含みます。 +- `datadog`: コード ロケーション、パイプライン、ログ、イベントなど、他の Datadog データへのフィルターやリンク方法を含みます。 + +### v3.0 への移行 +v3.0 は、従来バージョンと同じメタデータ作成方法をサポートします (GitHub、API、Terraform、Backstage、ServiceNow、UI など)。ただし、v3.0 には新しい [API エンドポイント][5] と新しい [Terraform モジュール][6] があります。 + +[GitHub 上のスキーマ定義全文][1] も参照できます。v3.0 では v2.2 から次の変更があります: +- `schema_version` は `apiVersion` になりました。 +- `kind` フィールドが新設され、コンポーネントの種類 (service、queue、datastore、system、API) を定義します。 +- `dd-service` は `metadata.name` になりました。 +- `team` は `owner` に変更され、チームが複数ある場合は `additionalOwners` が使われます。 +- `lifecycle`、`tier`、`languages`、`type` は `spec` の下になりました。 +- `links`、`contacts`、`description`、`tags` は metadata の下になりました。 +- `application` は強化され、独立した kind である `system` になりました。サービス上の個別フィールドとしては存在しません。 + +## Software Catalog の System ページと API ページ + +`kind:system` と `kind:api` のエンティティを定義すると、service、queue、datastore、endpoint を含むエンティティの階層的なグルーピングが作成されます。システムまたは API 内のコンポーネントを定義するには、エンティティの v3 定義の `spec` フィールドにある `components` キーに値を指定します。 + +`kind:system` の YAML 例: +{{< code-block lang="yaml" filename="entity.datadog.yaml" collapsible="true" >}} +apiVersion: v3 +kind: system +metadata: + name: product-recommendation + description: Surfaces personalized product suggestions in Shopist + displayName: "Product Recommendation" + tags: + - product:recommendations + - business-line:shared-components + owner: shopist + additionalOwners: + - name: Shopist Support Team + type: Operator +spec: + lifecycle: production + tier: "0" + components: + - service: product-recommendation + - service: orders-app + - api: products + - system: shopist-user-trends +{{< /code-block >}} + +上記のユーザー定義のシステムは、以下のとおり Software Catalog に表示されます。このページには、システムと上流/下流の依存関係の間のコンポーネントの関係データに加えて、すべてのシステム コンポーネントを横断して集計されたスコア カード、ログ、イベントが保持されます。 + +{{< img src="/tracing/software_catalog/product-rec-systemV3.png" alt="Software Catalog の Product Recommendations システムの System ページ" style="width:90%;" >}} + +`kind:api` の YAML 例: +{{< code-block lang="yaml" filename="entity.datadog.yaml" collapsible="true" >}} +{ + "apiVersion": "v3", + "kind": "api", + "metadata": { + "name": "payments", + "displayName": "Payments", + "owner": "Payments Team", + "links": [ + { + "name": "Deployment Information", + "type": "doc", + "url": "https://wiki/products +" + }, + { + "name": "Source", + "type": "repo", + "provider": "github", + "url": "https://github.com/" + }, + { + "name": "Performance Dashboard", + "type": "dashboard", + "url": "https://datadoghq.com" + } + ] + }, + "integrations": { + "pagerduty": { + "serviceURL": "https://www.pagerduty.com/service-directory/products" + } + }, + "spec": { + "type": "openapi", + "implementedBy": [ + "service:payment", + "service:payments-go" + ], + "interface": { + "definition": { + "info": { + "title": "Payments" + }, + "openapi": "3.0.0", + "paths": { + "/add_item": { + "post": { + "responses": { + "200": { + "description": "OK" + } + } + } + }, + "/add_purchases": { + "post": { + "responses": { + "200": { + "description": "OK" + } + } + } + }, + "/admin/update_user": { + "post": { + "responses": { + "200": { + "description": "OK" + } + } + } + }, + "/carts": { + "get": { + "responses": { + "200": { + "description": "OK" + } + } + } + } + } + } + }, + "lifecycle": "production", + "tier": "Tier 0" + } +} +{{< /code-block >}} + +ユーザー定義の API は、以下のとおり Software Catalog に表示されます。このページには、API が依存関係とどのように相互作用するかに関する関係データ、API コンポーネント、OpenAPI プレビュー、そして全エンド ポイントを横断して集計されたログとイベントが含まれます。 + +{{< img src="/tracing/software_catalog/api-page-v3.png" alt="Software Catalog の Payments API の API ページ" style="width:90%;" >}} + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://github.com/DataDog/schema/tree/main/service-catalog/v3 +[2]: https://github.com/DataDog/schema/tree/main/service-catalog +[3]: /ja/code_analysis/faq/#identifying-the-code-location-in-the-service-catalog +[4]: https://en.wikipedia.org/wiki/Glob_(programming) +[5]: /ja/api/latest/software-catalog/ +[6]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/software_catalog +[7]: software_catalog/customize/import_entries_backstage \ No newline at end of file diff --git a/content/ja/synthetics/explore/results_explorer/search_runs.md b/content/ja/synthetics/explore/results_explorer/search_runs.md new file mode 100644 index 0000000000000..37a644d842027 --- /dev/null +++ b/content/ja/synthetics/explore/results_explorer/search_runs.md @@ -0,0 +1,272 @@ +--- +aliases: +- /ja/continuous_testing/explorer/search_runs/ +description: すべてのテスト実行を調査し、失敗したテスト結果のトラブルシューティングを行います。 +further_reading: +- link: /synthetics/explore/results_explorer + tag: ドキュメント + text: Learn about the Synthetic Monitoring & Testing Results Explorer +title: テスト実行の検索 +--- + +## 概要 + +右上のドロップダウンメニューから時間帯を選択した後、[Synthetic Monitoring & Testing Results Explorer][1] の **Test Runs** イベントタイプをクリックすると、テスト実行を検索することができます。 + +{{< img src="continuous_testing/explorer/explorer_test_runs_2.png" alt="Synthetic Monitoring & Testing Results Explorer でテスト実行を検索・管理する" style="width:100%;">}} + +ファセットを使用すると、以下のアクションを実行できます。 + +- 再試行を必要とする最新のテスト実行を観測します。 +- 失敗した API テスト実行を HTTP ステータスコードで集計し、傾向をプロットします。 + +## ファセットの確認 + +左側のファセットパネルには、テスト実行を検索するために使用できる複数のファセットが表示されます。検索クエリのカスタマイズを開始するには、**Common** で始まるファセットリストをクリックします。 + +### Common テスト実行属性 + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
ファセット説明
Batch IDテスト実行に関連付けられたバッチ ID
Execution RuleCI バッチのテスト結果に関連付けられた実行ルール: Blocking, Non Blocking, Skipped
Locationバッチのテスト結果に関連付けられたロケーション
Passedテスト実行の全体的なステータス
Run Typeテスト実行の種別。scheduled, CI, または manually triggered のいずれか
Failure Codeテスト失敗の理由を示すコード
Test Type実行されるテストの種類
Test Subtypeテストの特定のサブタイプ
Location Versionプライベート テスト ロケーションのバージョン
Location Platformプライベート ロケーションのプラットフォーム名
Test IDテストの識別子
Failure Message失敗の詳細メッセージ
Result Retry Numberテストの再試行回数
Test Finished Atテストの終了時刻のタイムスタンプ
Test Started Atテストの開始時刻のタイムスタンプ
Test Triggered Atテストのトリガー時刻のタイムスタンプ
Test Will Retry Atテストの次回再試行時刻のタイムスタンプ
Trace ID追跡用のトレース ID
Open Telemetry IDOpen Telemetry の識別子
Variable Nameテストで使用される変数名
+ +## Timings 属性 + +**Timings** ファセットでは、API テスト実行のタイミングに関連する属性でフィルターをかけることができます。 + +| ファセット | 説明 | +|----------------|-----------------------------------------------------------------| +| `DNS` | API テスト実行のための DNS 名解決に費やされた時間。 | +| `ダウンロード` | API テスト実行で、レスポンスのダウンロードにかかった時間。 | +| `First Byte` | API テスト実行で、レスポンスの 1 バイト目を受信するまでにかかった時間。 | +| `Open` | WebSocket テスト実行で、WebSocket が開かれたままの全体の時間。 | +| `Received` | WebSocket テスト実行で、WebSocket 接続がデータの受信に費やした全体の時間。 | +| `TCP` | API テスト実行のための TCP 接続の確立にかかった時間。 | +| `Total` | API テスト実行の総レスポンスタイム。 | + +### HTTP 属性 + +**HTTP** ファセットを使用すると、HTTP 属性でフィルタリングできます。 + +| ファセット | 説明 | +|------------------------|---------------------------------------------| +| `HTTP Status Code` | テスト実行の HTTP ステータスコード。 | + +### gRPC 属性 + +**gRPC** ファセットは、gRPC テスト実行に関連するものです。 + +| ファセット | 説明 | +|-------------------------|------------------------------------------------------------------------| +| `Health Check Status` | gRPC テストのヘルスチェックのステータス。ステータスは `Serving` または `Failing` です。 | + +### SSL 属性 + +**SSL** ファセットは、SSL テスト実行に関連するものです。 + +| ファセット | 説明 | +|-----------|------------------------------------------------------------------| +| `AltNames`| SSL 証明書に関連付けられた代替レコード名。 | + +### TCP 属性 + +**TCP** ファセットは、テスト実行中の TCP 接続に関連するものです。 + +| ファセット | 説明 | +|-----------------------|---------------------------------------------------------------------------------------| +| Connection Outcome | TCP 接続のステータス。結果は `established`、`timeout`、または `refused` となります。 | + +### Devices 属性 + +**Devices** ファセットは、テスト実行で使用されたデバイスに関連します。 + +| ファセット | 説明 | +|--------------------------|--------------------------------------------------------------| +| `Device Name` | テストで使用したデバイスの名前。 | +| `Device Resolution Width`| デバイスの解像度の幅。 | +| `Device Resolution Height`| デバイスの解像度の高さ。 | +| `Device Type` | テストで使用したデバイスの種類。 | + +### Browser 属性 + +**Browser** ファセットは、ブラウザー テストに関連します。 + +| ファセット | 説明 | +|------------------------|-----------------------------------------------------------------| +| `Browser Type` | テストで使用したブラウザーの種類。 | +| `Browser Version` | 使用したブラウザーのバージョン。 | +| `Browser User Agent` | 使用したブラウザーのユーザー エージェント。 | + +### API 属性 + +**API** ファセットは、API テスト実行に関連します。 + +| ファセット | 説明 | +|-------------------------------|-------------------------------------------------------------| +| `Resolved IP` | DNS 解決で得られた IP。 | +| `DNS Resolution Server` | DNS 解決に使用されたサーバー。 | +| `Request Body` | HTTP リクエストの本文。 | +| `Request Headers` | HTTP リクエストのヘッダー。 | +| `Request Host` | HTTP リクエストの Host ヘッダー。 | +| `Request Message` | HTTP リクエストのメッセージ。 | +| `Request Metadata` | HTTP リクエストに関連するメタ データ。 | +| `Request URL` | HTTP リクエストの URL。 | +| `Response Body` | HTTP レスポンスの本文。 | +| `Body Size` | レスポンス本文のサイズ。 | +| `Cache Headers Server` | レスポンスのキャッシュ ヘッダーに含まれる Server。 | +| `Cache Headers Vary` | レスポンスのキャッシュ ヘッダーに含まれる Vary。 | +| `Cache Headers Via` | レスポンスのキャッシュ ヘッダーに含まれる Via。 | +| `CDN Provider` | レスポンス配信に使用された CDN プロバイダー。 | +| `Response Close Status Code` | レスポンス クローズ時のステータス コード。 | +| `Response Is Body Truncated` | レスポンス本文がトランケートされたかどうかを示します。 | +| `Response Is Message Truncated`| レスポンス メッセージがトランケートされたかどうかを示します。 | +| `Response Message` | HTTP レスポンスのメッセージ。 | +| `Response Metadata` | HTTP レスポンスに関連するメタ データ。 | +| `Response Close Reason` | レスポンス クローズの理由。 | +| `Response Redirects` | レスポンス内のリダイレクト情報。 | +| `Response Status Code` | テスト実行の HTTP ステータスコード。 | +| `Healthcheck Message Service` | ヘルス チェック メッセージ サービスに関する情報。 | +| `Handshake Request Message` | ハンドシェイク リクエスト時のメッセージ。 | +| `Handshake Response Headers` | ハンドシェイク レスポンス時のヘッダー。 | +| `Handshake Response Status Code` | ハンドシェイク レスポンス時のステータス コード。 | + +### Mobile 属性 + +**Mobile** ファセットは、モバイル テストに関連します。 + +| ファセット | 説明 | +|---------------------------|-------------------------------------------------------------| +| `Mobile Platform` | モバイル デバイスのプラットフォーム名。 | +| `Mobile Application` | モバイル アプリケーションのバージョン ID。 | +| `Mobile Platform Version` | モバイル プラットフォームのバージョン。 | +| `Device Resolution Pixel Ratio` | デバイス ディスプレイのピクセル比。 | + +### Continuous Testing 属性 + +**Continuous Testing** ファセットは、継続的テストに関連します。 + +| ファセット | 説明 | +|--------------------------|-------------------------------------------------------------------------------| +| `Concurrency Wait Time` | 同時実行の待機時間。 | +| `Git Author Email` | コミット作成者のメール アドレス。 | +| `Git Author Name` | コミット作成者の名前。 | +| `Git Branch` | 使用したリポジトリのブランチ。 | +| `Git URL` | Git リポジトリの URL。 | +| `CI Job Name` | CI ジョブの名前。 | +| `CI Job URL` | CI ジョブの URL。 | +| `CI Pipeline ID` | CI パイプラインの識別子。 | +| `CI Pipeline Name` | CI パイプラインの名前。 | +| `CI Pipeline Number` | CI パイプラインに割り当てられた番号。 | +| `CI Pipeline URL` | CI パイプラインの URL。 | +| `CI Provider Name` | CI プロバイダー名。 | +| `CI Stage Name` | CI プロセス内のステージ名。 | +| `CI Workspace Path` | CI プロセス内のワークスペース パス。 | + +### Step 属性 + +**Step** ファセットは、テスト ステップに関連します。 + +| ファセット | 説明 | +|---------------|--------------------------------| +| `Step ID` | テスト ステップの識別子。 | +| `Step Name` | テスト ステップの名前。 | +| `Step Status` | テスト ステップのステータス。 | + + +再試行されたテストにフィルターをかけるには、`@result.isFastRetry:true` を使用して検索クエリを作成します。また、`@result.isLastRetry:true` フィールドを使用して、再試行が行われたテストの最後の実行を取得することができます。 + +テスト実行の検索については、[検索構文][2]を参照してください。 + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/synthetics/explorer/ +[2]: /ja/continuous_testing/explorer/search_syntax \ No newline at end of file diff --git a/layouts/shortcodes/observability_pipelines/configure_existing_pipelines/install_worker/docker.es.md b/layouts/shortcodes/observability_pipelines/configure_existing_pipelines/install_worker/docker.es.md new file mode 100644 index 0000000000000..9c31cd2efbb95 --- /dev/null +++ b/layouts/shortcodes/observability_pipelines/configure_existing_pipelines/install_worker/docker.es.md @@ -0,0 +1,17 @@ +1. Haz clic en **Select API key** (Seleccionar clave de API) para elegir la clave de API Datadog que quieres utilizar. +1. Ejecuta el comando proporcionado en la interfaz de usuario para instalar el Worker. El comando se rellena automáticamente con las variables de entorno que introdujiste anteriormente. + ```shell + docker run -i -e DD_API_KEY= \ + -e DD_OP_PIPELINE_ID= \ + -e DD_SITE= \ + -e \ + -e \ + -p 8088:8088 \ + datadog/observability-pipelines-worker run + ``` + **Nota**: Por defecto, el comando `docker run` expone el mismo puerto en el que escucha el Worker. Si quieres asignar el puerto del contenedor del Worker a un puerto diferente en el host Docker, utiliza la opción `-p | --publish`: + ``` + -p 8282:8088 datadog/observability-pipelines-worker run + ``` +1. Haz clic en **Navigate Back** (Navegar hacia atrás) para volver a la página de edición de Observability Pipelines. +1. Haz clic en **Deploy Changes** (Desplegar cambios). \ No newline at end of file diff --git a/layouts/shortcodes/observability_pipelines/destination_env_vars/datadog_archives_amazon_s3.es.md b/layouts/shortcodes/observability_pipelines/destination_env_vars/datadog_archives_amazon_s3.es.md new file mode 100644 index 0000000000000..177aeaf314a0f --- /dev/null +++ b/layouts/shortcodes/observability_pipelines/destination_env_vars/datadog_archives_amazon_s3.es.md @@ -0,0 +1 @@ +No hay variables de entorno que configurar. diff --git a/layouts/shortcodes/observability_pipelines/prerequisites/fluent.es.md b/layouts/shortcodes/observability_pipelines/prerequisites/fluent.es.md new file mode 100644 index 0000000000000..d13389e4ecda1 --- /dev/null +++ b/layouts/shortcodes/observability_pipelines/prerequisites/fluent.es.md @@ -0,0 +1,4 @@ +Para utilizar la fuente FluentD o Fluent Bit de Observability Pipelines, necesitas disponer de la siguiente información: + +1. El Observability Pipelines Worker escucha en esta dirección bind para recibir logs de tus aplicaciones. Por ejemplo, `0.0.0.0:8088`. Más adelante, configurarás tus aplicaciones para que envíen logs a esta dirección. +2. Los certificados TLS apropiados y la contraseña que utilizaste para crear tu clave privada si tus forwarders están configurados globalmente para activar SSL. \ No newline at end of file From 3fd1506603cb28e78da27e4678a6cdbaa77725b9 Mon Sep 17 00:00:00 2001 From: "webops-guacbot[bot]" <214537265+webops-guacbot[bot]@users.noreply.github.com> Date: Sun, 12 Oct 2025 15:07:57 +0000 Subject: [PATCH 2/8] Translated file updates --- .../datadog_operator/advanced_install.md | 280 +++ .../datadog_operator/custom_check.md | 168 ++ .../explorer/saved_views.md | 65 + .../continuous_integration/search/_index.md | 84 +- content/es/data_security/_index.md | 16 +- .../setup_postgres/_index.md | 4 +- .../single_step_instrumentation.md | 178 ++ content/es/integrations/appgate_sdp.md | 139 + content/es/integrations/cockroachdb.md | 2238 ++++++++++++++++- content/es/integrations/consul.md | 433 ++-- content/es/integrations/coredns.md | 293 ++- .../es/integrations/delinea_secret_server.md | 216 ++ content/es/integrations/github.md | 507 ++-- content/es/integrations/github_costs.md | 121 + content/es/integrations/glusterfs.md | 181 +- .../es/integrations/google_cloud_bigquery.md | 122 + content/es/integrations/hivemq.md | 382 ++- content/es/integrations/ilert.md | 118 +- content/es/integrations/insightfinder.md | 78 +- content/es/integrations/iocs_dmi4apm.md | 135 + content/es/integrations/jetbrains_ides.md | 101 + content/es/integrations/kitepipe_atomwatch.md | 201 ++ content/es/integrations/linux_audit_logs.md | 207 ++ content/es/integrations/microsoft_sysmon.md | 197 ++ content/es/integrations/okta_workflows.md | 119 + content/es/integrations/shopify.md | 140 ++ content/es/integrations/silverstripe_cms.md | 174 ++ content/es/integrations/sonatype_nexus.md | 182 ++ content/es/integrations/streamnative.md | 153 ++ content/es/integrations/supabase.md | 182 ++ content/es/integrations/temporal.md | 249 ++ ...rend_micro_vision_one_endpoint_security.md | 150 ++ content/es/integrations/wiz.md | 76 +- .../es/metrics/composite_metrics_queries.md | 6 +- .../archive_logs/splunk_tcp.md | 255 +- .../set_up_pipelines/dual_ship_logs/socket.md | 384 +++ .../generate_metrics/google_pubsub.md | 273 +- .../log_volume_control/http_client.md | 97 +- .../log_volume_control/syslog.md | 281 ++- .../sensitive_data_redaction/amazon_s3.md | 119 +- .../sensitive_data_redaction/splunk_hec.md | 277 +- .../split_logs/sumo_logic_hosted_collector.md | 279 +- .../integrations/spark_metrics.md | 39 + .../opentelemetry/mapping/metrics_mapping.md | 51 + .../es/opentelemetry/reference/concepts.md | 37 + content/es/partners/_index.md | 84 +- .../charts/funnel_analysis.md | 138 + .../setup/gcp/cloud-run/python.md | 121 + .../threats/add-user-info.md | 847 +++++++ .../threats/setup/standalone/envoy.md | 118 + .../threats/setup/standalone/ruby.md | 233 ++ .../guide/custom-rules-guidelines.md | 16 +- .../review_remediate/mute_issues.md | 59 +- .../security_graph.md | 56 + .../setup/supported_deployment_types.md | 40 + .../static_analysis/custom_rules/guide.md | 744 ++++++ .../guide/redact_uuids_in_logs.md | 72 + .../workload_protection/setup/agent/docker.md | 50 + .../troubleshooting/threats.md | 233 ++ .../serverless/guide/serverless_warnings.md | 50 +- .../aggregation_key.md | 25 + content/es/software_catalog/customize.md | 156 ++ content/es/synthetics/api_tests/ssl_tests.md | 71 +- content/es/tests/setup/go.md | 147 ++ .../tests/test_impact_analysis/setup/ruby.md | 165 ++ .../custom_instrumentation/nodejs/dd-api.md | 93 +- .../trace_collection/library_config/nodejs.md | 50 +- .../fr/api/latest/reference-tables/_index.md | 3 + content/ja/api/latest/_index.md | 26 +- .../expressions_and_operators.md | 129 + .../threats/security_signals.md | 159 ++ .../guide/monitoring-available-disk-space.md | 39 + data/api/v1/translate_tags.es.json | 20 +- .../source_env_vars/splunk_hec.es.md | 4 + ...atadog_archives_google_cloud_storage.es.md | 1 + .../source_settings/http_client.es.md | 15 + .../source_settings/logstash.es.md | 7 + 77 files changed, 12368 insertions(+), 1590 deletions(-) create mode 100644 content/es/containers/datadog_operator/advanced_install.md create mode 100644 content/es/containers/datadog_operator/custom_check.md create mode 100644 content/es/continuous_delivery/explorer/saved_views.md create mode 100644 content/es/error_tracking/backend/getting_started/single_step_instrumentation.md create mode 100644 content/es/integrations/appgate_sdp.md create mode 100644 content/es/integrations/delinea_secret_server.md create mode 100644 content/es/integrations/github_costs.md create mode 100644 content/es/integrations/google_cloud_bigquery.md create mode 100644 content/es/integrations/iocs_dmi4apm.md create mode 100644 content/es/integrations/jetbrains_ides.md create mode 100644 content/es/integrations/kitepipe_atomwatch.md create mode 100644 content/es/integrations/linux_audit_logs.md create mode 100644 content/es/integrations/microsoft_sysmon.md create mode 100644 content/es/integrations/okta_workflows.md create mode 100644 content/es/integrations/shopify.md create mode 100644 content/es/integrations/silverstripe_cms.md create mode 100644 content/es/integrations/sonatype_nexus.md create mode 100644 content/es/integrations/streamnative.md create mode 100644 content/es/integrations/supabase.md create mode 100644 content/es/integrations/temporal.md create mode 100644 content/es/integrations/trend_micro_vision_one_endpoint_security.md create mode 100644 content/es/observability_pipelines/set_up_pipelines/dual_ship_logs/socket.md create mode 100644 content/es/opentelemetry/integrations/spark_metrics.md create mode 100644 content/es/opentelemetry/mapping/metrics_mapping.md create mode 100644 content/es/opentelemetry/reference/concepts.md create mode 100644 content/es/product_analytics/charts/funnel_analysis.md create mode 100644 content/es/security/application_security/setup/gcp/cloud-run/python.md create mode 100644 content/es/security/application_security/threats/add-user-info.md create mode 100644 content/es/security/application_security/threats/setup/standalone/envoy.md create mode 100644 content/es/security/application_security/threats/setup/standalone/ruby.md create mode 100644 content/es/security/cloud_security_management/security_graph.md create mode 100644 content/es/security/cloud_security_management/setup/supported_deployment_types.md create mode 100644 content/es/security/code_security/static_analysis/custom_rules/guide.md create mode 100644 content/es/security/sensitive_data_scanner/guide/redact_uuids_in_logs.md create mode 100644 content/es/security/workload_protection/setup/agent/docker.md create mode 100644 content/es/security/workload_protection/troubleshooting/threats.md create mode 100644 content/es/service_management/events/pipelines_and_processors/aggregation_key.md create mode 100644 content/es/software_catalog/customize.md create mode 100644 content/es/tests/setup/go.md create mode 100644 content/es/tests/test_impact_analysis/setup/ruby.md create mode 100644 content/fr/api/latest/reference-tables/_index.md create mode 100644 content/ja/ddsql_reference/ddsql_preview/expressions_and_operators.md create mode 100644 content/ja/security/application_security/threats/security_signals.md create mode 100644 content/ko/monitors/guide/monitoring-available-disk-space.md create mode 100644 layouts/shortcodes/observability_pipelines/configure_existing_pipelines/source_env_vars/splunk_hec.es.md create mode 100644 layouts/shortcodes/observability_pipelines/destination_env_vars/datadog_archives_google_cloud_storage.es.md create mode 100644 layouts/shortcodes/observability_pipelines/source_settings/http_client.es.md create mode 100644 layouts/shortcodes/observability_pipelines/source_settings/logstash.es.md diff --git a/content/es/containers/datadog_operator/advanced_install.md b/content/es/containers/datadog_operator/advanced_install.md new file mode 100644 index 0000000000000..31724e4c5092b --- /dev/null +++ b/content/es/containers/datadog_operator/advanced_install.md @@ -0,0 +1,280 @@ +--- +dependencies: +- https://github.com/DataDog/datadog-operator/blob/main/docs/installation.md +title: Instalación de Datadog Operator +--- +Este documento contiene información detallada sobre la instalación del Datadog Operator. Para obtener instrucciones básicas de instalación del Agent en Kubernetes, consulta [Instalar el Agent en Kubernetes][10]. + +## Requisitos previos + +- **Versión >= v1.20.X del clúster de Kubernetes**: los tests se realizaron en versiones >= `1.20.0` de Kubernetes. Se espera que funcione en las versiones `>= v1.11.0`, pero para versiones anteriores el Operator puede no funcionar como se espera debido al soporte limitado de CRD. +- **[Helm][1]** para desplegar el Datadog Operator +- **[CLI de `kubectl`][2]** para instalar el Datadog Agent + + +## Instalación del Datadog Operator con Helm + +Puedes desplegar el Datadog Operator en tu clúster utilizando el [Helm chart de Datadog Operator][3]: + +```shell +helm repo add datadog https://helm.datadoghq.com +helm install my-datadog-operator datadog/datadog-operator +``` + +Para personalizar la configuración del Operator, crea un archivo `values.yaml` que pueda anular los valores predeterminados del Helm chart. + +Por ejemplo: + +```yaml +image: + tag: 1.2.0 +datadogMonitor: + enabled: true +``` + +A continuación, para actualizar la versión de Helm, ejecuta: + +```shell +helm upgrade my-datadog-operator datadog/datadog-operator -f values.yaml +``` + +### Añadir credenciales + +1. Crea un secreto de Kubernetes que contenga tus claves de API y de aplicación. + + ``` + export DD_API_KEY= + export DD_APP_KEY= + + kubectl create secret generic datadog-operator-secret --from-literal api-key=$DD_API_KEY --from-literal app-key=$DD_APP_KEY + ``` + +2. Haz referencia a este secreto en tu archivo `values.yaml`. + + ```yaml + apiKeyExistingSecret: datadog-operator-secret + appKeyExistingSecret: datadog-operator-secret + image: + tag: 1.2.0 + datadogMonitor: + enabled: true + ``` + +3. Actualiza la versión de Helm. + + ```shell + helm upgrade my-datadog-operator datadog/datadog-operator -f values.yaml + ``` + +## Instalación del Datadog Operator con Operator Lifecycle Manager + +Las instrucciones para desplegar el Datadog Operator con [Operator Lifecycle Manager][4] (OLM) están disponibles en [operatorhub.io][5]. + +### Anular la configuración predeterminada del Operator con OLM + +El marco [Operator Lifecycle Manager][4] permite anular la configuración predeterminada del Operator. Consulta [Configuración de la suscripción][6] para consultar la lista de los parámetros de configuración de la instalación admitidos. + +Por ejemplo, la siguiente `Subscription` del [Operator Lifecycle Manager][4] cambia los recursos del pod del Datadog Operator: + +```yaml +apiVersion: operators.coreos.com/v1alpha1 +kind: Subscription +metadata: + name: my-datadog-operator + namespace: operators +spec: + channel: stable + name: datadog-operator + source: operatorhubio-catalog + sourceNamespace: olm + config: + resources: + requests: + memory: "250Mi" + cpu: "250m" + limits: + memory: "250Mi" + cpu: "500m" +``` + +### Añadir credenciales + +1. Crea un secreto de Kubernetes que contenga tus claves de API y de aplicación. + + ``` + export DD_API_KEY= + export DD_APP_KEY= + + kubectl create secret generic datadog-operator-secret --from-literal api-key=$DD_API_KEY --from-literal app-key=$DD_APP_KEY + ``` + +2. Añade referencias al secreto en la instancia del recurso `Subscription` del Datadog Operator. + + ```yaml + apiVersion: operators.coreos.com/v1alpha1 + kind: Subscription + metadata: + name: my-datadog-operator + namespace: operators + spec: + channel: stable + name: datadog-operator + source: operatorhubio-catalog + sourceNamespace: olm + config: + env: + - name: DD_API_KEY + valueFrom: + secretKeyRef: + key: api-key + name: datadog-operator-secret + - name: DD_APP_KEY + valueFrom: + secretKeyRef: + key: app-key + name: datadog-operator-secret + ``` + + +## Despliegue del recurso personalizado DatadogAgent gestionado por el Operator + +Después de desplegar el Datadog Operator, crea el recurso `DatadogAgent` que activa el despliegue del Datadog Agent, Cluster Agent y ejecutores de checks de clúster (si se utiliza) en tu clúster de Kubernetes. El Datadog Agent se despliega como un DaemonSet, ejecutando un pod en cada nodo de tu clúster. + +1. Crea un secreto de Kubernetes con tus claves de API y de aplicación. + + ``` + export DD_API_KEY= + export DD_APP_KEY= + + kubectl create secret generic datadog-secret --from-literal api-key= --from-literal app-key= + ``` + +1. Crea un archivo con las especificaciones de tu configuración de despliegue `DatadogAgent`. La configuración más simple es: + + ```yaml + apiVersion: datadoghq.com/v1alpha1 + kind: DatadogAgent + metadata: + name: datadog + spec: + credentials: + apiSecret: + secretName: datadog-secret + keyName: api-key + appSecret: + secretName: datadog-secret + keyName: app-key + ``` + +1. Despliega el Datadog Agent con el archivo de configuración anterior: + ```shell + kubectl apply -f /path/to/your/datadog-agent.yaml + ``` + +En un clúster con dos nodos de worker, deberías ver los pods del Agent creados en cada nodo. + +```console +$ kubectl get daemonset +NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE +datadog-agent 2 2 2 2 2 5m30s + +$ kubectl get pod -owide +NAME READY STATUS RESTARTS AGE IP NODE +agent-datadog-operator-d897fc9b-7wbsf 1/1 Running 0 1h 10.244.2.11 kind-worker +datadog-agent-k26tp 1/1 Running 0 5m59s 10.244.2.13 kind-worker +datadog-agent-zcxx7 1/1 Running 0 5m59s 10.244.1.7 kind-worker2 +``` + +### Tolerancias + +Actualiza tu [archivo `datadog-agent.yaml`][8] con la siguiente configuración para añadir tolerancias en la `Daemonset.spec.template` de tu DaemonSet: + + ```yaml + apiVersion: datadoghq.com/v1alpha1 + kind: DatadogAgent + metadata: + name: datadog + spec: + credentials: + apiSecret: + secretName: datadog-secret + keyName: api-key + appSecret: + secretName: datadog-secret + keyName: app-key + agent: + config: + tolerations: + - operator: Exists + ``` + +Aplica esta nueva configuración: + +```console +$ kubectl apply -f datadog-agent.yaml +datadogagent.datadoghq.com/datadog updated +``` + +Valida la actualización de DaemonSet mirando el nuevo valor de pod `desired`: + +```console +$ kubectl get daemonset +NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE +datadog-agent 3 3 3 3 3 7m31s + +$ kubectl get pod +NAME READY STATUS RESTARTS AGE +agent-datadog-operator-d897fc9b-7wbsf 1/1 Running 0 15h +datadog-agent-5ctrq 1/1 Running 0 7m43s +datadog-agent-lkfqt 0/1 Running 0 15s +datadog-agent-zvdbw 1/1 Running 0 8m1s +``` + +## Configuración + +Para obtener una lista completa de las opciones de configuración, consulta la [especificación de configuración][12]. + +## Instalar el complemento kubectl + +Consulta la [documentación del complemento `kubectl`][11]. + +## Utiliza una imagen personalizada del Datadog Operator + +Consulta las instrucciones para crear una imagen de contenedor personalizada del Datadog Operator basada en una versión oficial en [Imágenes de contenedor personalizadas del Operator][9]. + +### Imágenes del Datadog Operator con Helm charts + +Para instalar una imagen personalizada del Datadog Operator utilizando el Helm chart, ejecuta lo siguiente: + +```shell +helm install my-datadog-operator --set image.repository= --set image.tag= datadog/datadog-operator +``` + +## Limpieza + +El siguiente comando elimina todos los recursos de Kubernetes creados por el Datadog Operator y los `DatadogAgent` `datadog` vinculados. + +```shell +kubectl delete datadogagent datadog +``` + +Este comando muestra `datadogagent.datadoghq.com/datadog deleted`. + +A continuación, puedes eliminar el Datadog Operator con el comando `helm delete`: + +```shell +helm delete my-datadog-operator +``` + +[1]: https://helm.sh +[2]: https://kubernetes.io/docs/tasks/tools/install-kubectl/ +[3]: https://artifacthub.io/packages/helm/datadog/datadog-operator +[4]: https://olm.operatorframework.io/ +[5]: https://operatorhub.io/operator/datadog-operator +[6]: https://github.com/operator-framework/operator-lifecycle-manager/blob/master/doc/design/subscription-config.md +[7]: https://app.datadoghq.com/account/settings#api +[8]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogagent/datadog-agent-with-tolerations.yaml +[9]: https://github.com/DataDog/datadog-operator/blob/main/docs/custom-operator-image.md +[10]: https://docs.datadoghq.com/es/containers/kubernetes/installation +[11]: https://github.com/DataDog/datadog-operator/blob/main/docs/kubectl-plugin.md +[12]: https://github.com/DataDog/datadog-operator/blob/main/docs/configuration.v2alpha1.md \ No newline at end of file diff --git a/content/es/containers/datadog_operator/custom_check.md b/content/es/containers/datadog_operator/custom_check.md new file mode 100644 index 0000000000000..cfb2d211a5871 --- /dev/null +++ b/content/es/containers/datadog_operator/custom_check.md @@ -0,0 +1,168 @@ +--- +dependencies: +- https://github.com/DataDog/datadog-operator/blob/main/docs/custom_check.md +title: Checks personalizados +--- +Para ejecutar un [check personalizado][1], puedes configurar el recurso `DatadogAgent` para proporcionar checks personalizados (`checks.d`) y sus correspondientes archivos de configuración (`conf.d`) en el momento de la inicialización. Debes configurar un recurso ConfigMap para cada archivo de script de check y su archivo de configuración. + +En esta página, se explica cómo configurar un check personalizado, `hello`, que envía una métrica `hello.world` a Datadog. + +Para saber más sobre checks en el ecosistema de Datadog, consulta [Introducción a integraciones][2]. Para configurar un [integración de Datadog][3], consulta [Kubernetes e integraciones][4]. + +## Crear los archivos de check + +Cada check necesita un archivo de configuración (`hello.yaml`) y un archivo de script (`hello.py`). + +1. Crea `hello.yaml` con el siguiente contenido: + + ```yaml + init_config: + + instances: [{}] + ``` + +2. Crea `hello.py` con el siguiente contenido: + + ```python + from datadog_checks.base import AgentCheck + + __version__ = "1.0.0" + class HelloCheck(AgentCheck): + def check(self, instance): + self.gauge('hello.world', 1, tags=['env:dev']) + ``` + +## Crear los ConfigMaps del check + +Después de crear los archivos del check `hello`, crea los ConfigMaps asociados: + +1. Crea el ConfigMap para el archivo de configuración YAML del check personalizado `hello.yaml`: + + ```bash + $ kubectl create configmap -n $DD_NAMESPACE confd-config --from-file=hello.yaml + configmap/confd-config created + ``` + +2. Comprueba que el ConfigMap se ha creado correctamente: + + ```bash + $ kubectl get configmap -n $DD_NAMESPACE confd-config -o yaml + apiVersion: v1 + data: + hello.yaml: | + init_config: + + instances: [{}] + kind: ConfigMap + metadata: + name: confd-config + namespace: datadog + ``` + +3. Crea el ConfigMap para el archivo Python del check personalizado `hello.py`: + + ```bash + $ kubectl create configmap -n $DD_NAMESPACE checksd-config --from-file=hello.py + configmap/checksd-config created + ``` + +4. Comprueba que el ConfigMap se ha creado correctamente: + + ```bash + $ kubectl get configmap -n $DD_NAMESPACE checksd-config -o yaml + apiVersion: v1 + data: + hello.py: | + from datadog_checks.base import AgentCheck + + __version__ = "1.0.0" + class HelloCheck(AgentCheck): + def check(self, instance): + self.gauge('hello.world', 1, tags=['env:dev']) + kind: ConfigMap + metadata: + name: checksd-config + namespace: datadog + ``` + +## Configurar el Datadog Agent + +Después de crear tus ConfigMaps, crea un recurso `DatadogAgent` para utilizarlos: + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + credentials: + apiKey: "" + appKey: "" + override: + nodeAgent: + extraConfd: + configMap: + name: confd-config + extraChecksd: + configMap: + name: checksd-config +``` + +**Nota**: Cualquier ConfigMap que crees debe estar en el mismo `DD_NAMESPACE` que el recurso `DatadogAgent`. + +Esto despliega el Datadog Agent con tu check personalizado. + +### ConfigMaps para múltiples checks + +Puedes rellenar ConfigMaps con el contenido de múltiples checks o sus respectivos archivos de configuración. + +#### Rellenar todos los archivos de script del check + +```bash +$ kubectl create cm -n $DD_NAMESPACE checksd-config $(find ./checks.d -name "*.py" | xargs -I'{}' echo -n '--from-file={} ') +configmap/checksd-config created +``` + +#### Rellenar todos los archivos de configuración del check + +```bash +$ kubectl create cm -n $DD_NAMESPACE confd-config $(find ./conf.d -name "*.yaml" | xargs -I'{}' echo -n '--from-file={} ') +configmap/confd-config created +``` + +## Proporcionar volúmenes adicionales + +Puedes montar volúmenes adicionales configurados por el usuario en el nodo o en los contenedores del Cluster Agent configurando las propiedades `volumes` y `volumeMounts`. + +**Ejemplo**: uso de un volumen para montar un secreto + +```yaml +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + credentials: + apiKey: "" + appKey: "" + override: + nodeAgent: + image: + name: "gcr.io/datadoghq/agent:latest" + volumes: + - name: secrets + secret: + secretName: secrets + containers: + agent: + volumeMounts: + - name: secrets + mountPath: /etc/secrets + readOnly: true +``` +[1]: https://docs.datadoghq.com/es/developers/custom_checks/ +[2]: https://docs.datadoghq.com/es/getting_started/integrations/ +[3]: https://docs.datadoghq.com/es/integrations/ +[4]: https://docs.datadoghq.com/es/containers/kubernetes/integrations/?tab=annotations \ No newline at end of file diff --git a/content/es/continuous_delivery/explorer/saved_views.md b/content/es/continuous_delivery/explorer/saved_views.md new file mode 100644 index 0000000000000..f7a00940a5372 --- /dev/null +++ b/content/es/continuous_delivery/explorer/saved_views.md @@ -0,0 +1,65 @@ +--- +descriptions: Aprende a crear y compartir vistas guardadas en el CD Visibility Explorer. +further_reading: +- link: /continuous_delivery/explorer/search_syntax/ + tag: Documentación + text: Aprender a crear una consulta de búsqueda +title: Vistas guardadas +--- + +{{< callout url="https://docs.google.com/forms/d/e/1FAIpQLScNhFEUOndGHwBennvUp6-XoA9luTc27XBwtSgXhycBVFM9yA/viewform?usp=sf_link" btn_hidden="false" header="Únete a la vista previa" >}} +CD Visibility está en Vista previa. Si te interesa esta función, rellena el formulario para solicitar acceso. +{{< /callout >}} + +## Información general + +Las vistas guardadas te permiten guardar el estado de la [página de Ejecuciones de despliegues][1] y posibilitan una resolución eficaz de problemas, ya que te proporcionan acceso a consultas delimitadas, facetas relevantes, opciones de visualización e intervalos de tiempo. + +Las vistas guardadas te permiten realizar un seguimiento de tus: + +- Resultados de despliegues y datos del entorno +- Busca consultas (como ejecuciones de despliegues fallidas con un proveedor de CD específico, ejecuciones de despliegues fallidas en un entorno determinado por su estado de despliegue, ejecuciones de despliegues que requirieron reversiones, e ID o URL de despliegues). +- Intervalos de tiempo en directo (como la última hora o la última semana) +- Visualizaciones (como series temporales, lista de elementos principales, tabla o lista) + +También puedes utilizar las vistas guardadas para compartir consultas y configuraciones comunes con tus compañeros de equipo. + +## Vistas guardadas + +Para acceder a las vistas guardadas, amplía **> Views* (> Vistas) a la izquierda de la [página de Ejecuciones de despliegues][1]. + +Todas las vistas guardadas, excepto la [vista por defecto](#default-views), se comparten en toda la organización, incluidas las vistas guardadas personalizadas creadas por los usuarios. Cualquier persona en tu organización puede editarlas y mostrar el avatar del usuario que creó la vista. Haz clic en **Save** (Guardar) para crear una vista guardada personalizada a partir del contenido actual de tu explorador. + +
Los usuarios con permisos de sólo lectura no podrán actualizar, renombrar ni eliminar vistas guardadas.
+ +{{< img src="continuous_delivery/explorer/saved_view.png" alt="Vista por defecto en el CD Visibility Explorer" width="100%" >}} + +Puedes: + +- Cargar o volver a cargar una vista guardada +- Actualizar una vista guardada con la configuración de la vista actual +- Renombrar o borrar una vista guardada +- Compartir una vista guardada a través de un enlace corto +- Marcar una vista guardada como favorita para añadirla a tu lista de vistas guardadas, a la que tendrás acceso a través del menú de navegación + +
Los usuarios con permisos de sólo lectura no podrán actualizar, renombrar ni eliminar vistas guardadas.
+ +## Vistas predeterminadas + +Puedes configurar una vista guardada para que sea tu página de inicio en la [página de Ejecuciones de despliegues][1]. Las vistas predeterminadas se configuran por cada usuario y no tienen ningún impacto en tu organización. + +{{< img src="continuous_delivery/explorer/default_view.png" alt="Vista por defecto en el CD Visibility Explorer" width="100%" >}} + +Sobrescribir temporalmente tu vista guardada por defecto realizando una acción en la interfaz de usuario o abriendo enlaces en el explorador que integra una configuración diferente. + +En la vista predeterminada del panel **Vistas**, puedes: + +- Hacer clic en la entrada para volver a cargar la vista predeterminada +- Actualizar tu vista predeterminada con los parámetros actuales +- Restablecer la configuración por defecto de la vista predeterminada si quieres ejecutar un reinicio + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/ci/deployments/executions \ No newline at end of file diff --git a/content/es/continuous_integration/search/_index.md b/content/es/continuous_integration/search/_index.md index 1d4706fa707fc..a3b6cf727ec9c 100644 --- a/content/es/continuous_integration/search/_index.md +++ b/content/es/continuous_integration/search/_index.md @@ -6,90 +6,89 @@ further_reading: - link: /continuous_integration/explorer tag: Documentación text: Buscar y filtrar las ejecuciones de pipelines -- link: /integración_continua/guías/identificar_los_empleos_de_mayor_impacto_con_recorrido_crítico/ +- link: /continuous_integration/guides/identify_highest_impact_jobs_with_critical_path/ tag: Documentación - text: Identifique los trabajos CI en la ruta crítica para reduce the Pipeline Duration + text: Identifica los trabajos de CI en la ruta crítica para reduce la duración del + pipeline +- link: /continuous_integration/guides/use_ci_jobs_failure_analysis/ + tag: Documentación + text: Utilizar el análisis de fallos en los trabajos de CI para identificar las + causas raíz de los trabajos fallidos title: Buscar y gestionar pipelines CI --- -## Resumen +## Información general -La página [Pipelines][1] es útil para los desarrolladores que quieren mantener un ojo en el proceso de construcción de su servicio. +La [página de pipelines][1] es útil para los desarrolladores que quieren controlar el pipeline de compilación para su servicio. -{{< img src="/continuous_integration/pipelines.png" text="CI Pipelines page" style="width:100%" >}} +{{< img src="/continuous_integration/pipelines.png" text="Página de pipelines de CI" style="width:100%" >}} Esta página responde a las siguientes preguntas: -- ¿Es el pipeline de su servicio eficaz y fiable, especialmente en la rama por defecto? +- ¿El pipeline es eficaz y fiable para tu servicio, especialmente en la rama por defecto? - Si no es así, ¿cuál es la causa? -Puede acceder a la acumulación de alto nivel y las tendencias, incluyendo: - -- Una visión general de la salud de todo el sistema de construcción, con estadísticas agregadas para las ejecuciones de tuberías y ramas. -- Una ventana para detectar y solucionar rápidamente problemas inmediatos y urgentes, como canalizaciones rotas a producción. -- Cómo se ha ejecutado cada canalización, a lo largo del tiempo, y con qué resultados y tendencias. -- El desglose de dónde se invierte el tiempo en cada etapa de construcción, a lo largo del tiempo, para que pueda centrar sus esfuerzos de mejora donde se hace la mayor diferencia. - -## Buscar para pipelines - -Para ver sus canalizaciones, vaya a [**Software Delivery** > **CI Visibility** > **CI Pipeline lista**][1]. +Puedes acceder a acumulaciones y tendencias superficiales, entre otras: -La página [Pipelines][1] muestra las estadísticas agregadas de la rama predeterminada de cada pipeline durante el periodo de tiempo seleccionado, así como el estado de la última ejecución del pipeline. Utiliza esta página para ver todos tus pipelines y obtener una visión rápida de su estado. Sólo se muestran en esta página los pipelines con información Git asociada a la rama por defecto (normalmente llamada `main` o `prod`), así como los pipelines sin ninguna información Git. +- Una visión general del estado de todo el sistema de compilación, con estadísticas agregadas para ejecuciones y ramas de pipeline. +- Una ventana para detectar y solucionar rápidamente problemas inmediatos y urgentes, como pipelines rotos en la producción. +- Cómo ha funcionado cada pipeline, a lo largo del tiempo, y con qué resultados y tendencias. +- El desglose de dónde se invierte el tiempo en cada fase de compilación, a lo largo del tiempo, para que puedas centrar tus esfuerzos de mejora donde se marca la mayor diferencia. - métricas muestra la frecuencia de compilación, la tasa de fallos, la duración media y el cambio en la duración media tanto en términos absolutos como relativos. Esta información revela qué canalizaciones consumen muchos recursos o experimentan regresiones. El último resultado de compilación, la duración y el último tiempo de ejecución muestran el efecto de la última confirmación. +## Buscar pipelines -Puede filtrar la página por nombre de canalización para ver las canalizaciones que más le preocupan. Haz clic en un pipeline que sea lento o que falle para profundizar en los detalles que muestran qué commit podría haber introducido la regresión de rendimiento o el error de compilación. Si utilizas [Datadog Teams][6], puedes filtrar los pipelines específicos asociados a tu equipo utilizando [custom etiquetas (tags)][7] que coincidan con los nombres de los equipos. +Para ver tus pipelines, navega hasta [**Software Delivery** > **CI Visibility** > **CI Pipeline List**][1] (Entrega de software > CI Visibility > Lista de pipeline de CI). -## Detalles y ejecuciones de los pipelines +La [página de pipelines][1] muestra las estadísticas agregadas de la rama por defecto de cada pipeline durante el periodo seleccionado, así como el estado de la última ejecución del pipeline. Utiliza esta página para ver todos tus pipelines y obtener una visión rápida de su estado. Solo los pipelines con información Git asociada a la rama por defecto (normalmente llamada `main` o `prod`), así como los pipelines sin ninguna información Git, se muestran en esta página. -Haga clic en un pipeline específico para ver la página _Detalles del pipeline_ que proporciona vistas de los datos del pipeline que ha seleccionado durante un periodo de tiempo especificado. +Las métricas mostradas incluyen la frecuencia de compilación, la tasa de fallos, la duración media y el cambio en la duración media tanto en términos absolutos como relativos. Esta información revela qué pipelines son de uso frecuente y potencialmente consumen muchos recursos, o están experimentando regresiones. El último resultado de compilación, la duración y el último tiempo de ejecución muestran el efecto de la última confirmación. -{{< img src="ci/pipeline_branch_overview_updated.png" alt="Pipeline Details page for a single pipeline" style="width:100%;">}} +Puedes filtrar página por el nombre de pipeline para ver los pipelines que más te preocupan. Haz clic en un pipeline que sea lento o que falle para profundizar en los detalles que muestran qué commit podría haber introducido la regresión de rendimiento o el error de compilación. Si estás usando [Datadog Teams][6], puedes filtrar por pipelines específicos asociados a tu equipo usando [etiquetas personalizadas][7] que coincidan con los nombres de los equipos. -Obtenga información sobre el proceso seleccionado, como las ejecuciones totales y fallidas a lo largo del tiempo, los percentiles de duración de la compilación, las tasas de error y el tiempo total de desglose por etapa. También hay tablas de resumen para las etapas y los trabajos para que pueda ordenarlos rápidamente en términos de duración, porcentaje del tiempo de ejecución total o tasa de fallos. +## Detalles y ejecuciones de pipeline -La ejecución del pipeline lista muestra todas las veces que el pipeline (o sus etapas o trabajos) se ejecutó durante el periodo de tiempo seleccionado, para la rama seleccionada. Utilice las facetas de la parte izquierda para filtrar lista exactamente a los pipelines, etapas o trabajos que desee ver. +Haz clic en un pipeline específico para ver la página de _Detalles del pipeline_ que proporciona vistas de los datos para el pipeline que has seleccionado durante un periodo especificado. -### Ver canalización unificada rastrear +{{< img src="ci/pipeline_branch_overview_updated.png" alt="Página de detalles del pipeline para un único pipeline" style="width:100%;">}} -Para ver el pipeline unificado rastrear, haga clic en la casilla `View unified trace` de la página de ejecución del pipeline. +Obtén información sobre el pipeline seleccionado, como ejecuciones totales y fallidas a lo largo del tiempo, percentiles de duración de la compilación, tasas de error y desglose del tiempo total empleado por fase. También hay tablas de resumen para las etapas y los trabajos para que puedas ordenarlos rápidamente en términos de duración, porcentaje del tiempo total de ejecución o tasa de fallos. -El rastrear unificado muestra en un único rastrear todos los trazas (traces) del pipeline generados debido a los diferentes reintentos parciales de su pipeline. Si la ejecución del pipeline no tiene reintentos parciales, el rastrear unificado muestra sólo el rastrear de una única ejecución del pipeline. +La lista de ejecuciones de pipeline muestra todas las veces que el pipeline (o sus etapas o trabajos) se ejecutaron durante el periodo seleccionado, para la rama seleccionada. Utiliza las facetas del lado izquierdo para filtrar la lista exactamente a los pipelines, etapas o trabajos que desees ver. -### Resaltar ruta crítica +### Resaltar la ruta crítica -Para resaltar la ruta crítica en rastrear, haga clic en la casilla `Critical path` de la página de ejecución del pipeline. +Para resaltar la ruta crítica en la traza, haz clic en la casilla `Critical path` en la página de ejecución del pipeline. -La ruta crítica resalta los tramos (spans) que necesita acelerar si desea reduce el tiempo de ejecución total de su pipeline. Si un trabajo CI está en la ruta crítica, significa que forma parte de la ruta más larga a través de rastrear en términos de tiempo de ejecución. Acelerar los CI Jobs en la ruta crítica es estrictamente necesario para acelerar el pipeline CI. +La ruta crítica destaca los tramos que es necesario acelerar si se quiere reducir el tiempo total de ejecución de pipeline. Si un trabajo de CI se encuentra en la ruta crítica, significa que forma parte de la ruta más larga a través la traza en términos de tiempo de ejecución. Acelerar los trabajos de CI en la ruta crítica es estrictamente necesario para acelerar el pipeline de CI. -Puede utilizar [esta guía][11] para identificar los trabajos CI en la ruta crítica para ayuda determinar qué trabajos priorizar con el fin de reducir la duración total de los conductos CI. +Puedes utilizar [esta guía][11] para identificar los trabajos de CI en la ruta crítica para ayudarte a determinar qué trabajos priorizar con el fin de reducir la duración total de los pipelines de CI. -### Explore las conexiones con servicios, recursos y red eventos +### Explorar conexiones con servicios, recursos y eventos de red -Haga clic en una de las ejecuciones para abrir la vista de ejecución de la canalización y ver el gráfico de llamas o tramo (span) lista para la canalización y sus etapas. Las _Ejecuciones (n)_ lista en el lado izquierdo le da acceso rápido a los datos para cada reintento de la tubería para el mismo commit. +Haz clic en una de las ejecuciones para abrir la vista de ejecución del pipeline y ver la gráfica de llamas o la lista de tramos para el pipeline y sus etapas. La lista _Ejecuciones (n)_ de la izquierda permite acceder rápidamente a los datos de cada reintento del pipeline para la misma confirmación. -Haga clic en el enlace del proveedor de CI (`gitlab-ci gitlab.pipeline > documentation` en la siguiente imagen) para investigar la página de Recursos, servicio, o Análisis para el pipeline, etapa o trabajo específicamente. También puede encontrar información completa en etiquetas (tags) y enlaces a red Monitorización eventos . +Haz clic en el enlace del proveedor de CI (`gitlab-ci gitlab.pipeline > documentation` en la siguiente imagen) para investigar la página de Recurso, Servicio o Analítica para el pipeline, fase o trabajo específicamente. También puedes encontrar información completa sobre etiquetas y enlaces a eventos de monitorización de red. -{{< img src="ci/ci-pipeline-execution.png" alt="Pipeline execution view with rastrear info and flamegraph display" style="width:100%;">}} +{{< img src="ci/ci-pipeline-execution.png" alt="Vista de ejecución del pipeline con información de traza y el diseño de gráfica de llamas" style="width:100%;">}} -### Explorar conexiones a Logs +### Explorar las conexiones con los logs -Si se admite y habilita la recopilación de trabajos loguear para el proveedor de CI, se pueden encontrar loguear eventos relacionados en la vista _Logs_ pestaña de la ejecución de la canalización. +Si la recopilación de logs de trabajo es compatible y habilitada para el proveedor de CI, los eventos de log relacionados se pueden encontrar en la pestaña _Logs_ de la vista de ejecución del pipeline. -La recopilación de trabajos loguear es compatible con los siguientes proveedores: +La recopilación de logs de trabajo es compatible con los siguientes proveedores: - [AWS CodePipeline][8] - [Azure][9] - [CircleCI][10] - [Acciones de GitHub][3] - [GitLab][4] -- Jenkins][5] +- [Jenkins][5] -#### Resúmenes generados por IA loguear +### Análisis de fallos de trabajos de CI basados en logs pertinentes -
Los resúmenes generados por la IA loguear están en vista previa. Para solicitar acceso, rellene este formulario.
+CI Visibility utiliza un modelo LLM para generar mensajes de error mejorados y categorizarlos con un dominio y un subdominio, basándose en los logs pertinentes recopilados de cada trabajo de CI fallido. -Pipeline Visibility proporciona explicaciones generadas por IA para los errores de pipeline basadas en su trabajo CI logs. Estas explicaciones pueden encontrarse en **Failed Jobs** pestaña para cada ejecución de canalización. Puede utilizar estos resúmenes para determinar si un error en CI está asociado al código escrito por el desarrollador o a la propia canalización de CI, así como para solucionar los fallos de ejecución. +Utiliza [Análisis de fallos de trabajos de CI][12] para identificar las causas de fallo más comunes de tus trabajos de CI. ## Referencias adicionales @@ -105,3 +104,4 @@ Pipeline Visibility proporciona explicaciones generadas por IA para los errores [9]: /es/continuous_integration/pipelines/azure/#enable-job-log-collection [10]: /es/continuous_integration/pipelines/circleci/#enable-log-collection [11]: /es/continuous_integration/guides/identify_highest_impact_jobs_with_critical_path +[12]: /es/continuous_integration/guides/use_ci_jobs_failure_analysis/ \ No newline at end of file diff --git a/content/es/data_security/_index.md b/content/es/data_security/_index.md index c36655f123be3..9cd417704e277 100644 --- a/content/es/data_security/_index.md +++ b/content/es/data_security/_index.md @@ -41,7 +41,7 @@ Los datos que se transmiten a través de las herramientas proporcionadas por Dat ### El Datadog Agent -El Agent representa el principal canal de transmisión de los datos desde tus sistemas a Datadog. [Consulta todo lo que debes saber sobre las medidas de seguridad que aplica el Agent para proteger tus datos][4]. +El Agent representa el principal canal de transmisión de los datos desde tus sistemas a Datadog. [Consulta todo lo que debes saber sobre las medidas de seguridad que aplica el Agent para proteger tus datos][4]. Para saber cómo evitar que se almacenen secretos en texto sin formato en los archivos de configuración del Agent, consulta [Gestión de secretos][5]. @@ -69,9 +69,9 @@ Sensitive Data Scanner es un servicio de flujos (streams) que hace comparaciones ### Gestión de logs -Los logs son los registros que producen tus sistemas y servicios, así como también las actividades derivadas de ellos. Para obtener información sobre cómo proteger los datos de los logs, por ejemplo, cómo filtrarlos y enmascararlos, consulta [Seguridad de los datos en Log Management][11]. +Los logs son los registros que producen tus sistemas y servicios, así como también las actividades derivadas de ellos. Para obtener información sobre cómo proteger los datos de los logs, por ejemplo, cómo filtrarlos y enmascararlos, consulta [Seguridad de los datos en Log Management][11]. -Y si quieres información más detallada, puedes consultar la guía [Controlar los datos confidenciales de los logs][12] y el artículo sobre la [configuración avanzada de Agent para recopilar logs][13]. +Para profundizar en el control de los datos de logs consulta la guía [Gestionar el acceso a datos confidenciales de logs][12] y [Configuración avanzada del Agent para logs][13]. Para reducir los riesgos que amenazan la seguridad de los datos en los logs, es fundamental controlar los accesos. Descubre cómo [configurar RBAC en los logs][14] y cómo [funcionan los permisos de RBAC][15] en Datadog. @@ -79,7 +79,7 @@ Para reducir los riesgos que amenazan la seguridad de los datos en los logs, es Para que no se filtren datos confidenciales cuando estás monitorizando procesos activos y contenedores activos, Datadog te ofrece la función predeterminada de limpieza de contraseñas confidenciales en argumentos de procesos y charts de Helm. Puedes enmascarar más secuencias confidenciales en comandos o argumentos de procesos con el [parámetro `custom_sensitive_words`][16] y añadirlas a la lista de palabras para limpiar en contenedores con la [variable de entorno `DD_ORCHESTRATOR_EXPLORER_CUSTOM_SENSITIVE_WORDS`][17]. -### APM y otros productos de librerías de rastreo +### APM y otros productos de bibliotecas de rastreo Las bibliotecas de rastreo de Datadog sirven para instrumentar aplicaciones, servicios, tests y pipelines, y enviar datos de funcionamiento a Datadog a través del Agent. Se generan datos de trazas y tramos (spans), entre muchos otros, para que puedan utilizarlos los siguientes productos: @@ -88,7 +88,7 @@ Las bibliotecas de rastreo de Datadog sirven para instrumentar aplicaciones, ser - CI Visibility - App and API Protection -Para obtener información detallada sobre cómo se gestionan los datos que proceden de librerías de rastreo, sobre las configuraciones de seguridad básicas y sobre las operaciones predeterminadas de enmascaramiento, limpieza, exclusión y modificación de elementos relacionados con trazas, consulta la [configuración del Agent y el rastreador para proteger los datos de trazas][18]. +Para obtener información detallada sobre cómo se gestionan los datos que proceden de bibliotecas de rastreo, sobre las configuraciones de seguridad básicas y sobre las operaciones predeterminadas de enmascaramiento, limpieza, exclusión y modificación de elementos relacionados con trazas, consulta la [configuración del Agent y el rastreador para proteger los datos de trazas][18]. ### Rastreo distribuido sin servidor @@ -122,7 +122,7 @@ Métricas : Las métricas (incluidas las métricas de infraestructura y las métricas provenientes de las integraciones) y los demás datos consumidos (como logs, trazas, RUM y tests Synthetic) son cronologías que sirven para rellenar gráficos. Suelen tener etiquetas asociadas. Datos de APM -: Entre los datos de APM se incluyen servicios, recursos, perfiles, trazas y tramos, además de sus etiquetas asociadas. Consulta el [glosario de APM][25] para ver una explicación de cada uno. +: Entre los datos de APM se incluyen servicios, recursos, perfiles, trazas y tramos, además de sus etiquetas asociadas. Consulta el [glosario de APM][25] para ver una explicación de cada uno. Firmas de consultas de la base de datos : Entre los datos de monitorización de la base de datos se incluyen las métricas y las muestras (junto con sus etiquetas asociadas) que recopila el Agent y se utilizan para controlar cómo han funcionado las consultas normalizadas en el pasado. El nivel de detalle de estos datos viene determinado por la firma de la consulta normalizada correspondiente y el identificador de host único. Todos los parámetros de las consultas quedan enmascarados y se descartan de las muestras recopiladas antes de enviarse a Datadog. @@ -152,7 +152,7 @@ Pipelines y tests de integración continua [9]: /es/integrations/google_cloud_platform/ [10]: /es/security/sensitive_data_scanner/ [11]: /es/data_security/logs/ -[12]: /es/logs/guide/control-sensitive-logs-data/ +[12]: /es/logs/guide/manage-sensitive-logs-data-access/ [13]: /es/agent/logs/advanced_log_collection [14]: /es/logs/guide/logs-rbac [15]: /es/logs/guide/logs-rbac-permissions @@ -165,4 +165,4 @@ Pipelines y tests de integración continua [22]: /es/real_user_monitoring/session_replay/browser/privacy_options [23]: /es/database_monitoring/data_collected/#sensitive-information [24]: /es/getting_started/tagging/ -[25]: /es/tracing/glossary/ +[25]: /es/tracing/glossary/ \ No newline at end of file diff --git a/content/es/database_monitoring/setup_postgres/_index.md b/content/es/database_monitoring/setup_postgres/_index.md index 5b662edd7f615..bde99705a9c92 100644 --- a/content/es/database_monitoring/setup_postgres/_index.md +++ b/content/es/database_monitoring/setup_postgres/_index.md @@ -14,8 +14,8 @@ title: Configuración de Postgres | Postgres 13 | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | | Postgres 14 | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | Postgres 15 | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | -| Postgres 16 | {{< X >}} | {{< X >}} | {{< X >}} | | | {{< X >}} | -| Postgres 17 | {{< X >}} | {{< X >}} | {{< X >}} | | | | +| Postgres 16 | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | {{< X >}} | +| Postgres 17 | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | | | ### Instrucciones de instalación por tipo de alojamiento diff --git a/content/es/error_tracking/backend/getting_started/single_step_instrumentation.md b/content/es/error_tracking/backend/getting_started/single_step_instrumentation.md new file mode 100644 index 0000000000000..3cc730277950b --- /dev/null +++ b/content/es/error_tracking/backend/getting_started/single_step_instrumentation.md @@ -0,0 +1,178 @@ +--- +aliases: +- /es/error_tracking/standalone_backend/getting_started/single_step_instrumentation +further_reading: +- link: /error_tracking/issue_states/ + tag: Documentación + text: Estados de problemas y flujos de trabajo de Error Tracking +- link: /error_tracking/explorer + tag: Documentación + text: Más información sobre el Explorador de seguimiento de errores +- link: /error_tracking/guides/enable_infra + tag: Guía + text: Activar la monitorización de infraestructuras +- link: /error_tracking/guides/enable_apm + tag: Guía + text: Activar APM +title: Instrumentación de un solo paso para el seguimiento de errores de backend +--- + +## Información general + +Instala o actualiza el Datadog Agent con las opciones **Habilitar la Instrumentación APM** y **Seguimiento de errores independiente** para habilitar el seguimiento de errores de backend independiente. +Esta acción te permite instrumentar automáticamente tu aplicación, sin ningún paso adicional de instalación o configuración. + +## Instalar el Seguimiento de errores de backend independiente + +Los siguientes ejemplos muestran cómo funciona para cada tipo de despliegue. + +{{< tabs >}} +{{% tab "Linux host or VM" %}} + +Para un host Linux: + +1. Ejecuta el comando de instalación de una línea: + + ```shell + DD_API_KEY= DD_SITE="" DD_APM_INSTRUMENTATION_ENABLED=host DD_APM_INSTRUMENTATION_LIBRARIES="java:1,python:2,js:5,dotnet:3,php:1" DD_APM_ERROR_TRACKING_STANDALONE=true DD_ENV= bash -c "$(curl -L https://install.datadoghq.com/scripts/install_script_agent7.sh)" + ``` + + Sustituye `` por tu [clave de API Datadog][1], `` por tu [sitio Datadog][2] y `` por el entorno en el que está instalado tu Agent (por ejemplo, `staging`). +2. Reinicia los servicios en el host o la máquina virtual. + +[1]: https://app.datadoghq.com/organization-settings/api-keys +[2]: /es/getting_started/site/ + +{{% /tab %}} + +{{% tab "Kubernetes" %}} + +Puedes activar el Seguimiento de errores de backend instalando el Agent con cualquiera de las dos opciones: + +- Datadog Operator +- Helm Chart Datadog + +
La Instrumentación de un solo paso no instrumenta aplicaciones en el espacio de nombres donde instalas el Datadog Agent. Se recomienda instalar el Agent en un espacio de nombres separado en tu clúster, donde no ejecutes tus aplicaciones.
+ +### Requisitos + +- Kubernetes v1.20 y posterior +- [Helm][3] para desplegar el Datadog Operator. +- [CLI de Kubectl][4] para instalar el Agent. + +{{< collapse-content title="Instalación con el Datadog Operator" level="h4" >}} +Sigue los pasos a continuación para habilitar la Instrumentación de un solo paso en todo tu clúster utilizando el Datadog Operator. Esto permite el rastreo en todas las aplicaciones escritas en lenguajes compatibles. + + +1. Instala el [Datadog Operator][7] v1.14.0 o posterior con Helm: + ```shell + helm repo add datadog https://helm.datadoghq.com + helm repo update + helm install my-datadog-operator datadog/datadog-operator + ``` +2. Crea un secreto de Kubernetes para almacenar tu [clave de API][5] Datadog: + ```shell + kubectl create secret generic datadog-secret --from-literal api-key= + ``` +3. Crea `datadog-agent.yaml` con las especificaciones de configuración del despliegue de tu Datadog Agent. La siguiente configuración es la más sencilla: + ```yaml + apiVersion: datadoghq.com/v2alpha1 + kind: DatadogAgent + metadata: + name: datadog + spec: + global: + site: + tags: + - env: + credentials: + apiSecret: + secretName: datadog-secret + keyName: api-key + env: + - name: DD_CORE_AGENT_ENABLED + value: "false" + features: + apm: + errorTrackingStandalone: + enabled: true + instrumentation: + enabled: true + libVersions: + java: "1" + dotnet: "3" + python: "2" + js: "5" + php: "1" + ``` + Sustituye `` por tu [sitio Datadog][6] y `` por el entorno en el que está instalado tu Agent (por ejemplo, `env:staging`). +4. Ejecuta el siguiente comando: + ```shell + kubectl apply -f /path/to/your/datadog-agent.yaml + ``` +5. Espera unos minutos a que se apliquen los cambios del Datadog Cluster Agent y reinicia tus aplicaciones. +{{< /collapse-content >}} + +{{< collapse-content title="Installing with Helm" level="h4" >}} +Sigue los pasos a continuación para habilitar la Instrumentación de un solo paso en todo tu clúster utilizando Helm. Esto permite el rastreo en todas las aplicaciones escritas en lenguajes compatibles. + + +1. Añade el repositorio de Datadog Helm: + ```shell + helm repo add datadog https://helm.datadoghq.com + helm repo update + ``` +2. Crea un secreto de Kubernetes para almacenar tu [clave de API][5] Datadog: + ```shell + kubectl create secret generic datadog-secret --from-literal api-key= + ``` +3. Crea `datadog-values.yaml` y añade la siguiente configuración: + ```yaml + agents: + containers: + agent: + env: + - name: DD_CORE_AGENT_ENABLED + value: "false" + datadog: + processAgent: + enabled: false + containerCollection: false + apiKeyExistingSecret: datadog-secret + site: + tags: + - env: + apm: + errorTrackingStandalone: + enabled: true + # Required to enable Single-Step Instrumentation + instrumentation: + enabled: true + libVersions: + java: "1" + dotnet: "3" + python: "2" + js: "5" + php: "1" + ``` + Sustituye `` por tu [sitio Datadog][6] y `` por el entorno en el que está instalado tu Agent (por ejemplo, `env:staging`). +4. Ejecuta el siguiente comando para desplegar el Agent: + ```shell + helm install datadog-agent -f datadog-values.yaml datadog/datadog + ``` +5. Espera unos minutos a que se apliquen los cambios del Datadog Cluster Agent y reinicia tus aplicaciones. + +{{< /collapse-content >}} + +[3]: https://v3.helm.sh/docs/intro/install/ +[4]: https://kubernetes.io/docs/tasks/tools/install-kubectl/ +[5]: https://app.datadoghq.com/organization-settings/api-keys +[6]: /es/getting_started/site/ +[7]: https://github.com/DataDog/helm-charts/tree/master/charts/datadog-operator + +{{% /tab %}} +{{< /tabs >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/integrations/appgate_sdp.md b/content/es/integrations/appgate_sdp.md new file mode 100644 index 0000000000000..1b88686e11b9a --- /dev/null +++ b/content/es/integrations/appgate_sdp.md @@ -0,0 +1,139 @@ +--- +app_id: appgate-sdp +app_uuid: 77acdb8a-4ea8-4294-baa7-d5ccfe698d9f +assets: + dashboards: + Appgate SDP Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: appgate_sdp.appliance.active_connections + metadata_path: metadata.csv + prefix: appgate_sdp. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 24819432 + source_type_name: Appgate SDP + monitors: + Active Connection Exceeds Limit: assets/monitors/monitor_Active_connection_exceeds_limit.json + Appliance Function Suspension State: assets/monitors/monitor_Appliance_Function_Suspension_state.json + Appliance Function Unhealthy: assets/monitors/monitor_Appliance_Function_Unhealthy.json + Appliance Status Warning: assets/monitors/monitor_Appliance_status_warning_for_appliance.json + Certificate Expiration Soon: assets/monitors/monitor_Certificate_expiration_soon.json + Controller Database Replication: assets/monitors/monitor_Controller_Database_Replication.json + Database Replication Replay Lag: assets/monitors/monitor_Database_replication_replay_lag_on_controller.json + Excessive Database Size: assets/monitors/monitor_Excessive_database_size_on_controller.json + High CPU on Appliance: assets/monitors/monitor_High_CPU_on_appliance.json + High Disk Utilization: assets/monitors/monitor_High_Disk_Utilization_on_appliance.json + High Disk Utilization for Controller Database: assets/monitors/monitor_High_disk_utilization_for_controller_database_partition.json + High Event Queue on Gateway: assets/monitors/monitor_High_event_queue_on_gateway.json + High Gateway Session Count: assets/monitors/monitor_Hight_Gateway_session_count.json + High IP Pool Utilization: assets/monitors/monitor_High_IP_pool_utilization_on_appliance.json + High Memory on Appliance: assets/monitors/monitor_High_memory_on_appliance.json + High Sessiond Heap Utilization: assets/monitors/monitor_High_sessiond_heap_utilization_on_appliance.json + High Token Size Utilization: assets/monitors/monitor_High_token_size_utilization_on_gateway.json + High User License Utilization: assets/monitors/monitor_High_user_license_utilization_on_controller.json + SSH Access Attempted: assets/monitors/monitor_SSH_Access_attempted.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- métricas +- recopilación de logs +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/appgate_sdp/README.md +display_on_public_website: true +draft: false +git_integration_title: appgate_sdp +integration_id: appgate-sdp +integration_title: Appgate SDP +integration_version: 1.1.0 +is_public: true +manifest_version: 2.0.0 +name: appgate_sdp +public_title: Appgate SDP +short_description: Monitoriza el estado y el rendimiento de Appgate SDP. +supported_os: +- linux +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Submitted Data Type::Metrics + - Offering::Integration + - Category::Metrics + - Category::Log Collection + configuration: README.md#Configuración + description: Monitoriza el estado y el rendimiento de Appgate SDP. + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: Appgate SDP +--- + + + + +## Información general + +Este check monitoriza [Appgate SDP][1] a través del Datadog Agent. + +- Monitoriza el estado y el rendimiento de dispositivos, controladores y puertas de enlace Appgate SDP mediante la recopilación de métricas clave. +- Proporciona visibilidad de uso de recursos, conexiones activas, recuentos de sesiones y uso de licencias para ayudar a garantizar una gestión del acceso segura y eficaz. +- Permite la alerta proactiva y la resolución de problemas mediante el seguimiento de indicadores críticos como el uso de CPU, memoria, y disco, y los eventos del sistema en entornos distribuidos. + +## Configuración + +Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos contenedorizados, consulta las [plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones. + +### Instalación + +El check de Appgate SDP está incluido en el paquete del [Datadog Agent][3]. No se necesita ninguna instalación adicional en tu servidor. + +### Configuración + +1. Edita el archivo `appgate_sdp.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent para empezar a recopilar tus datos de rendimiento de Appgate SDP. Para conocer todas las opciones de configuración disponibles, consulta el [appgate_sdp.d/conf.yaml de ejemplo][4]. + +2. [Reinicia el Agent][5]. + +### Validación + +[Ejecuta el subcomando de estado del Agent][6] y busca `appgate_sdp` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "appgate_sdp" >}} + + +### Eventos + +La integración Appgate SDP no incluye eventos. + +### Checks de servicio +{{< get-service-checks-from-git "appgate_sdp" >}} + + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][9]. + + +[1]: https://sdphelp.appgate.com/adminguide/v6.3/introduction.html +[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://github.com/DataDog/integrations-core/blob/master/appgate_sdp/datadog_checks/appgate_sdp/data/conf.yaml.example +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[7]: https://github.com/DataDog/integrations-core/blob/master/appgate_sdp/metadata.csv +[8]: https://github.com/DataDog/integrations-core/blob/master/appgate_sdp/assets/service_checks.json +[9]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/cockroachdb.md b/content/es/integrations/cockroachdb.md index 3641c66bdc228..47eb98aed0420 100644 --- a/content/es/integrations/cockroachdb.md +++ b/content/es/integrations/cockroachdb.md @@ -1,108 +1,51 @@ --- app_id: cockroachdb -app_uuid: 7368f005-2333-4dc5-a2b5-14419e4995d1 -assets: - dashboards: - CockroachDB Overview: assets/dashboards/overview.json - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - metrics: - check: cockroachdb.sys.uptime - metadata_path: metadata.csv - prefix: cockroachdb. - process_signatures: - - cockroach - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10036 - source_type_name: CockroachDB -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - almacenamiento en caché - nube - almacenes de datos - recopilación de logs custom_kind: integración -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/cockroachdb/README.md -display_on_public_website: true -draft: false -git_integration_title: cockroachdb -integration_id: cockroachdb -integration_title: CockroachDB -integration_version: 5.1.0 -is_public: true -manifest_version: 2.0.0 -name: cockroachdb -public_title: CockroachDB -short_description: Monitoriza el estado y el rendimiento general de tus clústeres - de CockroachDB. +description: Monitoriza el estado y el rendimiento general de tus clústeres de CockroachDB. +further_reading: +- link: https://www.datadoghq.com/blog/monitor-cockroachdb-performance-metrics-with-datadog + tag: blog + text: Monitorizar métricas de rendimiento de CockroachDB con Datadog +integration_version: 6.0.0 +media: [] supported_os: - linux - windows - macos -tile: - changelog: CHANGELOG.md - classifier_tags: - - Category::Caching - - Category::Cloud - - Category::Data Stores - - Category::Log Collection - - Supported OS::Linux - - Supported OS::Windows - - Supported OS::macOS - - Submitted Data Type::Metrics - - Submitted Data Type::Logs - - Offering::Integration - configuration: README.md#Configuración - description: Monitoriza el estado y el rendimiento general de tus clústeres de CockroachDB. - media: [] - overview: README.md#Información general - resources: - - resource_type: Blog - url: https://www.datadoghq.com/blog/monitor-cockroachdb-performance-metrics-with-datadog - support: README.md#Soporte - title: CockroachDB +title: CockroachDB --- - - - - ## Información general -El check de CockroachDB monitoriza el estado general y el rendimiento de un clúster de [CockroachDB][1]. +El check de CockroachDB monitoriza el estado general y el rendimiento de un clúster de [CockroachDB](https://www.cockroachlabs.com/product/cockroachdb). ## Configuración ### Instalación -El check de CockroachDB está incluido en el paquete del [Datadog Agent][2], por lo que no -necesitas instalar nada más en tu servidor. +El check de CockroachDB está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest) package,, por lo que no necesitas instalar nada más en tus servidores CockroachDB. -A partir de la versión 1.9.0, esta integración basada en OpenMetrics cuenta con un modo más reciente (que se activa configurando `openmetrics_endpoint` para que apunte al endpoint de destino) y un modo heredado (que se activa configurando `prometheus_url`). Para obtener todas las funciones más actualizadas, Datadog recomienda activar el modo más reciente. Ten en cuenta que el último modo requiere Python 3. Para obtener más información, consulta [Versiones más recientes y heredadas de integraciones basadas en OpenMetrics][3]. +A partir de la versión 1.9.0, esta integración basada en OpenMetrics cuenta con un modo más reciente (que se activa configurando `openmetrics_endpoint` para que apunte al endpoint de destino) y un modo legacy (que se activa configurando `prometheus_url`). Para obtener todas las funciones más actualizadas, Datadog recomienda activar el modo más reciente. Ten en cuenta que el modo más reciente requiere Python 3. Para obtener más información, consulta [Versiones más recientes y legacy de integraciones basadas en OpenMetrics](https://docs.datadoghq.com/integrations/guide/versions-for-openmetrics-based-integrations). -Para los hosts que no pueden usar Python 3, o que no pueden usar el modo heredado, consulta la siguiente [configuración][4]. +Para los hosts que no pueden utilizar Python 3, o para utilizar el modo legacy, consulta la siguiente [configuración](https://github.com/DataDog/integrations-core/blob/7.33.x/cockroachdb/datadog_checks/cockroachdb/data/conf.yaml.example). ### Configuración {{< tabs >}} + {{% tab "Host" %}} -#### Host +#### host Para configurar este check para un Agent que se ejecuta en un host: ##### Recopilación de métricas -1. Edita el archivo `cockroachdb.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][1], para empezar a recopilar los datos de rendimiento de tu CockroachDB. Para un clúster de varios nodos, configura una instancia de check independiente para cada nodo. Para conocer todas las opciones de configuración disponibles, consulta el [cockroachdb.d/conf.yaml de ejemplo][2]. +1. Edita el archivo `cockroachdb.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/) para comenzar a recopilar datos de rendimiento de CockroachDB. Consulta el [ejemplo de cockroachdb.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/cockroachdb/datadog_checks/cockroachdb/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. ```yaml init_config: @@ -114,19 +57,19 @@ Para configurar este check para un Agent que se ejecuta en un host: - openmetrics_endpoint: http://localhost:8080/_status/vars ``` -2. [Reinicia el Agent][3]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). ##### Recopilación de logs _Disponible para la versión 6.0 o posteriores del Agent_ -1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala en tu archivo `datadog.yaml`: +1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en `datadog.yaml`: ```yaml logs_enabled: true ``` -2. Añade este bloque de configuración a tu archivo `cockroachdb.d/conf.yaml` para empezar a recopilar tus logs de CockroachDB: +1. Añade este bloque de configuración a tu archivo `cockroachdb.d/conf.yaml` para empezar a recopilar tus logs de CockroachDB: ```yaml logs: @@ -140,19 +83,17 @@ _Disponible para la versión 6.0 o posteriores del Agent_ pattern: [A-Z]\d{6}\s\d+\:\d+\:\d+\.\d+ ``` - Cambia los valores de los parámetros `path` y `service` y configúralos para tu entorno. Consulta el [cockroachdb.d/conf.yaml de ejemplo][2] para ver todas las opciones de configuración disponibles. + Cambia los valores de los parámetros `path` y `service` y configúralos para tu entorno. Consulta el [ejemplo de cockroachdb.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/cockroachdb/datadog_checks/cockroachdb/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. -3. [Reinicia el Agent][3]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). -[1]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/ -[2]: https://github.com/DataDog/integrations-core/blob/master/cockroachdb/datadog_checks/cockroachdb/data/conf.yaml.example -[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent {{% /tab %}} + {{% tab "Contenedorizado" %}} -#### Contenedores +#### En contenedores -Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. +Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. | Parámetro | Valor | | -------------------- | -------------------------------------------------------- | @@ -162,32 +103,2136 @@ Para entornos en contenedores, consulta las [plantillas de integración de Autod ##### Recopilación de logs -La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta [Recopilación de logs de Docker][2]. +La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Docker](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations). -Luego, configura las [integraciones de logs][2] como etiquetas de Docker: +A continuación, configura [integraciones de logs](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como etiquetas Docker: ```yaml LABEL "com.datadoghq.ad.logs"='[{"source": "cockroachdb", "service": ""}]' ``` -[1]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ -[2]: https://docs.datadoghq.com/es/agent/docker/log/?tab=containerinstallation#log-integrations {{% /tab %}} + {{< /tabs >}} ### Validación -[Ejecuta el subcomando `status` del Agent][5] y busca `cockroachdb` en la sección Checks. +[Ejecuta el subcomando `status` del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `cockroachdb` en la sección Checks. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "cockroachdb" >}} +| | | +| --- | --- | +| **cockroachdb.abortspanbytes**
(gauge) | Número de bytes del tramo (span) de cancelación
_Se muestra como byte_ | +| **cockroachdb.addsstable.applications**
(count) | \[OpenMetrics v1\] Número de ingestas de SSTable aplicadas (es decir, aplicadas por réplicas)
_Se muestra como operación_ | +| **cockroachdb.addsstable.applications.count**
(count) | \[OpenMetrics v2\] Número de ingestas de SSTable aplicadas (es decir, aplicadas por réplicas)
_Se muestra como operación_ | +| **cockroachdb.addsstable.copies**
(count) | \[OpenMetrics v1\] Número de ingestas de SSTable que requirieron copiar archivos durante la aplicación
_Se muestra como operación_ | +| **cockroachdb.addsstable.copies.count**
(count) | \[OpenMetrics v2\] Número de ingestas de SSTable que requirieron copiar archivos durante la aplicación
_Se muestra como operación_ | +| **cockroachdb.addsstable.delay.count**
(count) | Cantidad en la que se retrasó la evaluación de las solicitudes AddSSTable
_Se muestra como nanosegundo_ | +| **cockroachdb.addsstable.delay.enginebackpressure.count**
(count) | Cantidad en la que se retrasó la evaluación de las solicitudes AddSSTable por la contrapresión del motor de almacenamiento
_Se muestra como nanosegundo_. | +| **cockroachdb.addsstable.proposals**
(count) | \[OpenMetrics v1\] Número de ingestas de SSTable propuestas (es decir, enviadas a Raft por los arrendatarios)
_Se muestra como operación_ | +| **cockroachdb.addsstable.proposals.count**
(count) | \[OpenMetrics v2\] Número de ingestas de SSTable propuestas (es decir, enviadas a Raft por los arrendatarios)
_Se muestra como operación_ | +| **cockroachdb.admission.admitted.elastic_cpu.bulk_normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.elastic_cpu.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.elastic_cpu.normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.kv**
(count) | \[OpenMetrics v1\] Número de solicitudes KV admitidas
_Se muestra como solicitud_ | +| **cockroachdb.admission.admitted.kv.bulk_normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.kv.count**
(count) | \[OpenMetrics v2\] Número de solicitudes KV admitidas
_Se muestra como solicitud_ | +| **cockroachdb.admission.admitted.kv.high_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.kv.locking_normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.kv.normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.kv_stores**
(count) | \[OpenMetrics v1\] Número de solicitudes de almacenes KV admitidas
_Se muestra como solicitud_ | +| **cockroachdb.admission.admitted.kv_stores.bulk_normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.kv_stores.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de almacenes KV admitidas
_Se muestra como solicitud_ | +| **cockroachdb.admission.admitted.kv_stores.high_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.kv_stores.locking_normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.kv_stores.normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.kv_stores.ttl_low_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.sql.leaf.start**
(count) | \[OpenMetrics v1\] Número de solicitudes de inicio de hoja SQL admitidas
_Se muestra como solicitud_ | +| **cockroachdb.admission.admitted.sql.leaf.start.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de inicio de hoja SQL admitidas
_Se muestra como solicitud_ | +| **cockroachdb.admission.admitted.sql.root.start**
(count) | \[OpenMetrics v1\] Número de solicitudes de inicio de raíz SQL admitidas
_Se muestra como solicitud_ | +| **cockroachdb.admission.admitted.sql.root.start.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de inicio de raíz SQL admitidas
_Se muestra como solicitud_ | +| **cockroachdb.admission.admitted.sql_kv.response**
(count) | \[OpenMetrics v1\] Número de solicitudes de respuesta SQL KV admitidas
_Se muestra como solicitud_ | +| **cockroachdb.admission.admitted.sql_kv.response.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de respuesta SQL KV admitidas
_Se muestra como solicitud_ | +| **cockroachdb.admission.admitted.sql_kv_response.locking_normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.sql_kv_response.normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.sql_leaf_start.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.sql_leaf_start.locking_normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.sql_leaf_start.normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.sql_root_start.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.sql_root_start.locking_normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.sql_root_start.normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.sql_sql.response**
(count) | \[OpenMetrics v1\] Número de solicitudes de respuesta SQL distribuidas admitidas
_Se muestra como solicitud_ | +| **cockroachdb.admission.admitted.sql_sql.response.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de respuesta SQL distribuidas admitidas
_Se muestra como solicitud_ | +| **cockroachdb.admission.admitted.sql_sql_response.locking_normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.admitted.sql_sql_response.normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.elastic_cpu.acquired_nanos.count**
(count) | Total de nanosegundos de CPU adquiridos por el trabajo elástico
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.elastic_cpu.available_nanos**
(gauge) | Nanosegundos de CPU disponibles instantáneamente por segundo ignorando el límite de uso
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.elastic_cpu.max_available_nanos.count**
(count) | Máximo de nanosegundos de CPU disponibles por segundo ignorando el límite de uso
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.elastic_cpu.nanos_exhausted_duration**
(gauge) | Duración total cuando se agotaron los nanosegundos de CPU elástica, en microsegundos| +| **cockroachdb.admission.elastic_cpu.over_limit_durations.bucket**
(count) | Medida de cuánto sobrepasaron el límite prescrito las solicitudes elásticas (no se registra si las solicitudes no se sobrepasan)
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.elastic_cpu.over_limit_durations.count**
(count) | Medida de cuánto sobrepasaron el límite prescrito las solicitudes elásticas (no se registra si las solicitudes no sobrepasan)
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.elastic_cpu.over_limit_durations.sum**
(count) | Medida de cuánto sobrepasaron el límite prescrito las solicitudes elásticas (no se registra si las solicitudes no sobrepasan)
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.elastic_cpu.pre_work_nanos.count**
(count) | Total de nanosegundos de CPU dedicados al trabajo previo, antes de realizar el trabajo elástico
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.elastic_cpu.returned_nanos.count**
(count) | Total de nanosegundos de CPU devueltos por el trabajo elástico
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.elastic_cpu.utilization**
(gauge) | Uso de CPU por trabajo elástico
_Se muestra como porcentaje_ | +| **cockroachdb.admission.elastic_cpu.utilization_limit**
(gauge) | Límite de uso fijado para el trabajo elástico de la CPU
_Se muestra como porcentaje_ | +| **cockroachdb.admission.errored.elastic_cpu.bulk_normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.elastic_cpu.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.elastic_cpu.normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.kv.bulk_normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.errored.kv.count**
(count) | \[OpenMetrics v1\] Número de solicitudes KV no admitidas debido a un error
_Se muestra como solicitud_ | +| **cockroachdb.admission.errored.kv.countt**
(count) | \[OpenMetrics v2\] Número de solicitudes KV no admitidas debido a un error
_Se muestra como solicitud_ | +| **cockroachdb.admission.errored.kv.high_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.kv.locking_normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.kv.normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.kv_stores.bulk_normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.kv_stores.count**
(count) | \[OpenMetrics v1\] Número de solicitudes de almacenes KV no admitidas debido a un error
_Se muestra como solicitud_ | +| **cockroachdb.admission.errored.kv_stores.countt**
(count) | \[OpenMetrics v2\] Número de solicitudes de almacenes KV no admitidas debido a un error
_Se muestra como solicitud_ | +| **cockroachdb.admission.errored.kv_stores.high_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.kv_stores.locking_normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.kv_stores.normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.kv_stores.ttl_low_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.sql.leaf.start**
(count) | \[OpenMetrics v1\] Número de peticiones de inicio de hoja SQL no admitidas debido a un error
_Se muestra como solicitud_ | +| **cockroachdb.admission.errored.sql.leaf.start.count**
(count) | \[OpenMetrics v2\] Número de peticiones de inicio de hoja SQL no admitidas debido a un error
_Se muestra como solicitud_ | +| **cockroachdb.admission.errored.sql.root.start**
(count) | \[OpenMetrics v1\] Número de solicitudes de inicio de raíz SQL no admitidas debido a un error
_Se muestra como solicitud_ | +| **cockroachdb.admission.errored.sql.root.start.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de inicio de raíz SQL no admitidas debido a un error
_Se muestra como solicitud_ | +| **cockroachdb.admission.errored.sql_kv.response**
(count) | \[OpenMetrics v1\] Número de solicitudes SQL KV no admitidas debido a un error
_Se muestra como solicitud_ | +| **cockroachdb.admission.errored.sql_kv.response.count**
(count) | \[OpenMetrics v2\] Número de solicitudes SQL KV no admitidas debido a un error
_Se muestra como solicitud_ | +| **cockroachdb.admission.errored.sql_kv_response.locking_normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.sql_kv_response.normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.sql_leaf_start.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.sql_leaf_start.locking_normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.sql_leaf_start.normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.sql_root_start.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.sql_root_start.locking_normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.sql_root_start.normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.sql_sql.response**
(count) | \[OpenMetrics v1\] Número de solicitudes SQL distribuidas no admitidas debido a un error
_Se muestra como solicitud_ | +| **cockroachdb.admission.errored.sql_sql.response.count**
(count) | \[OpenMetrics v2\] Número de solicitudes SQL distribuidas no admitidas debido a un error
_Se muestra como solicitud_ | +| **cockroachdb.admission.errored.sql_sql_response.locking_normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.errored.sql_sql_response.normal_pri.count**
(count) | Número de solicitudes no admitidas debido a un error| +| **cockroachdb.admission.granter.cpu_load_long_period_duration.kv.count**
(count) | Duración total cuando CPULoad fue llamado con un periodo largo, en micros| +| **cockroachdb.admission.granter.cpu_load_short_period_duration.kv.count**
(count) | Duración total cuando CPULoad fue llamado con un periodo corto, en micros| +| **cockroachdb.admission.granter.elastic_io_tokens_available.kv**
(gauge) | Número de tokens disponibles| +| **cockroachdb.admission.granter.io.tokens.exhausted.duration.kv**
(count) | \[OpenMetrics v1\] Duración total cuando se agotaron los tokens de E/S, en micros
_Se muestra como microsegundo_ | +| **cockroachdb.admission.granter.io.tokens.exhausted.duration.kv.count**
(count) | \[OpenMetrics v2\] Duración total cuando se agotaron los tokens de E/S, en micros
_Se muestra como microsegundo_ | +| **cockroachdb.admission.granter.io_tokens_available.kv**
(gauge) | Número de tokens disponibles| +| **cockroachdb.admission.granter.io_tokens_bypassed.kv.count**
(count) | Número total de tokens tomados por trabajos que eluden el control de admisión (por ejemplo, escrituras de seguidores sin control de flujo)| +| **cockroachdb.admission.granter.io_tokens_exhausted_duration.kv.count**
(count) | Duración total cuando se agotaron los tokens de E/S, en micros| +| **cockroachdb.admission.granter.io_tokens_returned.kv.count**
(count) | Número total de tokens devueltos| +| **cockroachdb.admission.granter.io_tokens_taken.kv.count**
(count) | Número total de tokens tomados| +| **cockroachdb.admission.granter.slot_adjuster_decrements.kv.count**
(count) | Número de decrementos del total de ranuras KV| +| **cockroachdb.admission.granter.slot_adjuster_increments.kv.count**
(count) | Número de incrementos del total de ranuras KV| +| **cockroachdb.admission.granter.slots_exhausted_duration.kv.count**
(count) | Duración total cuando se agotaron las ranuras KV, en micros| +| **cockroachdb.admission.granter.total.slots.kv**
(gauge) | \[OpenMetrics v1 y v2\] Total de ranuras para el trabajo KV| +| **cockroachdb.admission.granter.total_slots.kv**
(gauge) | Ranuras totales para el trabajo KV| +| **cockroachdb.admission.granter.used.slots.kv**
(gauge) | \[OpenMetrics v1 y v2\] Ranuras utilizadas para el trabajo KV| +| **cockroachdb.admission.granter.used.slots.sql.leaf.start**
(gauge) | \[OpenMetrics v1 y v2\] Ranuras utilizadas para el trabajo de inicio de hoja SQL| +| **cockroachdb.admission.granter.used.slots.sql.root.start**
(gauge) | \[OpenMetrics v1 y v2\] Ranuras utilizadas para el trabajo de inicio de raíz SQL| +| **cockroachdb.admission.granter.used_slots.kv**
(gauge) | Ranuras utilizadas| +| **cockroachdb.admission.granter.used_slots.sql_leaf_start**
(gauge) | Ranuras utilizadas| +| **cockroachdb.admission.granter.used_slots.sql_root_start**
(gauge) | Ranuras utilizadas| +| **cockroachdb.admission.io.overload**
(gauge) | Float normalizado a 1 que indica si el control de admisión de E/S considera el almacén como sobrecargado con respecto a la compactación fuera de L0 (considera subniveles y recuentos de archivos).| +| **cockroachdb.admission.l0_compacted_bytes.kv.count**
(count) | Total de bytes compactados a partir de L0 (utilizados para generar tokens de E/S)| +| **cockroachdb.admission.l0_tokens_produced.kv.count**
(count) | Número total de tokens generados a partir de L0| +| **cockroachdb.admission.raft.paused_replicas**
(gauge) | Número de seguidores (es decir, réplicas) cuya replicación está actualmente pausada para ayudarles a recuperarse de la sobrecarga de E/S. Estas réplicas se ignoran a efectos de la cuota de propuesta y no reciben tráfico de replicación. Esencialmente, son tratadas como desconectadas a efectos de replicación. Esto sirve como una forma rudimentaria de control de admisión. El recuento es emitido por el arrendatario de cada rango.| +| **cockroachdb.admission.raft.paused_replicas_dropped_msgs.count**
(count) | Número de mensajes descartados en lugar de ser enviados a réplicas pausadas. Los mensajes se descartan para ayudar a estas réplicas a recuperarse de la sobrecarga de E/S.| +| **cockroachdb.admission.requested.elastic_cpu.bulk_normal_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.elastic_cpu.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.elastic_cpu.normal_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.kv**
(count) | \[OpenMetrics v1\] Número de solicitudes de admisión KV
_Se muestra como solicitud_ | +| **cockroachdb.admission.requested.kv.bulk_normal_pri.count**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.requested.kv.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de admisión KV
_Se muestra como solicitud_ | +| **cockroachdb.admission.requested.kv.high_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.kv.locking_normal_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.kv.normal_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.kv_stores.bulk_normal_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.kv_stores.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de admisión de almacenes KV
_Se muestra como solicitud_ | +| **cockroachdb.admission.requested.kv_stores.high_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.kv_stores.locking_normal_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.kv_stores.normal_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.kv_stores.ttl_low_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.sql.leaf.start**
(count) | \[OpenMetrics v1\] Número de solicitudes de admisión de inicio de hoja SQL
_Se muestra como solicitud_ | +| **cockroachdb.admission.requested.sql.leaf.start.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de admisión de inicio de hoja SQL
_Se muestra como solicitud_ | +| **cockroachdb.admission.requested.sql_kv.response**
(count) | \[OpenMetrics v1\] Número de solicitudes de admisión SQL KV
_Se muestra como solicitud_ | +| **cockroachdb.admission.requested.sql_kv.response.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de admisión SQL KV
_Se muestra como solicitud_ | +| **cockroachdb.admission.requested.sql_kv_response.locking_normal_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.sql_kv_response.normal_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.sql_leaf_start.locking_normal_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.sql_leaf_start.normal_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.sql_root_start.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.sql_root_start.locking_normal_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.sql_root_start.normal_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.sql_sql.response**
(count) | \[OpenMetrics v1\] Número de solicitudes de admisión SQL distribuidas
_Se muestra como solicitud_ | +| **cockroachdb.admission.requested.sql_sql.response.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de admisión SQL distribuidas
_Se muestra como solicitud_ | +| **cockroachdb.admission.requested.sql_sql_response.locking_normal_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.requested.sql_sql_response.normal_pri.count**
(count) | Número de solicitudes| +| **cockroachdb.admission.scheduler_latency_listener.p99_nanos**
(gauge) | La latencia de programación en el p99 observada por el escuchador de latencia del programador
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.kv**
(gauge) | \[OpenMetrics v1\] Duraciones de tiempo de espera de solicitudes KV que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.kv.bucket**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes KV que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.kv.count**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes KV que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.kv.sum**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes KV que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.kv_stores**
(gauge) | \[OpenMetrics v1\] Duraciones de tiempo de espera de solicitudes de almacenes KV que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.kv_stores.bucket**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de almacenes KV que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.kv_stores.count**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de almacenes KV que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.kv_stores.sum**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de almacenes KV que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.sql.leaf.start**
(gauge) | \[OpenMetrics v1\] Duraciones de tiempo de espera de solicitudes de inicio de hoja SQL que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.sql.leaf.start.bucket**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de inicio de hoja SQL que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.sql.leaf.start.count**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de inicio de hoja SQL que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.sql.leaf.start.sum**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de inicio de hoja SQL que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.sql_kv.response**
(gauge) | \[OpenMetrics v1\] Duraciones de tiempo de espera de solicitudes de respuesta SQL KV que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.sql_kv.response.bucket**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de respuesta SQL KV que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.sql_kv.response.count**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de respuesta SQL KV que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.sql_kv.response.sum**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes de respuesta SQL KV que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.sql_sql.response**
(gauge) | \[OpenMetrics v1\] Duraciones de tiempo de espera de solicitudes SQL distribuidas que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.sql_sql.response.bucket**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes SQL distribuidas que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.sql_sql.response.count**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes SQL distribuidas que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.durations.sql_sql.response.sum**
(count) | \[OpenMetrics v2\] Duraciones de tiempo de espera de solicitudes SQL distribuidas que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait.queue.length.kv**
(gauge) | \[OpenMetrics v1 y v2\] Longitud de la cola de espera KV| +| **cockroachdb.admission.wait.queue.length.kv_stores**
(gauge) | \[OpenMetrics v1 y v2\] Longitud de la cola de espera de los almacenes KV| +| **cockroachdb.admission.wait.queue.length.sql.leaf.start**
(gauge) | \[OpenMetrics v1 y v2\] Longitud de la cola de espera de inicio de la hoja SQL| +| **cockroachdb.admission.wait.queue.length.sql_kv.response**
(gauge) | \[OpenMetrics v1 y v2\] Longitud de la cola de espera SQL KV| +| **cockroachdb.admission.wait.queue.length.sql_sql.response**
(gauge) | \[OpenMetrics v1 y v2\] Longitud de la cola de espera SQL distribuida| +| **cockroachdb.admission.wait.queue.lengths.sql.root.start**
(gauge) | \[OpenMetrics v1 y v2\] Longitud de la cola de espera de inicio de la raíz SQL| +| **cockroachdb.admission.wait.sum.kv**
(count) | \[OpenMetrics v1\] Tiempo total de espera KV en micros
_Se muestra como microsegundo_ | +| **cockroachdb.admission.wait.sum.kv.count**
(count) | \[OpenMetrics v2\] Tiempo total de espera KV en micros
_Se muestra como microsegundo_ | +| **cockroachdb.admission.wait.sum.kv_stores**
(count) | \[OpenMetrics v1\] Tiempo total de espera de los almacenes KV en micros
_Se muestra como microsegundo_ | +| **cockroachdb.admission.wait.sum.kv_stores.count**
(count) | \[OpenMetrics v2\] Tiempo total de espera de los almacenes KV en micros
_Se muestra como microsegundo_ | +| **cockroachdb.admission.wait.sum.sql.root.start**
(count) | \[OpenMetrics v1\] Tiempo total de espera de inicio de raíz SQL en micros
_Se muestra como microsegundo_ | +| **cockroachdb.admission.wait.sum.sql.root.start.count**
(count) | \[OpenMetrics v2\] Tiempo total de espera de inicio de raíz SQL en micros
_Se muestra como microsegundo_ | +| **cockroachdb.admission.wait.sum.sql_kv.response**
(count) | \[OpenMetrics v1\] Tiempo total de espera de SQL KV en micros
_Se muestra como microsegundo_ | +| **cockroachdb.admission.wait.sum.sql_kv.response.count**
(count) | \[OpenMetrics v2\] Tiempo total de espera de SQL KV en micros
_Se muestra como microsegundo_ | +| **cockroachdb.admission.wait.sum.sql_sql.response**
(count) | \[OpenMetrics v1\] Tiempo total de espera de SQL distribuido en micros
_Se muestra como microsegundo_ | +| **cockroachdb.admission.wait.sum.sql_sql.response.count**
(count) | \[OpenMetrics v2\] Tiempo total de espera de SQL distribuido en micros
_Se muestra como microsegundo_ | +| **cockroachdb.admission.wait_durations.elastic_cpu.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.elastic_cpu.bulk_normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.elastic_cpu.bulk_normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.elastic_cpu.bulk_normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.elastic_cpu.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.elastic_cpu.normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.elastic_cpu.normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.elastic_cpu.normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.elastic_cpu.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv.bulk_normal_pri**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.wait_durations.kv.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv.high_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv.high_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv.high_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv.locking_normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv.locking_normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv.locking_normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv.normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv.normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv.normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.bulk_normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.bulk_normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.bulk_normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.high_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.high_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.high_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.locking_normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.locking_normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.locking_normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.ttl_low_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.ttl_low_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.kv_stores.ttl_low_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_kv_response.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_kv_response.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_kv_response.locking_normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_kv_response.locking_normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_kv_response.locking_normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_kv_response.normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_kv_response.normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_kv_response.normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_kv_response.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_leaf_start.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_leaf_start.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_leaf_start.locking_normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_leaf_start.locking_normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_leaf_start.locking_normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_leaf_start.normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_leaf_start.normal_pri.count**
(count) | Duración del tiempo de espera para las solicitudes que esperaron
_Se muestra en nanosegundos_ | +| **cockroachdb.admission.wait_durations.sql_leaf_start.normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_leaf_start.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_root_start.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_root_start.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_root_start.locking_normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_root_start.locking_normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_root_start.locking_normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_root_start.normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_root_start.normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_root_start.normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_root_start.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_sql_response.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_sql_response.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_sql_response.locking_normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_sql_response.locking_normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_sql_response.locking_normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_sql_response.normal_pri.bucket**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_sql_response.normal_pri.count**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_sql_response.normal_pri.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_durations.sql_sql_response.sum**
(count) | Duración del tiempo de espera de solicitudes que esperaron
_Se muestra como nanosegundo_ | +| **cockroachdb.admission.wait_queue_length.elastic_cpu**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.elastic_cpu.bulk_normal_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.elastic_cpu.normal_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.kv**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.kv.bulk_normal_pri**
(count) | Número de solicitudes admitidas| +| **cockroachdb.admission.wait_queue_length.kv.high_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.kv.locking_normal_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.kv.normal_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.kv_stores**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.kv_stores.bulk_normal_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.kv_stores.high_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.kv_stores.locking_normal_pri**
(calibre) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.kv_stores.normal_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.kv_stores.ttl_low_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.sql_kv_response**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.sql_kv_response.locking_normal_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.sql_kv_response.normal_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.sql_leaf_start**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.sql_leaf_start.locking_normal_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.sql_leaf_start.normal_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.sql_root_start**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.sql_root_start.locking_normal_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.sql_root_start.normal_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.sql_sql_response**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.sql_sql_response.locking_normal_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.admission.wait_queue_length.sql_sql_response.normal_pri**
(gauge) | Duración de la cola de espera| +| **cockroachdb.backup.last_failed_time.kms_inaccessible**
(indicador) | La marca de tiempo Unix del fallo más reciente de la copia de seguridad debido a errKMSInaccessible por una copia de seguridad especificada como que mantiene esta métrica| +| **cockroachdb.batch_requests.bytes.count**
(count) | Recuento total de bytes de solicitudes por lotes procesadas
_Se muestra como byte_ | +| **cockroachdb.batch_requests.cross_region.bytes.count**
(count) | Recuento total de bytes de solicitudes por lotes procesadas en toda la región cuando los niveles de región están configurados
_Se muestra como byte_ | +| **cockroachdb.batch_requests.cross_zone.bytes.count**
(count) | Recuento total de bytes de solicitudes por lotes procesadas entre zonas dentro de la misma región cuando los niveles de región y zona están configurados. Sin embargo, si los niveles de región no están configurados, este recuento también puede incluir datos por lotes enviados entre diferentes regiones. Garantizar una configuración coherente de los niveles de región y zona en todos los nodos ayuda a monitorizar con precisión los datos transmitidos.
_Se muestra como byte_ | +| **cockroachdb.batch_responses.bytes.count**
(count) | Recuento total de bytes de respuestas por lotes recibidas
_Se muestra como byte_ | +| **cockroachdb.batch_responses.cross_region.bytes.count**
(count) | Recuento total de bytes de respuestas por lotes recibidas en toda la región cuando los niveles de región están configurados
_Se muestra como byte_ | +| **cockroachdb.batch_responses.cross_zone.bytes.count**
(count) | Recuento total de bytes de respuestas por lotes recibidas entre zonas dentro de la misma región cuando los niveles de región y zona están configurados. Sin embargo, si los niveles de región no están configurados, este recuento también puede incluir datos por lotes recibidos entre diferentes regiones. Garantizar una configuración coherente de los niveles de región y zona en todos los nodos ayuda a monitorizar con precisión los datos transmitidos.
_Se muestra como byte_ | +| **cockroachdb.build.timestamp**
(gauge) | \[OpenMetrics v1 y v2\] Información de compilación
_Se muestra como tiempo_ | +| **cockroachdb.capacity.available**
(gauge) | \[OpenMetrics v1 y v2\] Capacidad de almacenamiento disponible
_Se muestra como byte_ | +| **cockroachdb.capacity.reserved**
(gauge) | \[OpenMetrics v1 y v2\] Capacidad reservada para snapshots
_Se muestra como byte_ | +| **cockroachdb.capacity.total**
(gauge) | \[OpenMetrics v1 y v2\] Capacidad total de almacenamiento
_Se muestra como byte_ | +| **cockroachdb.capacity.used**
(gauge) | \[OpenMetrics v1 y v2\] Capacidad de almacenamiento utilizada
_Se muestra como byte_ | +| **cockroachdb.changefeed.admit.latency**
(gauge) | \[OpenMetrics v1\] Latencia de admisión de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que fue admitido en el pipeline changefeed
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.admit.latency.bucket**
(count) | \[OpenMetrics v2\] Latencia de admisión de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que fue admitido en el pipeline changefeed
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.admit.latency.count**
(count) | \[OpenMetrics v2\] Latencia de admisión de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que fue admitido en el pipeline changefeed
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.admit.latency.sum**
(count) | \[OpenMetrics v2\] Latencia de admisión de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que fue admitido en el pipeline changefeed
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.aggregator_progress**
(gauge) | Fecha más temprana hasta la que se garantiza que cualquier agregador ha emitido todos los valores para| +| **cockroachdb.changefeed.backfill**
(gauge) | \[OpenMetrics v1 y v2\] Número de changefeeds que ejecutan backfills en la actualidad| +| **cockroachdb.changefeed.backfill.pending.ranges**
(gauge) | \[OpenMetrics v1 y v2\] Número de rangos en un backfill en curso que aún no se han emitido por completo| +| **cockroachdb.changefeed.backfill_count**
(gauge) | Número de changefeeds que ejecutan backfills en la actualidad| +| **cockroachdb.changefeed.batch_reduction_count**
(gauge) | Número de veces que un nodo agregador de changefeed intentó reducir el tamaño de los lotes de mensajes que emitía al sumidero| +| **cockroachdb.changefeed.buffer_entries.allocated_mem**
(gauge) | Asignación actual de memoria del grupo de cuotas
_Se muestra como byte_ | +| **cockroachdb.changefeed.buffer_entries.flush.count**
(count) | Número de elementos de descarga añadidos al búfer| +| **cockroachdb.changefeed.buffer_entries.in.count**
(count) | Total de entradas que ingresan al búfer entre raft y los sumideros de changefeeds| +| **cockroachdb.changefeed.buffer_entries.kv.count**
(count) | Número de elementos KV añadidos al búfer| +| **cockroachdb.changefeed.buffer_entries.out.count**
(count) | Total de entradas que abandonan el búfer entre raft y los sumideros de changefeeds| +| **cockroachdb.changefeed.buffer_entries.released.count**
(count) | Total de entradas procesadas, emitidas y reconocidas por los sumideros| +| **cockroachdb.changefeed.buffer_entries.resolved.count**
(count) | Número de elementos resueltos añadidos al búfer| +| **cockroachdb.changefeed.buffer_entries_mem.acquired.count**
(count) | Cantidad total de memoria adquirida para las entradas a medida que ingresan al sistema| +| **cockroachdb.changefeed.buffer_entries_mem.released.count**
(count) | Cantidad total de memoria liberada por las entradas tras su emisión| +| **cockroachdb.changefeed.buffer_pushback.count**
(count) | Tiempo total dedicado a esperar mientras el búfer estaba lleno
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.bytes.messages_pushback.count**
(count) | Tiempo total de limitación de la cuota de bytes
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.checkpoint_hist_nanos.bucket**
(count) | Tiempo dedicado a comprobar el progreso del changefeed
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.checkpoint_hist_nanos.count**
(count) | Tiempo dedicado a comprobar el progreso del changefeed
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.checkpoint_hist_nanos.sum**
(count) | Tiempo dedicado a comprobar el progreso del changefeed
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.checkpoint_progress**
(gauge) | Marca de tiempo más antigua de cualquier punto de control persistente de un changefeed (los valores anteriores a esta marca de tiempo nunca tendrán que volver a emitirse)| +| **cockroachdb.changefeed.cloudstorage_buffered_bytes**
(gauge) | Número de bytes almacenados en búfer en archivos de sumidero de cloudstorage que aún no se han emitido| +| **cockroachdb.changefeed.commit.latency**
(gauge) | \[OpenMetrics v1\] Latencia de confirmación de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que fue reconocido por el sumidero descendente
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.commit.latency.bucket**
(count) | \[OpenMetrics v2\] Latencia de confirmación de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que fue reconocido por el sumidero descendente
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.commit.latency.count**
(count) | \OpenMetrics v2\] Latencia de confirmación de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que fue reconocido por el sumidero aguas abajo
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.commit.latency.sum**
(count) | \[OpenMetrics v2\] Latencia de confirmación de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que fue reconocido por el sumidero aguas abajo
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.emitted.messages**
(count) | \[OpenMetrics v1\] Mensajes emitidos por todas las fuentes| +| **cockroachdb.changefeed.emitted.messages.count**
(count) | \[OpenMetrics v2\] Mensajes emitidos por todas las fuentes| +| **cockroachdb.changefeed.emitted_bytes**
(count) | Bytes emitidos por todas las fuentes
_Se muestra como byte_ | +| **cockroachdb.changefeed.emitted_bytes.count**
(count) | Bytes emitidos por todas las fuentes| +| **cockroachdb.changefeed.emitted_messages**
(count) | Mensajes emitidos por todas las fuentes| +| **cockroachdb.changefeed.error.retries**
(count) | \ [OpenMetrics v1\] Total de errores reintentables encontrados por todos los changefeeds| +| **cockroachdb.changefeed.error.retries.count**
(count) | \ [OpenMetrics v2\] Total de errores reintentables encontrados por todos los changefeeds| +| **cockroachdb.changefeed.error_retries**
(count) | Total de errores reintentables encontrados por todos los changefeeds| +| **cockroachdb.changefeed.failures**
(count) | \[OpenMetrics v1\] Número total de trabajos de changefeeds que fallaron| +| **cockroachdb.changefeed.failures.count**
(count) | \[OpenMetrics v2\] Número total de trabajos de changefeeds que fallaron| +| **cockroachdb.changefeed.filtered_messages.count**
(count) | Mensajes filtrados por todas las fuentes. Este recuento no incluye el número de mensajes que pueden filtrarse debido a las restricciones de rango.| +| **cockroachdb.changefeed.flush.messages_pushback.count**
(count) | Tiempo total de limitación de la cuota de descarga
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.flush_hist_nanos.bucket**
(count) | Tiempo dedicado a descargar mensajes en todos los changefeeds
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.flush_hist_nanos.count**
(count) | Tiempo dedicado a descargar mensajes en todos los changefeeds
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.flush_hist_nanos.sum**
(count) | Tiempo dedicado a descargar mensajes en todos los changefeeds
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.flushed_bytes.count**
(count) | Bytes emitidos por todas las fuentes; puede ser diferentes de changefeed.emitted_bytes cuando la compresión está activada
_Se muestra como byte_ | +| **cockroachdb.changefeed.flushes.count**
(count) | Total de descargas en todas las fuentes| +| **cockroachdb.changefeed.forwarded_resolved_messages.count**
(count) | Marcas de tiempo resueltas enviadas desde el agregador de cambios a la frontera de cambios| +| **cockroachdb.changefeed.frontier_updates.count**
(count) | Número de actualizaciones de fronteras de cambio en todas las fuentes| +| **cockroachdb.changefeed.internal_retry_message**
(gauge) | Número de mensajes para los que se realizó un intento dentro de un nodo agregador| +| **cockroachdb.changefeed.lagging_ranges**
(gauge) | Número de rangos considerados como atrasados| +| **cockroachdb.changefeed.max.behind.nanos**
(gauge) | \[OpenMetrics v1 y v2\] La mayor duración de confirmación a emisión de cualquier fuente en ejecución| +| **cockroachdb.changefeed.max_behind_nanos**
(gauge) | (Obsoleto en favor de checkpoint_progress) Punto de control persistente de cualquier changefeed más atrasado que el actual
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.message.size.hist**
(gauge) | \[OpenMetrics v1\] Histograma del tamaño de los mensajes| +| **cockroachdb.changefeed.message.size.hist.bucket**
(count) | \[OpenMetrics v2\] Histograma del tamaño de los mensajes| +| **cockroachdb.changefeed.message.size.hist.count**
(count) | \[OpenMetrics v2\] Histograma del tamaño de los mensajes| +| **cockroachdb.changefeed.message.size.hist.sum**
(count) | \[OpenMetrics v2\] Histograma del tamaño de los mensajes| +| **cockroachdb.changefeed.message_size_hist.bucket**
(count) | Histograma del tamaño del mensaje
_Se muestra como byte_ | +| **cockroachdb.changefeed.message_size_hist.count**
(count) | Histograma del tamaño del mensaje
_Se muestra como byte_ | +| **cockroachdb.changefeed.message_size_hist.sum**
(count) | Histograma del tamaño del mensaje
_Se muestra como byte_ | +| **cockroachdb.changefeed.messages.messages_pushback.count**
(count) | Tiempo total de limitación de la cuota de mensajes
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.nprocs_consume_event_nanos.bucket**
(count) | Tiempo total de espera para añadir un evento al consumidor paralelo
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.nprocs_consume_event_nanos.count**
(count) | Tiempo total de espera para añadir un evento al consumidor paralelo
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.nprocs_consume_event_nanos.sum**
(count) | Tiempo total de espera para añadir un evento al consumidor paralelo
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.nprocs_flush_nanos.bucket**
(count) | Tiempo total de inactividad esperando a que el consumidor paralelo se descargue
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.nprocs_flush_nanos.count**
(count) | Tiempo total de inactividad esperando a que el consumidor paralelo se descargue
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.nprocs_flush_nanos.sum**
(count) | Tiempo total de inactividad esperando a que el consumidor paralelo se descargue
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.nprocs_in_flight**
(gauge) | Número de eventos almacenados en el consumidor paralelo| +| **cockroachdb.changefeed.parallel_io_queue_nanos.bucket**
(count) | Tiempo de espera en cola de las solicitudes salientes al sumidero debido a solicitudes en curso con claves en conflicto
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.parallel_io_queue_nanos.count**
(count) | Tiempo de espera en cola de las solicitudes salientes al sumidero debido a solicitudes en curso con claves en conflicto
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.parallel_io_queue_nanos.sum**
(count) | Tiempo de espera en cola de las solicitudes salientes al sumidero debido a solicitudes en curso con claves en conflicto
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.queue_time.count**
(count) | Tiempo que el evento KV estuvo esperando ser procesado
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.running**
(gauge) | \[OpenMetrics v1 y v2\] Número de todos los changefeeds que se están ejecutando actualmente, incluidos los sinkless| +| **cockroachdb.changefeed.schema_registry.registrations.count**
(count) | Número de intentos de inscripción en el registro de esquemas| +| **cockroachdb.changefeed.schema_registry.retry.count**
(count) | Número de reintentos encontrados al enviar solicitudes al registro de esquemas| +| **cockroachdb.changefeed.schemafeed.table_history_scans.count**
(count) | Número de análisis de historiales de tablas durante el sondeo| +| **cockroachdb.changefeed.schemafeed.table_metadata.count**
(count) | Tiempo bloqueado mientras se verifican los historiales de metadatos de tablas
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.sink_batch_hist_nanos.bucket**
(count) | Tiempo transcurrido en el búfer del sumidero antes de ser vaciado y confirmado
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.sink_batch_hist_nanos.count**
(count) | Tiempo transcurrido en el búfer del sumidero antes de ser vaciado y confirmado
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.sink_batch_hist_nanos.sum**
(count) | Tiempo transcurrido en el búfer del sumidero antes de ser vaciado y confirmado
_Se muestra como nanosegundo_ | +| **cockroachdb.changefeed.sink_io_inflight**
(gauge) | Número de claves actualmente en curso como solicitudes de E/S que se envían al sumidero| +| **cockroachdb.changefeed.size_based_flushes.count**
(count) | Descargas totales basadas en el tamaño en todas las fuentes| +| **cockroachdb.clock.offset.meannanos**
(gauge) | \[OpenMetrics v1 y v2\] Desfase medio del reloj con otros nodos en nanosegundos
_Se muestra como nanosegundo_ | +| **cockroachdb.clock.offset.stddevnanos**
(gauge) | \[OpenMetrics v1 y v2\] Desfase Stdddev del reloj con otros nodos en nanosegundos
_Se muestra como nanosegundo_ | +| **cockroachdb.cloud.read_bytes.count**
(count) | Número de bytes leídos
_Se muestra como byte_ | +| **cockroachdb.cloud.write_bytes.count**
(count) | Número de bytes leídos
_Se muestra como byte_ | +| **cockroachdb.cluster.preserve_downgrade_option.last_updated**
(gauge) | Fecha y hora de la última actualización de preserve_downgrade_option| +| **cockroachdb.compactor.compactingnanos**
(count) | \[OpenMetrics v1\] Número de nanosegundos dedicados a compactar rangos
_Se muestra como nanosegundo_ | +| **cockroachdb.compactor.compactingnanos.count**
(count) | \[OpenMetrics v2\] Número de nanosegundos dedicados a compactar rangos
_Se muestra como nanosegundo_ | +| **cockroachdb.compactor.compactions.failure**
(count) | \[OpenMetrics v1\] Número de solicitudes de compactación fallidas enviadas al motor de almacenamiento
_Se muestra como solicitud_ | +| **cockroachdb.compactor.compactions.failure.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de compactación fallidas enviadas al motor de almacenamiento
_Se muestra como solicitud_ | +| **cockroachdb.compactor.compactions.success**
(count) | \[OpenMetrics v1\] Número de solicitudes de compactación enviadas con éxito al motor de almacenamiento
_Se muestra como solicitud_ | +| **cockroachdb.compactor.compactions.success.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de compactación enviadas con éxito al motor de almacenamiento
_Se muestra como solicitud_ | +| **cockroachdb.compactor.suggestionbytes.compacted**
(count) | \[OpenMetrics v1\] Número de bytes lógicos compactados a partir de las compactaciones sugeridas
_Se muestra como byte_ | +| **cockroachdb.compactor.suggestionbytes.compacted.count**
(count) | \[OpenMetrics v2\] Número de bytes lógicos compactados a partir de las compactaciones sugeridas
_Se muestra como byte_ | +| **cockroachdb.compactor.suggestionbytes.queued**
(gauge) | \[OpenMetrics v1 y v2\] Número de bytes lógicos en compactaciones sugeridas en la cola
_Se muestra como byte_ | +| **cockroachdb.compactor.suggestionbytes.skipped**
(count) | \[OpenMetrics v1 y v2\] Número de bytes lógicos en compactaciones sugeridas que no se compactaron
_Se muestra como byte_ | +| **cockroachdb.compactor.suggestionbytes.skipped.count**
(count) | \[OpenMetrics v2\] Número de bytes lógicos en compactaciones sugeridas que no se compactaron
_Se muestra como byte_ | +| **cockroachdb.distsender.batch_requests.cross_region.bytes.count**
(count) | Recuento total de bytes de solicitudes por lotes dirigidas por réplicas procesadas entre regiones cuando los niveles de región están configurados
_Se muestra como byte_ | +| **cockroachdb.distsender.batch_requests.cross_zone.bytes.count**
(count) | Recuento total de bytes de solicitudes por lotes dirigidas por réplicas procesadas entre zonas dentro de la misma región cuando los niveles de región y zona están configurados. Sin embargo, si los niveles de región no están configurados, este recuento también puede incluir datos por lotes enviados entre diferentes regiones. Garantizar una configuración coherente de los niveles de región y zona en todos los nodos ayuda a monitorizar con precisión los datos transmitidos.
_Se muestra como byte_ | +| **cockroachdb.distsender.batch_requests.replica_addressed.bytes.count**
(count) | Recuento total de bytes de solicitudes por lotes dirigidas por réplicas procesadas
_Se muestra como byte_ | +| **cockroachdb.distsender.batch_responses.cross_region.bytes.count**
(count) | Recuento total de bytes de respuestas por lotes dirigidas por réplicas recibidas entre regiones cuando los niveles de región están configurados
_Se muestra como byte_ | +| **cockroachdb.distsender.batch_responses.cross_zone.bytes.count**
(count) | Recuento total de bytes de respuestas por lotes dirigidas por réplicas recibidas entre zonas dentro de la misma región cuando los niveles de región y zona están configurados. Sin embargo, si los niveles de región no están configurados, este recuento también puede incluir datos por lotes recibidos entre diferentes regiones. Garantizar una configuración coherente de los niveles de región y zona en todos los nodos ayuda a monitorizar con precisión los datos transmitidos.
_Se muestra como byte_ | +| **cockroachdb.distsender.batch_responses.replica_addressed.bytes.count**
(count) | Recuento total de bytes de respuestas por lotes dirigidas por réplicas recibidas
_Se muestra como byte_ | +| **cockroachdb.distsender.batches.async.sent.count**
(count) | Número de lotes parciales enviados de forma asíncrona| +| **cockroachdb.distsender.batches.async.throttled.count**
(count) | Número de lotes parciales no enviados de forma asíncrona debido a limitaciones| +| **cockroachdb.distsender.batches.count**
(count) | Número de lotes procesados| +| **cockroachdb.distsender.batches.partial**
(count) | \[OpenMetrics v1\] Número de lotes parciales procesados| +| **cockroachdb.distsender.batches.partial.count**
(count) | \[OpenMetrics v2\] Número de lotes parciales procesados| +| **cockroachdb.distsender.batches.total**
(count) | \[OpenMetrics v1\] Número de lotes procesados| +| **cockroachdb.distsender.batches.total.count**
(count) | \[OpenMetrics v2\] Número de lotes procesados| +| **cockroachdb.distsender.errors.inleasetransferbackoffs.count**
(count) | Número de veces que se ha hecho backoff debido a NotLeaseHolderErrors durante la transferencia del arrendamiento| +| **cockroachdb.distsender.errors.notleaseholder**
(count) | \[OpenMetrics v1\] Número de NotLeaseHolderErrors encontrados
_Se muestra como error_ | +| **cockroachdb.distsender.errors.notleaseholder.count**
(count) | \[OpenMetrics v2\] Número de NotLeaseHolderErrors encontrados
_Se muestra como error_ | +| **cockroachdb.distsender.rangefeed.catchup_ranges**
(gauge) | Número de rangos en modo actualización. Se cuenta el número de rangos con un rangefeed activo que está realizando un análisis de actualización.| +| **cockroachdb.distsender.rangefeed.error_catchup_ranges.count**
(count) | Número de rangos en modo actualización en los que se produjo un error.| +| **cockroachdb.distsender.rangefeed.restart_ranges.count**
(count) | Número de rangos que se reiniciaron debido a errores transitorios| +| **cockroachdb.distsender.rangefeed.retry.logical_ops_missing.count**
(count) | Número de rangos en los que se produjo un error LOGICAL_OPS_MISSING reintentable| +| **cockroachdb.distsender.rangefeed.retry.no_leaseholder.count**
(count) | Número de rangos en los que se produjo un error NO_LEASEHOLDER reintentable| +| **cockroachdb.distsender.rangefeed.retry.node_not_found.count**
(count) | Número de rangos en los que se produjo un error NODE_NOT_FOUND reintentable| +| **cockroachdb.distsender.rangefeed.retry.raft_snapshot.count**
(count) | Número de rangos en los que se produjo un error RAFT_SNAPSHOT reintentable| +| **cockroachdb.distsender.rangefeed.retry.range_key_mismatch.count**
(count) | Número de rangos en los que se produjo un error RANGE_KEY_MISMATCH reintentable| +| **cockroachdb.distsender.rangefeed.retry.range_merged.count**
(count) | Número de rangos en los que se produjo un error RANGE_MERGED reintentable| +| **cockroachdb.distsender.rangefeed.retry.range_not_found.count**
(count) | Número de rangos en los que se produjo un error RANGE_NOT_FOUND reintentable| +| **cockroachdb.distsender.rangefeed.retry.range_split.count**
(count) | Número de rangos en los que se produjo un error RANGE_SPLIT reintentable| +| **cockroachdb.distsender.rangefeed.retry.rangefeed_closed.count**
(count) | Número de rangos en los que se produjo un error RANGEFEED_CLOSED reintentable| +| **cockroachdb.distsender.rangefeed.retry.replica_removed.count**
(count) | Número de rangos en los que se produjo un error REPLICA_REMOVED reintentable| +| **cockroachdb.distsender.rangefeed.retry.send.count**
(count) | Número de en los que se produjo un error SEND reintentable| +| **cockroachdb.distsender.rangefeed.retry.slow_consumer.count**
(count) | Número de rangos en los que se produjo un error SLOW_CONSUMER reintentable| +| **cockroachdb.distsender.rangefeed.retry.store_not_found.count**
(count) | Número de rangos en los que se produjo un error STORE_NOT_FOUND reintentable| +| **cockroachdb.distsender.rangefeed.retry.stuck.count**
(count) | Número de rangos en los que se produjo un error STUCK reintentable| +| **cockroachdb.distsender.rangefeed.total_ranges**
(gauge) | Número de rangos que ejecutan el rangefeed. Se cuenta el número de rangos con un rangefeed activo.| +| **cockroachdb.distsender.rangelookups.count**
(count) | Número de búsquedas de rangos| +| **cockroachdb.distsender.rpc.addsstable.sent.count**
(count) | Número de solicitudes AddSSTable procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.adminchangereplicas.sent.count**
(count) | Número de solicitudes AdminChangeReplicas procesadas. Se cuentan las solicitudes en lotes entregados a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.adminmerge.sent.count**
(count) | Número de solicitudes AdminMerge procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.adminrelocaterange.sent.count**
(count) | Número de solicitudes AdminRelocateRange procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.adminscatter.sent.count**
(count) | Número de solicitudes AdminScatter procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.adminsplit.sent.count**
(count) | Número de solicitudes AdminSplit procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.admintransferlease.sent.count**
(count) | Número de solicitudes AdminTransferLease procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.adminunsplit.sent.count**
(count) | Número de solicitudes AdminUnsplit procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.adminverifyprotectedtimestamp.sent.count**
(count) | Número de solicitudes AdminVerifyProtectedTimestamp procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.barrier.sent.count**
(count) | Número de solicitudes Barrier procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.checkconsistency.sent.count**
(count) | Número de solicitudes CheckConsistency procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.clearrange.sent.count**
(count) | Número de solicitudes ClearRange procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.computechecksum.sent.count**
(count) | Número de solicitudes ComputeChecksum procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.conditionalput.sent.count**
(count) | Número de solicitudes ConditionalPut procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.delete.sent.count**
(count) | Número de solicitudes Delete procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.deleterange.sent.count**
(count) | Número de solicitudes DeleteRange procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.endtxn.sent.count**
(count) | Número de solicitudes EndTxn procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.err.ambiguousresulterrtype.count**
(count) | Número de errores AmbiguousResultErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.batchtimestampbeforegcerrtype.count**
(count) | Número de errores BatchTimestampBeforeGCErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.communicationerrtype.count**
(count) | Número de errores CommunicationErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.conditionfailederrtype.count**
(count) | Número de errores ConditionFailedErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.errordetailtype.count**
(count) | Número de errores ErrorDetailType (etiquetados por su número) recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.indeterminatecommiterrtype.count**
(count) | Número de errores IndeterminateCommitErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.integeroverflowerrtype.count**
(count) | Número de errores IntegerOverflowErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.intentmissingerrtype.count**
(count) | Número de errores IntentMissingErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.internalerrtype.count**
(count) | Número de errores InternalErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.invalidleaseerrtype.count**
(count) | Número de errores InvalidLeaseErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.leaserejectederrtype.count**
(count) | Número de errores LeaseRejectedErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.lockconflicterrtype.count**
(count) | Número de errores LockConflictErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.mergeinprogresserrtype.count**
(count) | Número de errores MergeInProgressErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.mintimestampboundunsatisfiableerrtype.count**
(count) | Número de errores MinTimestampBoundUnsatisfiableErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.mvcchistorymutationerrtype.count**
(count) | Número de errores MVCCHistoryMutationErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.nodeunavailableerrtype.count**
(count) | Número de errores NodeUnavailableErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.notleaseholdererrtype.count**
(count) | Número de errores NotLeaseHolderErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.oprequirestxnerrtype.count**
(count) | Número de errores OpRequiresTxnErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.optimisticevalconflictserrtype.count**
(count) | Número de errores OptimisticEvalConflictsErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.raftgroupdeletederrtype.count**
(count) | Número de errores RaftGroupDeletedErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.rangefeedretryerrtype.count**
(count) | Número de errores RangeFeedRetryErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.rangekeymismatcherrtype.count**
(count) | Number of RangeKeyMismatchErrType errors received replica-bound RPCsEsto cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde las réplicas como parte de la ejecución de peticiones de posible alcance. Los fallos para alcanzar la réplica de destino se contabilizarán como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.rangenotfounderrtype.count**
(count) | Número de errores RangeNotFoundErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.readwithinuncertaintyintervalerrtype.count**
(count) | Número de errores ReadWithinUncertaintyIntervalErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.refreshfailederrtype.count**
(count) | Número de errores RefreshFailedErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.replicacorruptionerrtype.count**
(count) | Número de errores ReplicaCorruptionErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.replicatooolderrtype.count**
(count) | Número de errores ReplicaTooOldErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.storenotfounderrtype.count**
(count) | Número de errores StoreNotFoundErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.transactionabortederrtype.count**
(count) | Número de errores TransactionAbortedErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.transactionpusherrtype.count**
(count) | Número de errores TransactionPushErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.transactionretryerrtype.count**
(count) | Número de errores TransactionRetryErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.transactionretrywithprotorefresherrtype.count**
(count) | Número de errores TransactionRetryWithProtoRefreshErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.transactionstatuserrtype.count**
(count) | Número de errores TransactionStatusErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.txnalreadyencounterederrtype.count**
(count) | Número de errores TxnAlreadyEncounteredErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.unsupportedrequesterrtype.count**
(count) | Número de errores UnsupportedRequestErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.writeintenterrtype.count**
(count) | Número de errores WriteIntentErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.err.writetooolderrtype.count**
(count) | Número de errores WriteTooOldErrType recibidos de RPC de replicación. Se cuenta la frecuencia con la que un error del tipo especificado fue recibido de vuelta desde réplicas como parte de la ejecución de solicitudes que posiblemente abarcan un rango. La imposibilidad de alcanzar la réplica de destino se contabiliza como 'roachpb.CommunicationErrType' y los errores no clasificados como 'roachpb.InternalErrType'.| +| **cockroachdb.distsender.rpc.export.sent.count**
(count) | Número de solicitudes Export procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.gc.sent.count**
(count) | Número de solicitudes GC procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.get.sent.count**
(count) | Número de solicitudes Get procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.heartbeattxn.sent.count**
(count) | Número de solicitudes HeartbeatTxn procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.increment.sent.count**
(count) | Número de solicitudes Increment procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.initput.sent.count**
(count) | Número de solicitudes InitPut procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.isspanempty.sent.count**
(count) | Número de solicitudes IsSpanEmpty procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.leaseinfo.sent.count**
(count) | Número de solicitudes LeaseInfo procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.merge.sent.count**
(count) | Número de solicitudes Merge procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.migrate.sent.count**
(count) | Número de solicitudes Migrate procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.probe.sent.count**
(count) | Número de solicitudes Probe procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.pushtxn.sent.count**
(count) | Número de solicitudes PushTxn procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.put.sent.count**
(count) | Número de solicitudes Put procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.queryintent.sent.count**
(count) | Número de solicitudes QueryIntent procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.querylocks.sent.count**
(count) | Número de solicitudes QueryLocks procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.queryresolvedtimestamp.sent.count**
(count) | Número de solicitudes QueryResolvedTimestamp procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.querytxn.sent.count**
(count) | Número de solicitudes QueryTxn procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.rangestats.sent.count**
(count) | Número de solicitudes RangeStats procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.recomputestats.sent.count**
(count) | Número de solicitudes RecomputeStats procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.recovertxn.sent.count**
(count) | Número de solicitudes RecoverTxn procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.refresh.sent.count**
(count) | Número de solicitudes Refresh procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.refreshrange.sent.count**
(count) | Número de solicitudes RefreshRange procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.requestlease.sent.count**
(count) | Número de solicitudes RequestLease procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.resolveintent.sent.count**
(count) | Número de solicitudes ResolveIntent procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.resolveintentrange.sent.count**
(count) | Número de solicitudes ResolveIntentRange procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.reversescan.sent.count**
(count) | Número de solicitudes ReverseScan procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.revertrange.sent.count**
(count) | Número de solicitudes RevertRange procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.scan.sent.count**
(count) | Número de solicitudes Scan procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.sent.count**
(count) | Número de RPC dirigidas por réplicas enviadas| +| **cockroachdb.distsender.rpc.sent.local**
(count) | \[OpenMetrics v1\] Número de RPC locales enviadas| +| **cockroachdb.distsender.rpc.sent.local.count**
(count) | \[OpenMetrics v2\] Número de RPC locales enviadas| +| **cockroachdb.distsender.rpc.sent.nextreplicaerror**
(count) | \[OpenMetrics v1\] Número de RPC enviadas debido a errores por réplica
_Se muestra como error_ | +| **cockroachdb.distsender.rpc.sent.nextreplicaerror.count**
(count) | \[OpenMetrics v2\] Número de RPC enviadas debido a errores por réplica
_Se muestra como error_ | +| **cockroachdb.distsender.rpc.sent.total**
(count) | \[OpenMetrics v1\] Número de RPC enviadas| +| **cockroachdb.distsender.rpc.sent.total.count**
(count) | \[OpenMetrics v2\] Número de RPC dirigidas por réplicas enviadas| +| **cockroachdb.distsender.rpc.subsume.sent.count**
(count) | Número de solicitudes Subsume procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.transferlease.sent.count**
(count) | Número de solicitudes TransferLease procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.truncatelog.sent.count**
(count) | Número de solicitudes TruncateLog procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.distsender.rpc.writebatch.sent.count**
(count) | Número de solicitudes WriteBatch procesadas. Se cuentan las solicitudes en lotes entregadas a DistSender, no las RPC enviadas a rangos individuales como resultado.| +| **cockroachdb.exec.error**
(count) | \[OpenMetrics v1\] Número de solicitudes KV por lotes que no se pudieron ejecutar en este nodo. Estas advertencias indican una limpieza en lugar de errores, y pueden ignorarse como parte de la operación.
_Se muestra como solicitud_ | +| **cockroachdb.exec.error.count**
(count) | \[OpenMetrics v2\] Número de solicitudes KV por lotes que no se pudieron ejecutar en este nodo. Estas advertencias indican una limpieza en lugar de errores, y pueden ignorarse como parte de la operación.
_Se muestra como solicitud_ | +| **cockroachdb.exec.latency**
(gauge) | \[OpenMetrics v1\] Latencia en nanosegundos de las solicitudes KV por lotes ejecutadas en este nodo
_Se muestra como nanosegundo_ | +| **cockroachdb.exec.latency.bucket**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de las solicitudes KV por lotes ejecutadas en este nodo
_Se muestra como nanosegundo_ | +| **cockroachdb.exec.latency.count**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de las solicitudes KV por lotes ejecutadas en este nodo
_Se muestra como nanosegundo_ | +| **cockroachdb.exec.latency.sum**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de las solicitudes KV por lotes ejecutadas en este nodo
_Se muestra como nanosegundo_ | +| **cockroachdb.exec.success**
(count) | \[OpenMetrics v1\] Número de solicitudes KV por lotes ejecutadas con éxito en este nodo
_Se muestra como solicitud_ | +| **cockroachdb.exec.success.count**
(count) | \[OpenMetrics v2\] Número de solicitudes KV por lotes ejecutadas con éxito en este nodo
_Se muestra como solicitud_ | +| **cockroachdb.exportrequest.delay.count**
(count) | Número de solicitudes Export retrasadas debido a solicitudes concurrentes| +| **cockroachdb.follower_reads.success_count.count**
(count) | Número de lecturas de seguidores exitosas| +| **cockroachdb.gcbytesage**
(gauge) | \[OpenMetrics v1 y v2\] Antigüedad acumulada de los datos no activos en segundos
_Se muestra como segundo_ | +| **cockroachdb.gossip.bytes.received**
(count) | \[OpenMetrics v1\] Número de bytes gossip recibidos
_Se muestra como byte_ | +| **cockroachdb.gossip.bytes.received.count**
(count) | \[OpenMetrics v2\] Número de bytes gossip recibidos
_Se muestra como byte_ | +| **cockroachdb.gossip.bytes.sent**
(count) | \[OpenMetrics v1\] Número de bytes gossip enviados
_Se muestra como byte_ | +| **cockroachdb.gossip.bytes.sent.count**
(count) | \[OpenMetrics v2\] Número de bytes gossip enviados
_Se muestra como byte_ | +| **cockroachdb.gossip.connections.incoming**
(gauge) | \[OpenMetrics v1 y v2\] Número de conexiones gossip entrantes activas
_Se muestra como conexión_ | +| **cockroachdb.gossip.connections.outgoing**
(gauge) | \[OpenMetrics v1 y v2\] Número de conexiones gossip salientes activas
_Se muestra como conexión_ | +| **cockroachdb.gossip.connections.refused**
(count) | \[OpenMetrics v1\] Número de conexiones gossip entrantes rechazadas
_Se muestra como conexión_ | +| **cockroachdb.gossip.connections.refused.count**
(count) | \[OpenMetrics v2\] Número de conexiones gossip entrantes rechazadas
_Se muestra como conexión_ | +| **cockroachdb.gossip.infos.received**
(count) | \[OpenMetrics v1\] Número de objetos de información gossip recibidos| +| **cockroachdb.gossip.infos.received.count**
(count) | \[OpenMetrics v2\] Número de objetos de información gossip recibidos| +| **cockroachdb.gossip.infos.sent**
(count) | \[OpenMetrics v1\] Número de objetos de información gossip enviados| +| **cockroachdb.gossip.infos.sent.count**
(count) | \[OpenMetrics v2\] Número de objetos de información gossip enviados| +| **cockroachdb.intentage**
(gauge) | \[OpenMetrics v1 y v2\] Antigüedad acumulada de intenciones en segundos
_Se muestra como segundo_ | +| **cockroachdb.intentbytes**
(gauge) | \[OpenMetrics v1 y v2\] Número de bytes en pares KV de intenciones
_Se muestra como byte_ | +| **cockroachdb.intentcount**
(gauge) | \[OpenMetrics v1 y v2\] Recuento de claves de intención
_Se muestra como clave_ | +| **cockroachdb.intentresolver.async.throttled**
(count) | Número de intentos de resolución de intenciones no ejecutados de forma asíncrona debido a limitaciones| +| **cockroachdb.intentresolver.async.throttled.count**
(count) | Número de intentos de resolución de intenciones no ejecutados de forma asíncrona debido a limitaciones| +| **cockroachdb.intentresolver.finalized_txns.failed**
(count) | Número de fallos de limpieza de transacciones finalizadas. La limpieza de transacciones se refiere al proceso de resolución de todas las intenciones de una transacción y luego de recolección de su registro de transacciones.| +| **cockroachdb.intentresolver.finalized_txns.failed.count**
(count) | Número de fallos de limpieza de transacciones finalizadas. La limpieza de transacciones se refiere al proceso de resolución de todas las intenciones de una transacción y luego de recolección de su registro de transacciones.| +| **cockroachdb.intentresolver.intents.failed**
(count) | Número de fallos en la resolución de intenciones. La unidad de medida es una sola intención, por lo que si falla un lote de solicitudes de resolución de intenciones, la métrica se incrementará por cada solicitud del lote.| +| **cockroachdb.intentresolver.intents.failed.count**
(count) | Número de fallos en la resolución de intenciones. La unidad de medida es una sola intención, por lo que si falla un lote de solicitudes de resolución de intenciones, la métrica se incrementará por cada solicitud del lote.| +| **cockroachdb.intents.abort_attempts**
(count) | Recuento de intentos de evaluación de intenciones de cancelación de no envenenamiento (punto o rango)| +| **cockroachdb.intents.abort_attempts.count**
(count) | Recuento de intentos de evaluación de intenciones de cancelación de no envenenamiento (punto o rango)| +| **cockroachdb.intents.poison_attempts**
(count) | Recuento de intentos de evaluación de intenciones de cancelación de envenenamiento (punto o rango)| +| **cockroachdb.intents.poison_attempts.count**
(count) | Recuento de intentos de evaluación de intenciones de cancelación de envenenamiento (punto o rango)| +| **cockroachdb.intents.resolve_attempts**
(count) | Recuento de intentos de evaluación de confirmaciones de intenciones (punto o rango)| +| **cockroachdb.intents.resolve_attempts.count**
(count) | Recuento de intentos de evaluación de confirmaciones de intenciones (punto o rango)| +| **cockroachdb.jobs.adopt_iterations.count**
(count) | Número de iteraciones de adopción de trabajos realizadas por el registro| +| **cockroachdb.jobs.auto.create.stats.currently_paused**
(gauge) | Número de trabajos de auto_create_stats actualmente considerados como pausados| +| **cockroachdb.jobs.auto.create.stats.currently_running**
(gauge) | Número de trabajos de auto_create_stats que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.auto.create.stats.resume_failed.count**
(count) | Número de trabajos de auto_create_stats que fallaron con un error no reintentable| +| **cockroachdb.jobs.auto_config_env_runner.currently_idle**
(gauge) | Número de trabajos de auto_config_env_runner actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.auto_config_env_runner.currently_paused**
(gauge) | Número de trabajos de auto_config_env_runner actualmente considerados como pausados| +| **cockroachdb.jobs.auto_config_env_runner.currently_running**
(gauge) | Número de trabajos de auto_config_env_runner que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.auto_config_env_runner.expired_pts_records.count**
(count) | Número de registros timestamp protegidos caducados que son propiedad de trabajos de auto_config_env_runner| +| **cockroachdb.jobs.auto_config_env_runner.fail_or_cancel_completed.count**
(count) | Número de trabajos de auto_config_env_runner que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_config_env_runner.fail_or_cancel_failed.count**
(count) | Número de trabajos de auto_config_env_runner que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_config_env_runner.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de auto_config_env_runner que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_config_env_runner.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de auto_config_env_runner
_Se muestra como segundo_ | +| **cockroachdb.jobs.auto_config_env_runner.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos por trabajos de auto_config_env_runner| +| **cockroachdb.jobs.auto_config_env_runner.resume_completed.count**
(count) | Número de trabajos de auto_config_env_runner reanudados con éxito hasta completarse| +| **cockroachdb.jobs.auto_config_env_runner.resume_failed.count**
(count) | Número de trabajos de auto_config_env_runner que fallaron con un error no reintentable| +| **cockroachdb.jobs.auto_config_env_runner.resume_retry_error.count**
(count) | Número de trabajos de auto_config_env_runner que fallaron con un error reintentable| +| **cockroachdb.jobs.auto_config_runner.currently_idle**
(gauge) | Número de trabajos de auto_config_runner actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.auto_config_runner.currently_paused**
(gauge) | Número de trabajos de auto_config_runner actualmente considerados como pausados| +| **cockroachdb.jobs.auto_config_runner.currently_running**
(gauge) | Número de trabajos de auto_config_runner que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.auto_config_runner.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que pertenecen a trabajos de auto_config_runner| +| **cockroachdb.jobs.auto_config_runner.fail_or_cancel_completed.count**
(count) | Número de trabajos de auto_config_runner que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_config_runner.fail_or_cancel_failed.count**
(count) | Número de trabajos de auto_config_runner que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_config_runner.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de auto_config_runner que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_config_runner.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de auto_config_runner
_Se muestra como segundo_ | +| **cockroachdb.jobs.auto_config_runner.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos por trabajos de auto_config_runner| +| **cockroachdb.jobs.auto_config_runner.resume_completed.count**
(count) | Número de trabajos de auto_config_runner reanudados con éxito hasta completarse| +| **cockroachdb.jobs.auto_config_runner.resume_failed.count**
(count) | Número de trabajos de auto_config_runner que fallaron con un error no reintentable| +| **cockroachdb.jobs.auto_config_runner.resume_retry_error.count**
(count) | Número de trabajos de auto_config_runner que fallaron con un error reintentable| +| **cockroachdb.jobs.auto_config_task.currently_idle**
(gauge) | Número de trabajos de auto_config_task actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.auto_config_task.currently_paused**
(gauge) | Número de trabajos de auto_config_task actualmente considerados como pausados| +| **cockroachdb.jobs.auto_config_task.currently_running**
(gauge) | Número de trabajos de auto_config_task que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.auto_config_task.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de auto_config_task| +| **cockroachdb.jobs.auto_config_task.fail_or_cancel_completed.count**
(count) | Número de trabajos de auto_config_task que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_config_task.fail_or_cancel_failed.count**
(count) | Número de trabajos de auto_config_task que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_config_task.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de auto_config_task que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_config_task.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de auto_config_task
_Se muestra como segundo_ | +| **cockroachdb.jobs.auto_config_task.protected_record_count**
(gauge) | Número de registros de fecha y hora mantenidos por trabajos de auto_config_task| +| **cockroachdb.jobs.auto_config_task.resume_completed.count**
(count) | Número de trabajos de auto_config_task reanudados con éxito hasta completarse| +| **cockroachdb.jobs.auto_config_task.resume_failed.count**
(count) | Número de trabajos de auto_config_task que fallaron con un error no reintentable| +| **cockroachdb.jobs.auto_config_task.resume_retry_error.count**
(count) | Número de trabajos de auto_config_task que fallaron con un error reintentable| +| **cockroachdb.jobs.auto_create_stats.currently_idle**
(gauge) | Número de trabajos de auto_create_stats actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.auto_create_stats.currently_paused**
(gauge) | Número de trabajos de auto_create_stats actualmente considerados como pausados| +| **cockroachdb.jobs.auto_create_stats.currently_running**
(gauge) | Número de trabajos de auto_create_stats que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.auto_create_stats.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de auto_config_stats| +| **cockroachdb.jobs.auto_create_stats.fail_or_cancel_completed.count**
(count) | Número de trabajos de auto_create_stats que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_create_stats.fail_or_cancel_failed.count**
(count) | Número de trabajos de auto_create_stats que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_create_stats.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de auto_create_stats que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_create_stats.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de auto_create_stats
_Se muestra como segundo_ | +| **cockroachdb.jobs.auto_create_stats.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de auto_create_stats| +| **cockroachdb.jobs.auto_create_stats.resume_completed.count**
(count) | Número de trabajos de auto_create_stats reanudados con éxito hasta completarse| +| **cockroachdb.jobs.auto_create_stats.resume_failed.count**
(count) | Número de trabajos de auto_create_stats que fallaron con un error no reintentable| +| **cockroachdb.jobs.auto_create_stats.resume_retry_error.count**
(count) | Número de trabajos de auto_create_stats que fallaron con un error reintentable| +| **cockroachdb.jobs.auto_schema_telemetry.currently_idle**
(gauge) | Número de trabajos de auto_schema_telemetry actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.auto_schema_telemetry.currently_paused**
(gauge) | Número de trabajos de auto_schema_telemetry actualmente considerados como pausados| +| **cockroachdb.jobs.auto_schema_telemetry.currently_running**
(gauge) | Número de trabajos de auto_schema_telemetry que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.auto_schema_telemetry.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de auto_schema_telemetry| +| **cockroachdb.jobs.auto_schema_telemetry.fail_or_cancel_completed.count**
(count) | Número de trabajos de auto_schema_telemetry que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_schema_telemetry.fail_or_cancel_failed.count**
(count) | Número de trabajos de auto_schema_telemetry que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_schema_telemetry.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de auto_schema_telemetry que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_schema_telemetry.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de auto_schema_telemetry
_Se muestra como segundo_ | +| **cockroachdb.jobs.auto_schema_telemetry.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de auto_schema_telemetry| +| **cockroachdb.jobs.auto_schema_telemetry.resume_completed.count**
(count) | Número de trabajos de auto_schema_telemetry reanudados con éxito hasta completarse| +| **cockroachdb.jobs.auto_schema_telemetry.resume_failed.count**
(count) | Número de trabajos de auto_schema_telemetry que fallaron con un error no reintentable| +| **cockroachdb.jobs.auto_schema_telemetry.resume_retry_error.count**
(count) | Número de trabajos de auto_schema_telemetry que fallaron con un error reintentable| +| **cockroachdb.jobs.auto_span_config_reconciliation.currently_idle**
(gauge) | Número de trabajos de auto_span_config_reconciliation actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.auto_span_config_reconciliation.currently_paused**
(gauge) | Número de trabajos de auto_span_config_reconciliation actualmente considerados como pausados| +| **cockroachdb.jobs.auto_span_config_reconciliation.currently_running**
(gauge) | Número de trabajos de auto_span_config_reconciliation que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.auto_span_config_reconciliation.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de auto_span_config_reconciliation| +| **cockroachdb.jobs.auto_span_config_reconciliation.fail_or_cancel_completed.count**
(count) | Número de trabajos de auto_span_config_reconciliation que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_span_config_reconciliation.fail_or_cancel_failed.count**
(count) | Número de trabajos de auto_span_config_reconciliation que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_span_config_reconciliation.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de auto_span_config_reconciliation que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_span_config_reconciliation.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de auto_span_config_reconciliation
_Se muestra como segundo_ | +| **cockroachdb.jobs.auto_span_config_reconciliation.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos caducados mantenidos por trabajos de auto_span_config_reconciliation| +| **cockroachdb.jobs.auto_span_config_reconciliation.resume_completed.count**
(count) | Número de trabajos de auto_span_config_reconciliation reanudados con éxito hasta completarse| +| **cockroachdb.jobs.auto_span_config_reconciliation.resume_failed.count**
(count) | Número de trabajos de auto_span_config_reconciliation que fallaron con un error no reintentable| +| **cockroachdb.jobs.auto_span_config_reconciliation.resume_retry_error.count**
(count) | Número de trabajos de auto_span_config_reconciliation que fallaron con un error reintentable| +| **cockroachdb.jobs.auto_sql_stats_compaction.currently_idle**
(gauge) | Número de trabajos de auto_sql_stats_compaction actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.auto_sql_stats_compaction.currently_paused**
(gauge) | Número de trabajos de auto_sql_stats_compaction actualmente considerados como pausados| +| **cockroachdb.jobs.auto_sql_stats_compaction.currently_running**
(gauge) | Número de trabajos de auto_sql_stats_compaction que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.auto_sql_stats_compaction.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de auto_sql_stats_compaction| +| **cockroachdb.jobs.auto_sql_stats_compaction.fail_or_cancel_completed.count**
(count) | Número de trabajos de auto_sql_stats_compaction que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_sql_stats_compaction.fail_or_cancel_failed.count**
(count) | Número de trabajos de auto_sql_stats_compaction que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_sql_stats_compaction.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de auto_sql_stats_compaction que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_sql_stats_compaction.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de auto_sql_stats_compaction
_Se muestra como segundo_ | +| **cockroachdb.jobs.auto_sql_stats_compaction.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de auto_sql_stats_compaction| +| **cockroachdb.jobs.auto_sql_stats_compaction.resume_completed.count**
(count) | Número de trabajos de auto_sql_stats_compaction reanudados con éxito hasta completarse| +| **cockroachdb.jobs.auto_sql_stats_compaction.resume_failed.count**
(count) | Número de trabajos de auto_sql_stats_compaction que fallaron con un error no reintentable| +| **cockroachdb.jobs.auto_sql_stats_compaction.resume_retry_error.count**
(count) | Número de trabajos de auto_sql_stats_compaction que fallaron con un error reintentable| +| **cockroachdb.jobs.auto_update_sql_activity.currently_idle**
(gauge) | Número de trabajos de auto_update_sql_activity actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.auto_update_sql_activity.currently_paused**
(gauge) | Número de trabajos de auto_update_sql_activity actualmente considerados como pausados| +| **cockroachdb.jobs.auto_update_sql_activity.currently_running**
(gauge) | Número de trabajos de auto_update_sql_activity que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.auto_update_sql_activity.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de auto_update_sql_activity| +| **cockroachdb.jobs.auto_update_sql_activity.fail_or_cancel_completed.count**
(count) | Número de trabajos de auto_update_sql_activity que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_update_sql_activity.fail_or_cancel_failed.count**
(count) | Número de trabajos de auto_update_sql_activity que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_update_sql_activity.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de auto_update_sql_activity que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.auto_update_sql_activity.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de auto_update_sql_activity
_Se muestra como segundo_ | +| **cockroachdb.jobs.auto_update_sql_activity.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de auto_update_sql_activity| +| **cockroachdb.jobs.auto_update_sql_activity.resume_completed.count**
(count) | Número de trabajos de auto_update_sql_activity reanudados con éxito hasta completarse| +| **cockroachdb.jobs.auto_update_sql_activity.resume_failed.count**
(count) | Número de trabajos de auto_update_sql_activity que fallaron con un error no reintentable| +| **cockroachdb.jobs.auto_update_sql_activity.resume_retry_error.count**
(count) | Número de trabajos de auto_update_sql_activity que fallaron con un error reintentable| +| **cockroachdb.jobs.backup.currently_idle**
(gauge) | \[OpenMetrics v1 y v2\] Número de trabajos de copia de seguridad actualmente considerados como inactivos y que pueden cerrarse libremente
_Se muestra como trabajo_ | +| **cockroachdb.jobs.backup.currently_paused**
(gauge) | Número de trabajos de copia de seguridad actualmente considerados como pausados| +| **cockroachdb.jobs.backup.currently_running**
(gauge) | \[OpenMetrics v1 y v2\] Número de trabajos de copia de seguridad que se están ejecutando actualmente en estado Resume u OnFailOrCancel
_Se muestra como trabajo_ | +| **cockroachdb.jobs.backup.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de copia de seguridad| +| **cockroachdb.jobs.backup.fail_or_cancel_completed.count**
(count) | Número de trabajos de copia de seguridad que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.backup.fail_or_cancel_failed**
(count) | \[OpenMetrics v1\] Número de trabajos de copia de seguridad que fallaron con un error no reintentable en su proceso de fallo o cancelación
_Se muestra como trabajo_ | +| **cockroachdb.jobs.backup.fail_or_cancel_failed.count**
(count) | \[OpenMetrics v2\] Número de trabajos de copia de seguridad que fallaron con un error no reintentable en su proceso de fallo o cancelación
_Se muestra como trabajo_ | +| **cockroachdb.jobs.backup.fail_or_cancel_retry_error**
(count) | \[OpenMetrics v1\] Número de trabajos de copia de seguridad que fallaron con un error reintentable en su proceso de fallo o cancelación
_Se muestra como trabajo_ | +| **cockroachdb.jobs.backup.fail_or_cancel_retry_error.count**
(count) | \[OpenMetrics v2\] Número de trabajos de copia de seguridad que fallaron con un error reintentable en su proceso de fallo o cancelación
_Se muestra como trabajo_ | +| **cockroachdb.jobs.backup.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de copia de seguridad
_Se muestra como segundo_ | +| **cockroachdb.jobs.backup.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de copia de seguridad| +| **cockroachdb.jobs.backup.resume_completed.count**
(count) | Número de trabajos de copia de seguridad reanudados con éxito hasta completarse| +| **cockroachdb.jobs.backup.resume_failed**
(count) | \[OpenMetrics v1\] Número de trabajos de copia de seguridad que fallaron con un error no reintentable
_Se muestra como trabajo_ | +| **cockroachdb.jobs.backup.resume_failed.count**
(count) | \[OpenMetrics v2\] Número de trabajos de copia de seguridad que fallaron con un error no reintentable
_Se muestra como trabajo_ | +| **cockroachdb.jobs.backup.resume_retry_error**
(count) | \[OpenMetrics v1\] Número de trabajos de copia de seguridad que fallaron con un error reintentable
_Se muestra como trabajo_ | +| **cockroachdb.jobs.backup.resume_retry_error.count**
(count) | \[OpenMetrics v2\] Número de trabajos de copia de seguridad que fallaron con un error reintentable
_Se muestra como trabajo_ | +| **cockroachdb.jobs.changefeed.currently_idle**
(gauge) | Número de trabajos de changefeeds actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.changefeed.currently_paused**
(gauge) | Número de trabajos de changefeeds actualmente considerados como pausados| +| **cockroachdb.jobs.changefeed.currently_running**
(gauge) | Número de trabajos de changefeeds que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.changefeed.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de changefeeds| +| **cockroachdb.jobs.changefeed.fail_or_cancel_completed.count**
(count) | Número de trabajos de changefeeds que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.changefeed.fail_or_cancel_failed.count**
(count) | Número de trabajos de changefeeds que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.changefeed.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de changefeeds que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.changefeed.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de changefeeds
_Se muestra como segundo_ | +| **cockroachdb.jobs.changefeed.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de changefeeds| +| **cockroachdb.jobs.changefeed.resume.retry.error**
(count) | \[OpenMetrics v1\] Número de trabajos de changefeeds que fallaron con un error reintentable| +| **cockroachdb.jobs.changefeed.resume.retry.error.count**
(count) | \[OpenMetrics v2\] Número de trabajos de changefeeds que fallaron con un error reintentable| +| **cockroachdb.jobs.changefeed.resume_completed.count**
(count) | Número de trabajos de fuentes de changefeeds reanudados con éxito hasta completarse| +| **cockroachdb.jobs.changefeed.resume_failed.count**
(count) | Número de trabajos de changefeeds que fallaron con un error no reintentable| +| **cockroachdb.jobs.changefeed.resume_retry_error.count**
(count) | Número de trabajos de changefeeds que fallaron con un error reintentable| +| **cockroachdb.jobs.claimed_jobs.count**
(count) | Número de trabajos reclamados en iteraciones de adopción de trabajos| +| **cockroachdb.jobs.create.stats.currently_running**
(gauge) | Número de trabajos de create_stats que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.create_stats.currently_idle**
(gauge) | Número de trabajos de create_stats actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.create_stats.currently_paused**
(gauge) | Número de trabajos de create_stats actualmente considerados como pausados| +| **cockroachdb.jobs.create_stats.currently_running**
(gauge) | Número de trabajos de create_stats que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.create_stats.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de create_stats jobs| +| **cockroachdb.jobs.create_stats.fail_or_cancel_completed.count**
(count) | Número de trabajos de create_stats que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.create_stats.fail_or_cancel_failed.count**
(count) | Número de trabajos de create_stats que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.create_stats.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de create_stats que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.create_stats.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de create_stats jobs
_Se muestra como segundo_ | +| **cockroachdb.jobs.create_stats.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de create_stats jobs| +| **cockroachdb.jobs.create_stats.resume_completed.count**
(count) | Número de trabajos de create_stats reanudados con éxito hasta completarse| +| **cockroachdb.jobs.create_stats.resume_failed.count**
(count) | Número de trabajos de create_stats jobs que fallaron con un error no reintentable| +| **cockroachdb.jobs.create_stats.resume_retry_error.count**
(count) | Número de trabajos de create_stats jobs que fallaron con un error reintentable| +| **cockroachdb.jobs.import.currently_idle**
(gauge) | Número de trabajos de importación actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.import.currently_paused**
(gauge) | Número de trabajos de importación actualmente considerados como pausados| +| **cockroachdb.jobs.import.currently_running**
(gauge) | Número de trabajos de importación que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.import.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de importación| +| **cockroachdb.jobs.import.fail_or_cancel_completed.count**
(count) | Número de trabajos de importación que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.import.fail_or_cancel_failed.count**
(count) | Número de trabajos de importación que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.import.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de importación que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.import.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de importación
_Se muestra como segundo_ | +| **cockroachdb.jobs.import.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de importación| +| **cockroachdb.jobs.import.resume_completed.count**
(count) | Número de trabajos de importación reanudados con éxito hasta completarse| +| **cockroachdb.jobs.import.resume_failed.count**
(count) | Número de trabajos de importación que fallaron con un error no reintentable| +| **cockroachdb.jobs.import.resume_retry_error.count**
(count) | Número de trabajos de importación que fallaron con un error reintentable| +| **cockroachdb.jobs.key_visualizer.currently_idle**
(gauge) | Número de trabajos de key_visualizer actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.key_visualizer.currently_paused**
(gauge) | Número de trabajos de key_visualizer actualmente considerados como pausados| +| **cockroachdb.jobs.key_visualizer.currently_running**
(gauge) | Número de trabajos de key_visualizer que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.key_visualizer.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de key_visualizer| +| **cockroachdb.jobs.key_visualizer.fail_or_cancel_completed.count**
(count) | Número de trabajos de key_visualizer que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.key_visualizer.fail_or_cancel_failed.count**
(count) | Número de trabajos de key_visualizer que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.key_visualizer.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de key_visualizer que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.key_visualizer.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de key_visualizer
_Se muestra como segundo_ | +| **cockroachdb.jobs.key_visualizer.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de key_visualizer| +| **cockroachdb.jobs.key_visualizer.resume_completed.count**
(count) | Número de trabajos de key_visualizer reanudados con éxito hasta completarse| +| **cockroachdb.jobs.key_visualizer.resume_failed.count**
(count) | Número de trabajos de key_visualizer que fallaron con un error no reintentable| +| **cockroachdb.jobs.key_visualizer.resume_retry_error.count**
(count) | Número de trabajos de key_visualizer que fallaron con un error reintentable| +| **cockroachdb.jobs.metrics.task_failed.count**
(count) | Número de tareas del actualizador de actividades sql de métricas que fallaron| +| **cockroachdb.jobs.migration.currently_idle**
(gauge) | Número de trabajos de migración actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.migration.currently_paused**
(indicador) | Número de trabajos de migración actualmente considerados como pausados| +| **cockroachdb.jobs.migration.currently_running**
(gauge) | Número de trabajos de migración que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.migration.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de migración| +| **cockroachdb.jobs.migration.fail_or_cancel_completed.count**
(count) | Número de trabajos de migración que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.migration.fail_or_cancel_failed.count**
(count) | Número de trabajos de migración que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.migration.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de migración que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.migration.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de migración
_Se muestra como segundo_ | +| **cockroachdb.jobs.migration.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de migración| +| **cockroachdb.jobs.migration.resume_completed.count**
(count) | Número de trabajos de migración reanudados con éxito hasta completarse| +| **cockroachdb.jobs.migration.resume_failed.count**
(count) | Número de trabajos de migración que fallaron con un error no reintentable| +| **cockroachdb.jobs.migration.resume_retry_error.count**
(count) | Número de trabajos de migración que fallaron con un error reintentable| +| **cockroachdb.jobs.mvcc_statistics_update.currently_idle**
(gauge) | Número de trabajos de mvcc_statistics_update actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.mvcc_statistics_update.currently_paused**
(gauge) | Número de trabajos mvcc_statistics_update actualmente considerados como pausados| +| **cockroachdb.jobs.mvcc_statistics_update.currently_running**
(gauge) | Número de trabajos de mvcc_statistics_update que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.mvcc_statistics_update.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de mvcc_statistics_update| +| **cockroachdb.jobs.mvcc_statistics_update.fail_or_cancel_completed.count**
(count) | Número de trabajos de mvcc_statistics_update que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.mvcc_statistics_update.fail_or_cancel_failed.count**
(count) | Número de trabajos de mvcc_statistics_update que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.mvcc_statistics_update.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de mvcc_statistics_update que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.mvcc_statistics_update.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de mvcc_statistics_update
_Se muestra como segundo_ | +| **cockroachdb.jobs.mvcc_statistics_update.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de mvcc_statistics_update| +| **cockroachdb.jobs.mvcc_statistics_update.resume_completed.count**
(count) | Número de trabajos de mvcc_statistics_update reanudados con éxito hasta completarse| +| **cockroachdb.jobs.mvcc_statistics_update.resume_failed.count**
(count) | Número de trabajos de mvcc_statistics_update que fallaron con un error no reintentable| +| **cockroachdb.jobs.mvcc_statistics_update.resume_retry_error.count**
(count) | Número de trabajos de mvcc_statistics_update que fallaron con un error reintentable| +| **cockroachdb.jobs.new_schema_change.currently_idle**
(gauge) | Número de trabajos de new_schema_change actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.new_schema_change.currently_paused**
(gauge) | Número de trabajos de new_schema_change actualmente considerados como pausados| +| **cockroachdb.jobs.new_schema_change.currently_running**
(gauge) | Número de trabajos de new_schema_change que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.new_schema_change.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de new_schema_change| +| **cockroachdb.jobs.new_schema_change.fail_or_cancel_completed.count**
(count) | Número de trabajos de new_schema_change que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.new_schema_change.fail_or_cancel_failed.count**
(count) | Número de trabajos de new_schema_change que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.new_schema_change.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de new_schema_change que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.new_schema_change.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de new_schema_change
_Se muestra como segundo_ | +| **cockroachdb.jobs.new_schema_change.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de new_schema_change| +| **cockroachdb.jobs.new_schema_change.resume_completed.count**
(count) | Número de trabajos de new_schema_change reanudados con éxito hasta completarse| +| **cockroachdb.jobs.new_schema_change.resume_failed.count**
(count) | Número de trabajos de new_schema_change que fallaron con un error no reintentable| +| **cockroachdb.jobs.new_schema_change.resume_retry_error.count**
(count) | Número de trabajos de new_schema_change que fallaron con un error reintentable| +| **cockroachdb.jobs.poll_jobs_stats.currently_idle**
(gauge) | Número de trabajos de poll_jobs_stats actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.poll_jobs_stats.currently_paused**
(gauge) | Número de trabajos de poll_jobs_stats actualmente considerados como pausados| +| **cockroachdb.jobs.poll_jobs_stats.currently_running**
(gauge) | Número de trabajos de poll_jobs_stats que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.poll_jobs_stats.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de poll_jobs_stats| +| **cockroachdb.jobs.poll_jobs_stats.fail_or_cancel_completed.count**
(count) | Número de trabajos de poll_jobs_stats que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.poll_jobs_stats.fail_or_cancel_failed.count**
(count) | Número de trabajos de poll_jobs_stats que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.poll_jobs_stats.fail_or_cancel_retry_error.count**
(count) | Número de trabajos poll_jobs_stats que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.poll_jobs_stats.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de poll_jobs_stats
_Se muestra como segundo_ | +| **cockroachdb.jobs.poll_jobs_stats.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de poll_jobs_stats| +| **cockroachdb.jobs.poll_jobs_stats.resume_completed.count**
(count) | Número de trabajos de poll_jobs_stats reanudados con éxito hasta completarse| +| **cockroachdb.jobs.poll_jobs_stats.resume_failed.count**
(count) | Número de trabajos de poll_jobs_stats que fallaron con un error no reintentable| +| **cockroachdb.jobs.poll_jobs_stats.resume_retry_error.count**
(count) | Número de trabajos de poll_jobs_stats que fallaron con un error reintentable| +| **cockroachdb.jobs.replication_stream_ingestion.currently_idle**
(gauge) | Número de trabajos de replication_stream_ingestion actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.replication_stream_ingestion.currently_paused**
(gauge) | Número de trabajos de replication_stream_ingestion actualmente considerados como pausados| +| **cockroachdb.jobs.replication_stream_ingestion.currently_running**
(gauge) | Número de trabajos de replication_stream_ingestion que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.replication_stream_ingestion.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de replication_stream_ingestion| +| **cockroachdb.jobs.replication_stream_ingestion.fail_or_cancel_completed.count**
(count) | Número de trabajos de replication_stream_ingestion que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.replication_stream_ingestion.fail_or_cancel_failed.count**
(count) | Número de trabajos de replication_stream_ingestion que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.replication_stream_ingestion.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de replication_stream_ingestion que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.replication_stream_ingestion.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de replication_stream_ingestion
_Se muestra como segundo_ | +| **cockroachdb.jobs.replication_stream_ingestion.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de replication_stream_ingestion| +| **cockroachdb.jobs.replication_stream_ingestion.resume_completed.count**
(count) | Número de trabajos de replication_stream_ingestion reanudados con éxito hasta completarse| +| **cockroachdb.jobs.replication_stream_ingestion.resume_failed.count**
(count) | Número de trabajos de replication_stream_ingestion que fallaron con un error no reintentable| +| **cockroachdb.jobs.replication_stream_ingestion.resume_retry_error.count**
(count) | Número de trabajos de replication_stream_ingestion que fallaron con un error reintentable| +| **cockroachdb.jobs.replication_stream_producer.currently_idle**
(gauge) | Número de trabajos de replication_stream_producer actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.replication_stream_producer.currently_paused**
(gauge) | Número de trabajos de replication_stream_producer actualmente considerados como pausados| +| **cockroachdb.jobs.replication_stream_producer.currently_running**
(gauge) | Número de trabajos de replication_stream_producer que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.replication_stream_producer.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de replication_stream_producer| +| **cockroachdb.jobs.replication_stream_producer.fail_or_cancel_completed.count**
(count) | Número de trabajos de replication_stream_producer que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.replication_stream_producer.fail_or_cancel_failed.count**
(count) | Número de trabajos de replication_stream_producer que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.replication_stream_producer.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de replication_stream_producer que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.replication_stream_producer.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de replication_stream_producer
_Se muestra como segundo_ | +| **cockroachdb.jobs.replication_stream_producer.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de replication_stream_producer| +| **cockroachdb.jobs.replication_stream_producer.resume_completed.count**
(count) | Número de trabajos de replication_stream_producer reanudados con éxito hasta completarse| +| **cockroachdb.jobs.replication_stream_producer.resume_failed.count**
(count) | Número de trabajos de replication_stream_producer que fallaron con un error no reintentable| +| **cockroachdb.jobs.replication_stream_producer.resume_retry_error.count**
(count) | Número de trabajos de replication_stream_producer que fallaron con un error reintentable| +| **cockroachdb.jobs.restore.currently_idle**
(gauge) | Número de trabajos de restauración actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.restore.currently_paused**
(gauge) | Número de trabajos de restauración actualmente considerados como pausados| +| **cockroachdb.jobs.restore.currently_running**
(gauge) | Número de trabajos de restauración que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.restore.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de restauración| +| **cockroachdb.jobs.restore.fail_or_cancel_completed.count**
(count) | Número de trabajos de restauración que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.restore.fail_or_cancel_failed.count**
(count) | Número de trabajos de restauración que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.restore.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de restauración que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.restore.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de restauración
_Se muestra como segundo_ | +| **cockroachdb.jobs.restore.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de restauración| +| **cockroachdb.jobs.restore.resume_completed.count**
(count) | Número de trabajos de restauración reanudados con éxito hasta completarse| +| **cockroachdb.jobs.restore.resume_failed.count**
(count) | Número de trabajos de restauración que fallaron con un error no reintentable| +| **cockroachdb.jobs.restore.resume_retry_error.count**
(count) | Número de trabajos de restauración que fallaron con un error reintentable| +| **cockroachdb.jobs.resumed_claimed_jobs.count**
(count) | Número de trabajos reclamados reanudados en iteraciones de adopción de trabajos| +| **cockroachdb.jobs.row.level.ttl.currently_paused**
(gauge) | Número de trabajos de row_level_ttl actualmente considerados como pausados| +| **cockroachdb.jobs.row.level.ttl.currently_running**
(gauge) | Número de trabajos de row_level_ttl que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.row.level.ttl.resume_completed.count**
(count) | Número de trabajos de row_level_ttl reanudados con éxito hasta completarse| +| **cockroachdb.jobs.row.level.ttl.resume_failed.count**
(count) | Número de trabajos de row_level_ttl que fallaron con un error no reintentable| +| **cockroachdb.jobs.row.level.ttl.rows_deleted.count**
(count) | Número de filas eliminadas por el trabajo de row_level_ttl.| +| **cockroachdb.jobs.row.level.ttl.rows_selected.count**
(count) | Número de filas seleccionadas para su eliminación por el trabajo de row_level_ttl.| +| **cockroachdb.jobs.row_level_ttl.currently_idle**
(gauge) | Número de trabajos de row_level_ttl actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.row_level_ttl.currently_paused**
(gauge) | Número de trabajos de row_level_ttl actualmente considerados como pausados| +| **cockroachdb.jobs.row_level_ttl.currently_running**
(gauge) | Número de trabajos de row_level_ttl que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.row_level_ttl.delete_duration.bucket**
(count) | Duración de las solicitudes de eliminación durante row_level_ttl.
_Se muestra como nanosegundo_ | +| **cockroachdb.jobs.row_level_ttl.delete_duration.count**
(count) | Duración de las solicitudes de eliminación durante row_level_ttl.
_Se muestra como nanosegundo_ | +| **cockroachdb.jobs.row_level_ttl.delete_duration.sum**
(count) | Duración de las solicitudes de eliminación durante row_level_ttl.
_Se muestra como nanosegundo_ | +| **cockroachdb.jobs.row_level_ttl.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de row_level_ttl| +| **cockroachdb.jobs.row_level_ttl.fail_or_cancel_completed.count**
(count) | Número de trabajos de row_level_ttl que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.row_level_ttl.fail_or_cancel_failed.count**
(count) | Número de trabajos de row_level_ttl que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.row_level_ttl.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de row_level_ttl que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.row_level_ttl.num_active_spans**
(gauge) | Número de tramos activos de los que el trabajo TTL está borrando.| +| **cockroachdb.jobs.row_level_ttl.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de row_level_ttl
_Se muestra como segundo_ | +| **cockroachdb.jobs.row_level_ttl.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de row_level_ttl| +| **cockroachdb.jobs.row_level_ttl.resume_completed.count**
(count) | Número de trabajos de row_level_ttl reanudados con éxito hasta completarse| +| **cockroachdb.jobs.row_level_ttl.resume_failed.count**
(count) | Número de trabajos de row_level_ttl que fallaron con un error no reintentable| +| **cockroachdb.jobs.row_level_ttl.resume_retry_error.count**
(count) | Número de trabajos de row_level_ttl que fallaron con un error reintentable| +| **cockroachdb.jobs.row_level_ttl.rows_deleted.count**
(count) | Número de filas eliminadas por el trabajo de row_level_ttl.| +| **cockroachdb.jobs.row_level_ttl.rows_selected.count**
(count) | Número de filas seleccionadas para su eliminación por el trabajo de row_level_ttl.| +| **cockroachdb.jobs.row_level_ttl.select_duration.bucket**
(count) | Duración de las solicitudes de selección durante el row_level_ttl.
_Se muestra como nanosegundo_ | +| **cockroachdb.jobs.row_level_ttl.select_duration.count**
(count) | Duración de las solicitudes de selección durante el row_level_ttl.
_Se muestra como nanosegundo_ | +| **cockroachdb.jobs.row_level_ttl.select_duration.sum**
(count) | Duración de las solicitudes de selección durante el row_level_ttl.
_Se muestra como nanosegundo_ | +| **cockroachdb.jobs.row_level_ttl.span_total_duration.bucket**
(count) | Duración del procesamiento de un tramo durante el row_level_ttl.
_Se muestra como nanosegundo_ | +| **cockroachdb.jobs.row_level_ttl.span_total_duration.count**
(count) | Duración del procesamiento de un tramo durante el row_level_ttl.
_Se muestra como nanosegundo_ | +| **cockroachdb.jobs.row_level_ttl.span_total_duration.sum**
(count) | Duración del procesamiento de un tramo durante el row_level_ttl.
_Se muestra como nanosegundo_ | +| **cockroachdb.jobs.row_level_ttl.total_expired_rows**
(gauge) | Número aproximado de filas que hicieron caducar el TTL en la tabla TTL.| +| **cockroachdb.jobs.row_level_ttl.total_rows**
(gauge) | Número aproximado de filas en la tabla TTL.| +| **cockroachdb.jobs.running_non_idle**
(gauge) | Número de trabajos en ejecución que no están inactivos| +| **cockroachdb.jobs.schema_change.currently_idle**
(gauge) | Número de trabajos de schema_change actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.schema_change.currently_paused**
(gauge) | Número de trabajos de schema_change actualmente considerados como pausados| +| **cockroachdb.jobs.schema_change.currently_running**
(gauge) | Número de trabajos de schema_change que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.schema_change.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de schema_change| +| **cockroachdb.jobs.schema_change.fail_or_cancel_completed.count**
(count) | Número de trabajos de schema_change que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.schema_change.fail_or_cancel_failed.count**
(count) | Número de trabajos de schema_change que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.schema_change.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de schema_change que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.schema_change.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de schema_change
_Se muestra como segundo_ | +| **cockroachdb.jobs.schema_change.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de schema_change| +| **cockroachdb.jobs.schema_change.resume_completed.count**
(count) | Número de trabajos de schema_change reanudados con éxito hasta completarse| +| **cockroachdb.jobs.schema_change.resume_failed.count**
(count) | Número de trabajos de schema_change que fallaron con un error no reintentable| +| **cockroachdb.jobs.schema_change.resume_retry_error.count**
(count) | Número de trabajos de schema_change que fallaron con un error reintentable| +| **cockroachdb.jobs.schema_change_gc.currently_idle**
(gauge) | Número de trabajos de schema_change_gc actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.schema_change_gc.currently_paused**
(gauge) | Número de trabajos de schema_change_gc actualmente considerados como pausados| +| **cockroachdb.jobs.schema_change_gc.currently_running**
(gauge) | Número de trabajos de schema_change_gc que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.schema_change_gc.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de schema_change_gc| +| **cockroachdb.jobs.schema_change_gc.fail_or_cancel_completed.count**
(count) | Número de trabajos de schema_change_gc que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.schema_change_gc.fail_or_cancel_failed.count**
(count) | Número de trabajos de schema_change_gc que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.schema_change_gc.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de schema_change_gc que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.schema_change_gc.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de schema_change_gc
_Se muestra como segundo_ | +| **cockroachdb.jobs.schema_change_gc.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de schema_change_gc| +| **cockroachdb.jobs.schema_change_gc.resume_completed.count**
(count) | Número de trabajos de schema_change_gc reanudados con éxito hasta completarse| +| **cockroachdb.jobs.schema_change_gc.resume_failed.count**
(count) | Número de trabajos de schema_change_gc que fallaron con un error no reintentable| +| **cockroachdb.jobs.schema_change_gc.resume_retry_error.count**
(count) | Número de trabajos de schema_change_gc que fallaron con un error reintentable| +| **cockroachdb.jobs.typedesc_schema_change.currently_idle**
(gauge) | Número de trabajos de typedesc_schema_change actualmente considerados como inactivos y que pueden cerrarse libremente| +| **cockroachdb.jobs.typedesc_schema_change.currently_paused**
(gauge) | Número de trabajos de typedesc_schema_change actualmente considerados como pausados| +| **cockroachdb.jobs.typedesc_schema_change.currently_running**
(gauge) | Número de trabajos de typedesc_schema_change que se están ejecutando actualmente en estado Resume u OnFailOrCancel| +| **cockroachdb.jobs.typedesc_schema_change.expired_pts_records.count**
(count) | Número de registros de marca de tiempo protegidos caducados que son propiedad de trabajos de typedesc_schema_change| +| **cockroachdb.jobs.typedesc_schema_change.fail_or_cancel_completed.count**
(count) | Número de trabajos de typedesc_schema_change que finalizaron con éxito su proceso de fallo o cancelación| +| **cockroachdb.jobs.typedesc_schema_change.fail_or_cancel_failed.count**
(count) | Número de trabajos de typedesc_schema_change que fallaron con un error no reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.typedesc_schema_change.fail_or_cancel_retry_error.count**
(count) | Número de trabajos de typedesc_schema_change que fallaron con un error reintentable en su proceso de fallo o cancelación| +| **cockroachdb.jobs.typedesc_schema_change.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por trabajos de typedesc_schema_change
_Se muestra como segundo_ | +| **cockroachdb.jobs.typedesc_schema_change.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos mantenidos por trabajos de typedesc_schema_change| +| **cockroachdb.jobs.typedesc_schema_change.resume_completed.count**
(count) | Número de trabajos de typedesc_schema_change reanudados con éxito hasta completarse| +| **cockroachdb.jobs.typedesc_schema_change.resume_failed.count**
(count) | Número de trabajos de typedesc_schema_change que fallaron con un error no reintentable| +| **cockroachdb.jobs.typedesc_schema_change.resume_retry_error.count**
(count) | Número de trabajos de typedesc_schema_change que fallaron con un error reintentable| +| **cockroachdb.keybytes**
(gauge) | \[OpenMetrics v1 y v2\] Número de bytes ocupados por claves
_Se muestra como byte_ | +| **cockroachdb.keycount**
(gauge) | \[OpenMetrics v1 y v2\] Recuento de todas las claves
_Se muestra como clave_ | +| **cockroachdb.kv.allocator.load_based_lease_transfers.cannot_find_better_candidate.count**
(count) | Número de veces que el asignador determinó que el arrendamiento se encontraba en la mejor réplica posible| +| **cockroachdb.kv.allocator.load_based_lease_transfers.delta_not_significant.count**
(count) | Número de veces que el asignador determinó que el delta entre el almacén existente y el mejor candidato no era significativo| +| **cockroachdb.kv.allocator.load_based_lease_transfers.existing_not_overfull.count**
(count) | Número de veces que el asignador determinó que el arrendamiento no estaba en un almacén sobrecargado| +| **cockroachdb.kv.allocator.load_based_lease_transfers.follow_the_workload.count**
(count) | Número de veces que el asignador determinó que el arrendamiento debía transferirse a otra réplica para la localidad| +| **cockroachdb.kv.allocator.load_based_lease_transfers.missing_stats_for_existing_stores.count**
(count) | Número de veces que al asignador le faltaron estadísticas qps para el arrendatario| +| **cockroachdb.kv.allocator.load_based_lease_transfers.should_transfer.count**
(count) | Número de veces que el asignador determinó que el arrendamiento debía transferirse a otra réplica para una mejor distribución de la carga| +| **cockroachdb.kv.allocator.load_based_replica_rebalancing.cannot_find_better_candidate.count**
(count) | Número de veces que el asignador determinó que el rango estaba en los mejores almacenes posibles| +| **cockroachdb.kv.allocator.load_based_replica_rebalancing.delta_not_significant.count**
(count) | Número de veces que el asignador determinó que el delta entre un almacén existente y el mejor candidato de sustitución no era lo suficientemente elevado| +| **cockroachdb.kv.allocator.load_based_replica_rebalancing.existing_not_overfull.count**
(count) | Número de veces que el asignador determinó que ninguna de las réplicas del rango estaba en almacenes sobrecargados| +| **cockroachdb.kv.allocator.load_based_replica_rebalancing.missing_stats_for_existing_store.count**
(count) | Número de veces que al asignador le faltaron las estadísticas qps para el almacén existente| +| **cockroachdb.kv.allocator.load_based_replica_rebalancing.should_transfer.count**
(count) | Número de veces que el asignador determinó que la réplica debía reequilibrarse a otro almacén para una mejor distribución de la carga| +| **cockroachdb.kv.closed_timestamp.max_behind_nanos**
(gauge) | Mayor latencia entre el tiempo real y la marca de tiempo máxima cerrada de la réplica
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.concurrency.avg_lock_hold_duration_nanos**
(gauge) | Duración media de los bloqueos en las tablas de bloqueos. No incluye los bloqueos replicados (intenciones) que no se mantienen en memoria
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.concurrency.avg_lock_wait_duration_nanos**
(gauge) | Duración media de la espera de bloqueo de las solicitudes en espera en las colas de espera de bloqueo
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.concurrency.lock_wait_queue_waiters**
(gauge) | Número de solicitudes en espera activa en una cola de espera de bloqueo| +| **cockroachdb.kv.concurrency.locks**
(gauge) | Número de bloqueos activos en las tablas de bloqueos. No incluye los bloqueos replicados (intenciones) que no se mantienen en memoria| +| **cockroachdb.kv.concurrency.locks_with_wait_queues**
(gauge) | Número de bloqueos activos en tablas de bloqueos con colas de espera activas| +| **cockroachdb.kv.concurrency.max_lock_hold_duration_nanos**
(indicador) | Duración máxima de cualquier bloqueo en una tabla de bloqueos. No incluye los bloqueos replicados (intenciones) que no se mantienen en memoria
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.concurrency.max_lock_wait_duration_nanos**
(gauge) | Duración máxima de la espera de bloqueo de las solicitudes que se encuentran en espera en las colas de espera de bloqueo
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.concurrency.max_lock_wait_queue_waiters_for_lock**
(gauge) | Número máximo de solicitudes en espera activa en cualquier cola de espera de bloqueo individual| +| **cockroachdb.kv.loadsplitter.nosplitkey.count**
(count) | El divisor basado en la carga no pudo encontrar una clave de división.| +| **cockroachdb.kv.loadsplitter.popularkey.count**
(count) | El divisor basado en la carga no pudo encontrar una clave de división y la clave de división más popular muestreada ocurre en >= 25% de las muestras.| +| **cockroachdb.kv.prober.planning_attempts.count**
(count) | Número de intentos de planificación de sondeos realizados. Para sondear KV necesitamos planificar qué rangos sondear.| +| **cockroachdb.kv.prober.planning_failures.count**
(count) | Número de intentos de planificación de sondeos fallidos. Para sondear KV necesitamos planificar qué rangos sondear. Si la planificación falla, kvprober no es capaz de enviar sondas a todos los rangos. Considera la posibilidad de alertar sobre esta métrica como resultado.| +| **cockroachdb.kv.prober.read.attempts.count**
(count) | Número de intentos de lectura del KV de sondeo, independientemente del resultado| +| **cockroachdb.kv.prober.read.failures.count**
(count) | Número de intentos fallidos de lectura del KV de sondeo, ya sea por error o por tiempo de espera| +| **cockroachdb.kv.prober.read.latency.bucket**
(count) | Latencia de las sondas de lectura de KV correctas
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.prober.read.latency.count**
(count) | Latencia de las sondas de lectura de KV correctas
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.prober.read.latency.sum**
(count) | Latencia de las sondas de lectura de KV correctas
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.prober.write.attempts.count**
(count) | Número de intentos realizados para escribir el KV de sondeo, independientemente del resultado| +| **cockroachdb.kv.prober.write.failures.count**
(count) | Número de intentos fallidos de escribir el KV de sondeo, ya sea por error o por tiempo de espera| +| **cockroachdb.kv.prober.write.latency.bucket**
(count) | Latencia de las sondas de escritura de KV exitosas
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.prober.write.latency.count**
(count) | Latencia de las sondas de escritura de KV exitosas
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.prober.write.latency.sum**
(count) | Latencia de las sondas de escritura de KV exitosas
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.prober.write.quarantine.oldest_duration**
(gauge) | Tiempo que ha permanecido el rango más antiguo en el grupo de cuarentena de escritura
_Se muestra como segundo_ | +| **cockroachdb.kv.protectedts.reconciliation.errors.count**
(count) | Número de errores encontrados durante las ejecuciones de conciliación en este nodo| +| **cockroachdb.kv.protectedts.reconciliation.num_runs.count**
(count) | Número de conciliaciones realizadas con éxito en este nodo| +| **cockroachdb.kv.protectedts.reconciliation.records_processed.count**
(count) | Número de registros procesados sin errores durante la conciliación en este nodo| +| **cockroachdb.kv.protectedts.reconciliation.records_removed.count**
(count) | Número de registros eliminados durante las ejecuciones de conciliación en este nodo| +| **cockroachdb.kv.rangefeed.budget_allocation_blocked.count**
(count) | Número de veces que RangeFeed esperó la disponibilidad de presupuesto| +| **cockroachdb.kv.rangefeed.budget_allocation_failed.count**
(count) | Número de veces que RangeFeed falló porque se superó el presupuesto de memoria | +| **cockroachdb.kv.rangefeed.catchup_scan_nanos.count**
(count) | Tiempo dedicado al análisis de la recuperación de RangeFeed
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.rangefeed.mem_shared**
(gauge) | Uso de memoria por RangeFeeds
_Se muestra como byte_ | +| **cockroachdb.kv.rangefeed.mem_system**
(gauge) | Uso de memoria por RangeFeeds en rangos del sistema
_Se muestra como byte_ | +| **cockroachdb.kv.rangefeed.processors_goroutine**
(gauge) | Número de procesadores RangeFeed activos que utilizan goroutines| +| **cockroachdb.kv.rangefeed.processors_scheduler**
(gauge) | Número de procesadores RangeFeed activos que utilizan programadores| +| **cockroachdb.kv.rangefeed.registrations**
(gauge) | Número de registros activos de RangeFeed| +| **cockroachdb.kv.rangefeed.scheduler.normal.latency.bucket**
(count) | Latencia del programador habitual de RangeFeeds de KV
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.rangefeed.scheduler.normal.latency.count**
(count) | Latencia del programador habitual de RangeFeeds de KV
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.rangefeed.scheduler.normal.latency.sum**
(count) | Latencia del programador habitual de RangeFeeds de KV
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.rangefeed.scheduler.normal.queue_size**
(gauge) | Número de entradas en la cola del programador habitual de RangeFeeds de KV| +| **cockroachdb.kv.rangefeed.scheduler.system.latency.bucket**
(count) | Latencia del programador de sistemas de RangeFeeds de KV
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.rangefeed.scheduler.system.latency.count**
(count) | Latencia del programador de sistemas de RangeFeeds de KV
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.rangefeed.scheduler.system.latency.sum**
(count) | Latencia del programador de sistemas de RangeFeeds de KV
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.rangefeed.scheduler.system.queue_size**
(gauge) | Número de entradas en la cola del programador de sistemas de RangeFeeds de KV| +| **cockroachdb.kv.replica_circuit_breaker.num_tripped_events.count**
(count) | Número de veces que se activaron los disyuntores por réplica desde el inicio del proceso| +| **cockroachdb.kv.replica_circuit_breaker.num_tripped_replicas**
(gauge) | Número de réplicas para las que el disyuntor por réplica está actualmente activado. Un valor distinto de cero indica que el rango o la réplica no están disponibles, y debe investigarse. Las réplicas con este estado deben fallar rápidamente toda slas solicitudes entrantes.| +| **cockroachdb.kv.replica_read_batch_evaluate.dropped_latches_before_eval.count**
(count) | Número de veces que los lotes de solo lectura dejaron caer los latches antes de la evaluación| +| **cockroachdb.kv.replica_read_batch_evaluate.latency.bucket**
(count) | Duración de la ejecución para evaluar un BatchRequest en la ruta de solo lectura después de la adquisición de los latches. Se registra una medición independientemente del resultado (es decir, también en caso de error). Si se producen reintentos internos, cada instancia se registra por separado.
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.replica_read_batch_evaluate.latency.count**
(count) | Duración de la ejecución para evaluar un BatchRequest en la ruta de solo lectura después de la adquisición de los latches. Se registra una medición independientemente del resultado (es decir, también en caso de error). Si se producen reintentos internos, cada instancia se registra por separado.
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.replica_read_batch_evaluate.latency.sum**
(count) | Duración de la ejecución para evaluar un BatchRequest en la ruta de solo lectura después de la adquisición de los latches. Se registra una medición independientemente del resultado (es decir, también en caso de error). Si se producen reintentos internos, cada instancia se registra por separado.
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.replica_read_batch_evaluate.without_interleaving_iter.count**
(count) | Número de lotes de solo lectura evaluados sin una iteración de intercalación de intentos| +| **cockroachdb.kv.replica_write_batch_evaluate.latency.bucket**
(count) | Duración de la ejecución para evaluar un BatchRequest en la ruta de lectura-escritura después de la adquisición de los latches. Se registra una medición independientemente del resultado (es decir, también en caso de error). Si se producen reintentos internos, cada instancia se registra por separado. Ten en cuenta que la medición no incluye la duración de la replicación del comando evaluado.
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.replica_write_batch_evaluate.latency.count**
(count) | Duración de la ejecución para evaluar un BatchRequest en la ruta de lectura-escritura después de la adquisición de los latches. Se registra una medición independientemente del resultado (es decir, también en caso de error). Si se producen reintentos internos, cada instancia se registra por separado. Ten en cuenta que la medición no incluye la duración de la replicación del comando evaluado.
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.replica_write_batch_evaluate.latency.sum**
(count) | Duración de la ejecución para evaluar un BatchRequest en la ruta de lectura-escritura después de la adquisición de los latches. Se registra una medición independientemente del resultado (es decir, también en caso de error). Si se producen reintentos internos, cada instancia se registra por separado. Ten en cuenta que la medición no incluye la duración de la replicación del comando evaluado.
_Se muestra como nanosegundo_ | +| **cockroachdb.kv.tenant_rate_limit.current_blocked**
(gauge) | Número de solicitudes bloqueadas actualmente por el limitador de frecuencia| +| **cockroachdb.kv.tenant_rate_limit.num_tenants**
(gauge) | Número de inquilinos objeto de seguimiento| +| **cockroachdb.kv.tenant_rate_limit.read_batches_admitted.count**
(count) | Número de lotes de lectura admitidos por el limitador de frecuencia| +| **cockroachdb.kv.tenant_rate_limit.read_bytes_admitted.count**
(count) | Número de bytes de lectura admitidos por el limitador de frecuencia
_Se muestra como byte_ | +| **cockroachdb.kv.tenant_rate_limit.read_requests_admitted.count**
(count) | Número de solicitudes de lectura admitidas por el limitador de frecuencia| +| **cockroachdb.kv.tenant_rate_limit.write_batches_admitted.count**
(count) | Número de lotes de escritura admitidos por el limitador de frecuencia| +| **cockroachdb.kv.tenant_rate_limit.write_bytes_admitted.count**
(count) | Número de bytes de escritura admitidos por el limitador de frecuencia
_Se muestra como byte_ | +| **cockroachdb.kv.tenant_rate_limit.write_requests_admitted.count**
(count) | Número de solicitudes de escritura admitidas por el limitador de frecuencia| +| **cockroachdb.kvadmission.flow_controller.elastic_blocked_stream_count**
(gauge) | Número de flujos de réplica sin tokens de flujo disponibles para solicitudes elásticas| +| **cockroachdb.kvadmission.flow_controller.elastic_requests_admitted.count**
(count) | Número de solicitudes elásticas admitidas por el controlador de flujo| +| **cockroachdb.kvadmission.flow_controller.elastic_requests_bypassed.count**
(count) | Número de solicitudes elásticas en espera que omitieron el controlador de flujo debido a la desconexión de flujos| +| **cockroachdb.kvadmission.flow_controller.elastic_requests_errored.count**
(count) | Número de solicitudes elásticas que fallaron mientras esperaban tokens de flujo| +| **cockroachdb.kvadmission.flow_controller.elastic_requests_waiting**
(gauge) | Número de solicitudes elásticas en espera de tokens de flujo| +| **cockroachdb.kvadmission.flow_controller.elastic_stream_count**
(gauge) | Número total de flujos de réplica para solicitudes elásticas| +| **cockroachdb.kvadmission.flow_controller.elastic_tokens_available**
(gauge) | Tokens de flujo disponibles para solicitudes elásticas, en todos los flujos de replicación
_Se muestra como byte_ | +| **cockroachdb.kvadmission.flow_controller.elastic_tokens_deducted.count**
(count) | Tokens de flujo deducidos por solicitudes elásticas, en todos los flujos de replicación
_Se muestra como byte_ | +| **cockroachdb.kvadmission.flow_controller.elastic_tokens_returned.count**
(count) | Tokens de flujo devueltos por solicitudes elásticas, en todos los flujos de replicación
_Se muestra como byte_ | +| **cockroachdb.kvadmission.flow_controller.elastic_tokens_unaccounted.count**
(count) | Tokens de flujo devueltos por solicitudes elásticas que no se contabilizaron, en todos los flujos de replicación
_Se muestra como byte_ | +| **cockroachdb.kvadmission.flow_controller.elastic_wait_duration.bucket**
(count) | Histograma de latencia del tiempo que pasan las solicitudes elásticas esperando tokens de flujo
_Se muestra como nanosegundo_ | +| **cockroachdb.kvadmission.flow_controller.elastic_wait_duration.count**
(count) | Histograma de latencia del tiempo que pasan las solicitudes elásticas esperando tokens de flujo
_Se muestra como nanosegundo_ | +| **cockroachdb.kvadmission.flow_controller.elastic_wait_duration.sum**
(count) | Histograma de latencia del tiempo que pasan las solicitudes elásticas esperando tokens de flujo
_Se muestra como nanosegundo_ | +| **cockroachdb.kvadmission.flow_controller.regular_blocked_stream_count**
(gauge) | Número de flujos de réplicación sin tokens de flujo disponibles para solicitudes regulares| +| **cockroachdb.kvadmission.flow_controller.regular_requests_admitted.count**
(count) | Número de solicitudes regulares admitidas por el controlador de flujo| +| **cockroachdb.kvadmission.flow_controller.regular_requests_bypassed.count**
(count) | Número de solicitudes regulares en espera que omitieron el controlador de flujo debido a la desconexión de flujos| +| **cockroachdb.kvadmission.flow_controller.regular_requests_errored.count**
(count) | Número de solicitudes regulares que fallaron mientras esperaban tokens de flujo| +| **cockroachdb.kvadmission.flow_controller.regular_requests_waiting**
(gauge) | Número de solicitudes regulares a la espera de tokens de flujo| +| **cockroachdb.kvadmission.flow_controller.regular_stream_count**
(gauge) | Número total de flujos de replicación para solicitudes regulares| +| **cockroachdb.kvadmission.flow_controller.regular_tokens_available**
(gauge) | Tokens de flujo disponibles para solicitudes regulares, en todos los flujos de replicación
_Se muestra como byte_ | +| **cockroachdb.kvadmission.flow_controller.regular_tokens_deducted.count**
(count) | Tokens de flujo deducidos por solicitudes regulares, a través de todos los flujos de replicación
_Se muestra como byte_ | +| **cockroachdb.kvadmission.flow_controller.regular_tokens_returned.count**
(count) | Tokens de flujo devueltos por solicitudes regulares, a través de todos los flujos de replicación
_Se muestra como byte_ | +| **cockroachdb.kvadmission.flow_controller.regular_tokens_unaccounted.count**
(count) | Tokens de flujo devueltos por solicitudes regulares que no se contabilizaron, en todos los flujos de replicación
_Se muestra como byte_ | +| **cockroachdb.kvadmission.flow_controller.regular_wait_duration.bucket**
(count) | Histograma de latencia del tiempo que pasan las solicitudes regulares esperando tokens de flujo
_Se muestra como nanosegundo_ | +| **cockroachdb.kvadmission.flow_controller.regular_wait_duration.count**
(count) | Histograma de latencia del tiempo que pasan las solicitudes regulares esperando tokens de flujo
_Se muestra como nanosegundo_ | +| **cockroachdb.kvadmission.flow_controller.regular_wait_duration.sum**
(count) | Histograma de latencia del tiempo que pasan las solicitudes regulares esperando tokens de flujo
_Se muestra como nanosegundo_ | +| **cockroachdb.kvadmission.flow_handle.elastic_requests_admitted.count**
(count) | Número de solicitudes elásticas admitidas por el descriptor de flujo| +| **cockroachdb.kvadmission.flow_handle.elastic_requests_errored.count**
(count) | Número de solicitudes elásticas que fallaron mientras esperaban tokens de flujo, a nivel del descriptor| +| **cockroachdb.kvadmission.flow_handle.elastic_requests_waiting**
(gauge) | Número de solicitudes elásticas a la espera de tokens de flujo, a nivel del descriptor| +| **cockroachdb.kvadmission.flow_handle.elastic_wait_duration.bucket**
(count) | Histograma de latencia del tiempo que pasan las solicitudes elásticas esperando tokens de flujo, a nivel del descriptor
_Se muestra como nanosegundo_ | +| **cockroachdb.kvadmission.flow_handle.elastic_wait_duration.count**
(count) | Histograma de latencia del tiempo que pasan las solicitudes elásticas esperando tokens de flujo, a nivel del descriptor
_Se muestra como nanosegundo_ | +| **cockroachdb.kvadmission.flow_handle.elastic_wait_duration.sum**
(count) | Histograma de latencia del tiempo que pasan las solicitudes elásticas esperando tokens de flujo, a nivel del descriptor
_Se muestra como nanosegundo_ | +| **cockroachdb.kvadmission.flow_handle.regular_requests_admitted.count**
(count) | Número de solicitudes elásticas admitidas por el descriptor de flujo| +| **cockroachdb.kvadmission.flow_handle.regular_requests_errored.count**
(count) | Número de solicitudes regulares que fallaron mientras esperaban tokens de flujo, a nivel del descriptor| +| **cockroachdb.kvadmission.flow_handle.regular_requests_waiting**
(gauge) | Número de solicitudes regulares a la espera de tokens de flujo, a nivel del descriptor| +| **cockroachdb.kvadmission.flow_handle.regular_wait_duration.bucket**
(count) | Histograma de latencia del tiempo que pasan las solicitudes regulares esperando tokens de flujo, a nivel del descriptor
_Se muestra como nanosegundo_ | +| **cockroachdb.kvadmission.flow_handle.regular_wait_duration.count**
(count) | Histograma de latencia del tiempo que pasan las solicitudes regulares esperando tokens de flujo, a nivel del descriptor
_Se muestra como nanosegundo_ | +| **cockroachdb.kvadmission.flow_handle.regular_wait_duration.sum**
(count) | Histograma de latencia del tiempo que pasan las solicitudes regulares esperando tokens de flujo, a nivel del descriptor
_Se muestra como nanosegundo_ | +| **cockroachdb.kvadmission.flow_handle.streams_connected.count**
(count) | Número de veces que nos hemos conectado a un flujo, a nivel del descriptor| +| **cockroachdb.kvadmission.flow_handle.streams_disconnected.count**
(count) | Número de veces que nos hemos desconectado de un flujo, a nivel del descriptor| +| **cockroachdb.kvadmission.flow_token_dispatch.coalesced_elastic.count**
(count) | Número de envíos de tokens de flujo elásticos coalesced (en los que informamos al remitente de la admisión de una mayor entrada de logs)| +| **cockroachdb.kvadmission.flow_token_dispatch.coalesced_regular.count**
(count) | Número de envíos de tokens de flujo regulares coalesced (en los que informamos al remitente de la admisión de una mayor entrada de logs)| +| **cockroachdb.kvadmission.flow_token_dispatch.local_elastic.count**
(count) | Número de envíos de tokens de flujo elásticos locales| +| **cockroachdb.kvadmission.flow_token_dispatch.local_regular.count**
(count) | Número de envíos de tokens de flujo regulares locales| +| **cockroachdb.kvadmission.flow_token_dispatch.pending_elastic**
(gauge) | Número de envíos de tokens de flujo elásticos pendientes| +| **cockroachdb.kvadmission.flow_token_dispatch.pending_nodes**
(gauge) | Número de envíos de tokens de flujo pendientes de nodos| +| **cockroachdb.kvadmission.flow_token_dispatch.pending_regular**
(gauge) | Número de envíos de tokens de flujo regulares pendientes| +| **cockroachdb.kvadmission.flow_token_dispatch.remote_elastic.count**
(count) | Número de envíos de tokens de flujo elásticos remotos| +| **cockroachdb.kvadmission.flow_token_dispatch.remote_regular.count**
(count) | Número de envíos de tokens de flujo regulares remotos| +| **cockroachdb.lastupdatenanos**
(gauge) | \[OpenMetrics v1 y v2\] Tiempo en nanosegundos desde la marca de tiempo Unix en la que se actualizaron por última vez las métricas bytes/keys/intents
_Se muestra como nanosegundo_ | +| **cockroachdb.leases.epoch**
(gauge) | \[OpenMetrics v1 y v2\] Número de arrendatarios de réplicas que utilizan arrendamientos basados en marcas de tiempo| +| **cockroachdb.leases.error**
(count) | \[OpenMetrics v1\] Número de solicitudes de arrendamiento fallidas
_Se muestra como solicitud_ | +| **cockroachdb.leases.error.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de arrendamiento fallidas
_Se muestra como solicitud_ | +| **cockroachdb.leases.expiration**
(gauge) | \[OpenMetrics v1 y v2\] Número de arrendatarios de réplicas que utilizan arrendamientos basados en la caducidad| +| **cockroachdb.leases.liveness**
(gauge) | Número de arrendatarios de réplicas para el/los rango(s) de vida| +| **cockroachdb.leases.preferences.less_preferred**
(gauge) | Número de arrendatarios de réplicas que satisfacen una preferencia de arrendamiento que no es la más preferida| +| **cockroachdb.leases.preferences.violating**
(gauge) | Número de arrendatarios de réplicas que violan las preferencias de arrendamiento| +| **cockroachdb.leases.requests.latency.bucket**
(count) | Latencia de solicitud de arrendamiento (todos los tipos y resultados, coalesced)
_Se muestra como nanosegundo_ | +| **cockroachdb.leases.requests.latency.count**
(count) | Latencia de solicitud de arrendamiento (todos los tipos y resultados, coalesced)
_Se muestra como nanosegundo_ | +| **cockroachdb.leases.requests.latency.sum**
(count) | Latencia de solicitud de arrendamiento (todos los tipos y resultados, coalesced)
_Se muestra como nanosegundo_ | +| **cockroachdb.leases.success**
(count) | \[OpenMetrics v1\] Número de solicitudes de arrendamiento exitosas
_Se muestra como solicitud_ | +| **cockroachdb.leases.success.count**
(count) | \[OpenMetrics v2\] Número de solicitudes de arrendamiento exitosas
_Se muestra como solicitud_ | +| **cockroachdb.leases.transfers.error**
(count) | \[OpenMetrics v1\] Número de transferencias de arrendamientos fallidas| +| **cockroachdb.leases.transfers.error.count**
(count) | \[OpenMetrics v2\] Número de transferencias de arrendamientos fallidas| +| **cockroachdb.leases.transfers.success**
(count) | \[OpenMetrics v1\] Número de transferencias de arrendamientos exitosas| +| **cockroachdb.leases.transfers.success.count**
(count) | \[OpenMetrics v2\] Número de transferencias de arrendamientos exitosas| +| **cockroachdb.livebytes**
(gauge) | \[OpenMetrics v1 y v2\] Número de bytes de live data (claves más valores)
_Se muestra como byte_ | +| **cockroachdb.livecount**
(gauge) | \[OpenMetrics v1 y v2\] Recuento de claves activas
_Se muestra como clave_ | +| **cockroachdb.liveness.epochincrements**
(count) | \[OpenMetrics v1\] Número de veces que este nodo ha incrementado su tiempo de vida| +| **cockroachdb.liveness.epochincrements.count**
(count) | \[OpenMetrics v2\] Número de veces que este nodo ha incrementado su tiempo de vida| +| **cockroachdb.liveness.heartbeatfailures**
(count) | \[OpenMetrics v1\] Número de latidos fallidos de este nodo| +| **cockroachdb.liveness.heartbeatfailures.count**
(count) | \[OpenMetrics v2\] Número de latidos fallidos de este nodo| +| **cockroachdb.liveness.heartbeatency**
(indicador) | \[OpenMetrics v1\] Latencia del latido de vida del nodo en nanosegundos
_Se muestra como nanosegundo_ | +| **cockroachdb.liveness.heartbeatlatency.bucket**
(count) | \[OpenMetrics v2\] Latencia del latido de vida del nodo en nanosegundos
_Se muestra como nanosegundo_ | +| **cockroachdb.liveness.heartbeatlatency.count**
(count) | \[OpenMetrics v2\] Latencia del latido de vida del nodo en nanosegundos
_Se muestra como nanosegundo_ | +| **cockroachdb.liveness.heartbeatlatency.sum**
(count) | \[OpenMetrics v2\] Latencia del latido de vida del nodo en nanosegundos
_Se muestra como nanosegundo_ | +| **cockroachdb.liveness.heartbeatsinflight**
(gauge) | Número de latidos de vida en curso de este nodo| +| **cockroachdb.liveness.heartbeatsuccesses**
(count) | \[OpenMetrics v1\] Número de latidos de vida exitosos de este nodo| +| **cockroachdb.liveness.heartbeatsuccesses.count**
(count) | \[OpenMetrics v2\] Número de latidos de vida exitosos de este nodo| +| **cockroachdb.liveness.livenodes**
(gauge) | \[OpenMetrics v1 y v2\] Número de nodos activos en el clúster (será 0 si este nodo no está activo)| +| **cockroachdb.lockbytes**
(gauge) | Número de bytes ocupados por valores clave de bloqueo replicados (fuerza compartida y exclusiva, no fuerza de intención)
_Se muestra como byte_ | +| **cockroachdb.lockcount**
(gauge) | Recuento de bloqueos replicados (compartidos, exclusivos y de fuerza de intención)| +| **cockroachdb.log.buffered.messages.dropped.count**
(count) | Recuento de mensajes de log eliminados por los sumideros de logs almacenados en búfer. Cuando CRDB intenta almacenar en búfer un mensaje de log en un sumidero de logs almacenado en búfer cuyo búfer ya está lleno, elimina los mensajes más antiguos almacenados en búfer para dejar espacio para el nuevo mensaje.| +| **cockroachdb.log.fluent.sink.conn.errors.count**
(count) | Número de errores de conexión experimentados por los sumideros de generación de logs del servidor Fluent| +| **cockroachdb.log.messages.count**
(count) | Recuento de mensajes registrados en el nodo desde el inicio. Ten en cuenta que esto no mide la salida de mensajes de log individuales a los distintos sumideros de generación de logs configurados.| +| **cockroachdb.node_id**
(gauge) | \[OpenMetrics v1 y v2\] ID de nodo con etiquetas para direcciones RPC y HTTP publicadas| +| **cockroachdb.physical_replication.admit_latency.bucket**
(count) | Latencia de admisión de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que se admitió en el procesador de ingesta
_Se muestra como nanosegundo_ | +| **cockroachdb.physical_replication.admit_latency.count**
(count) | Latencia de admisión de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que se admitió en el procesador de ingesta
_Se muestra como nanosegundo_ | +| **cockroachdb.physical_replication.admit_latency.sum**
(count) | Latencia de admisión de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que se admitió en el procesador de ingesta
_Se muestra como nanosegundo_ | +| **cockroachdb.physical_replication.commit_latency.bucket**
(count) | Latencia de confirmación de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que se descargó en disco. Si se trata de eventos por lotes, se registra la diferencia entre el evento más antiguo del lote y la descarga
_Se muestra como nanosegundo_ | +| **cockroachdb.physical_replication.commit_latency.count**
(count) | Latencia de confirmación de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que se descargó en disco. Si se trata de eventos por lotes, se registra la diferencia entre el evento más antiguo del lote y la descarga
_Se muestra como nanosegundo_ | +| **cockroachdb.physical_replication.commit_latency.sum**
(count) | Latencia de confirmación de eventos: diferencia entre la marca de tiempo MVCC del evento y el momento en que se descargó en disco. Si se trata de eventos por lotes, se registra la diferencia entre el evento más antiguo del lote y la descarga
_Se muestra como nanosegundo_ | +| **cockroachdb.physical_replication.cutover_progress**
(gauge) | Número de rangos que quedan por revertir para completar un corte en curso| +| **cockroachdb.physical_replication.distsql_replan_count.count**
(count) | Número total de eventos de replanificación de SQL distribuido| +| **cockroachdb.physical_replication.earliest_data_checkpoint_span**
(gauge) | Marca de tiempo más temprana del último punto de control enviado por un procesador de datos de ingesta| +| **cockroachdb.physical_replication.events_ingested.count**
(count) | Eventos ingeridos por todos los trabajos de replicación| +| **cockroachdb.physical_replication.flush_hist_nanos.bucket**
(count) | Tiempo dedicado a descargar mensajes en todos los flujos de replicación
_Se muestra como nanosegundo_ | +| **cockroachdb.physical_replication.flush_hist_nanos.count**
(count) | Tiempo dedicado a descargar mensajes en todos los flujos de replicación
_Se muestra como nanosegundo_ | +| **cockroachdb.physical_replication.flush_hist_nanos.sum**
(count) | Tiempo dedicado a descargar mensajes en todos los flujos de replicación
_Se muestra como nanosegundo_ | +| **cockroachdb.physical_replication.flushes.count**
(count) | Total de descargas en todos los trabajos de replicación| +| **cockroachdb.physical_replication.job_progress_updates.count**
(count) | Número total de actualizaciones del progreso de trabajos de ingesta| +| **cockroachdb.physical_replication.latest_data_checkpoint_span**
(gauge) | Marca de tiempo más reciente del último punto de control enviado por un procesador de datos de ingesta| +| **cockroachdb.physical_replication.logical_bytes.count**
(count) | Bytes lógicos (suma de claves + valores) ingeridos por todos los trabajos de replicación
_Se muestra como byte_ | +| **cockroachdb.physical_replication.replicated_time_seconds**
(gauge) | Tiempo replicado del flujo de replicación físico en segundos desde la marca de tiempo Unix.
_Se muestra como segundo_ | +| **cockroachdb.physical_replication.resolved_events_ingested.count**
(count) | Eventos resueltos ingeridos por todos los trabajos de replicación| +| **cockroachdb.physical_replication.running**
(gauge) | Número de flujos de replicación en ejecución| +| **cockroachdb.physical_replication.sst_bytes.count**
(count) | Bytes de TSM (comprimidos) enviados a KV por todos los trabajos de replicación
_Se muestra como byte_ | +| **cockroachdb.queue.consistency.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas pendientes en la cola del verificador de consistencia| +| **cockroachdb.queue.consistency.process.failure**
(count) | \[OpenMetrics v1\] Número de réplicas cuyo procesamiento falló en la cola del verificador de consistencia| +| **cockroachdb.queue.consistency.process.failure.count**
(count) | \[OpenMetrics v2\] Número de réplicas cuyo procesamiento falló en la cola del verificador de consistencia| +| **cockroachdb.queue.consistency.process.success**
(count) | \[OpenMetrics v1\] Número de réplicas procesadas con éxito por la cola del verificador de consistencia| +| **cockroachdb.queue.consistency.process.success.count**
(count) | \[OpenMetrics v2\] Número de réplicas procesadas con éxito por la cola del verificador de consistencia| +| **cockroachdb.queue.consistency.processingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a procesar réplicas en la cola del verificador de consistencia
_Se muestra como nanosegundo_ | +| **cockroachdb.queue.consistency.processingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a procesar réplicas en la cola del verificador de consistencia
_Se muestra como nanosegundo_ | +| **cockroachdb.queue.gc.info.abortspanconsidered**
(count) | \[OpenMetrics v1\] Número de entradas AbortSpan lo suficientemente antiguas como para ser consideradas para su eliminación| +| **cockroachdb.queue.gc.info.abortspanconsidered.count**
(count) | \[OpenMetrics v2\] Número de entradas AbortSpan lo suficientemente antiguas como para ser consideradas para su eliminación| +| **cockroachdb.queue.gc.info.abortspangcnum**
(count) | \[OpenMetrics v1\] Número de entradas AbortSpan aptas para ser eliminadas| +| **cockroachdb.queue.gc.info.abortspangcnum.count**
(count) | \[OpenMetrics v2\] Número de entradas AbortSpan aptas para ser eliminadas| +| **cockroachdb.queue.gc.info.abortspanscanned**
(count) | \[OpenMetrics v1\] Número de transacciones presentes en el AbortSpan analizado desde el motor
_Se muestra como transacción_ | +| **cockroachdb.queue.gc.info.abortspanscanned.count**
(count) | \[OpenMetrics v2\] Número de transacciones presentes en el AbortSpan analizado desde el motor
_Se muestra como transacción_ | +| **cockroachdb.queue.gc.info.clearrangefailed.count**
(count) | Número de operaciones ClearRange fallidas durante GC| +| **cockroachdb.queue.gc.info.clearrangesuccess.count**
(count) | Número de operaciones ClearRange exitosas durante GC| +| **cockroachdb.queue.gc.info.enqueuehighpriority.count**
(count) | Número de réplicas en cola para GC con prioridad elevada| +| **cockroachdb.queue.gc.info.intentsconsidered**
(count) | \[OpenMetrics v1\] Número de intentos 'antiguos'| +| **cockroachdb.queue.gc.info.intentsconsidered.count**
(count) | \[OpenMetrics v2\] Número de intentos 'antiguos'| +| **cockroachdb.queue.gc.info.intenttxns**
(count) | \[OpenMetrics v1\] Número de transacciones distintas asociadas
_Se muestra como transacción_ | +| **cockroachdb.queue.gc.info.intenttxns.count**
(count) | \[OpenMetrics v2\] Número de transacciones distintas asociadas
_Se muestra como transacción_ | +| **cockroachdb.queue.gc.info.numkeysaffected**
(count) | \OpenMetrics v1\] Número de claves con datos GC'able
_Se muestra como clave_ | +| **cockroachdb.queue.gc.info.numkeysaffected.count**
(count) | \OpenMetrics v2\] Número de claves con datos GC'able
_Se muestra como clave_ | +| **cockroachdb.queue.gc.info.numrangekeysaffected.count**
(count) | Número de claves de rango GC'able| +| **cockroachdb.queue.gc.info.pushtxn**
(count) | \[OpenMetrics v1\] Número de intentos de envío| +| **cockroachdb.queue.gc.info.pushtxn.count**
(count) | \[OpenMetrics v2\] Número de intentos de envío| +| **cockroachdb.queue.gc.info.resolvefailed.count**
(count) | Número de intentos de limpieza fallidos durante GC| +| **cockroachdb.queue.gc.info.resolvesuccess**
(count) | \[OpenMetrics v1\] Número de intentos resueltos con éxito| +| **cockroachdb.queue.gc.info.resolvesuccess.count**
(count) | \[OpenMetrics v2\] Número de intentos resueltos con éxito| +| **cockroachdb.queue.gc.info.resolvetotal**
(count) | \[OpenMetrics v1\] Número de intentos de resolución intentados| +| **cockroachdb.queue.gc.info.resolvetotal.count**
(count) | \[OpenMetrics v2\] Número de intentos de resolución intentados| +| **cockroachdb.queue.gc.info.transactionresolvefailed.count**
(count) | Número de fallos en intentos de limpieza de transacciones locales durante GC| +| **cockroachdb.queue.gc.info.transactionspangcaborted**
(count) | \[OpenMetrics v1\] Número de entradas GC'able correspondientes a transacciones canceladas| +| **cockroachdb.queue.gc.info.transactionspangcaborted.count**
(count) | \[OpenMetrics v2\] Número de entradas GC'able correspondientes a transacciones canceladas| +| **cockroachdb.queue.gc.info.transactionspangccommitted**
(count) | \[OpenMetrics v1\] Número de entradas GC'able correspondientes a transacciones confirmadas| +| **cockroachdb.queue.gc.info.transactionspangccommitted.count**
(count) | \[OpenMetrics v2\] Número de entradas GC'able correspondientes a transacciones confirmadas| +| **cockroachdb.queue.gc.info.transactionspangcpending**
(count) | \[OpenMetrics v1\] Número de entradas GC'able correspondientes a transacciones pendientes| +| **cockroachdb.queue.gc.info.transactionspangcpending.count**
(count) | \[OpenMetrics v2\] Número de entradas GC'able correspondientes a transacciones pendientes| +| **cockroachdb.queue.gc.info.transactionspangcstaging.count**
(count) | Número de entradas GC'able correspondientes a transacciones de staging| +| **cockroachdb.queue.gc.info.transactionspanscanned**
(count) | \[OpenMetrics v1\] Número de entradas en tramos de transacción analizados desde el motor| +| **cockroachdb.queue.gc.info.transactionspanscanned.count**
(count) | \[OpenMetrics v2\] Número de entradas en tramos de transacción analizados desde el motor| +| **cockroachdb.queue.gc.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas pendientes en la cola GC| +| **cockroachdb.queue.gc.process.failure**
(count) | \[OpenMetrics v1\] Número de réplicas cuyo procesamiento falló en la cola GC| +| **cockroachdb.queue.gc.process.failure.count**
(count) | \[OpenMetrics v2\] Número de réplicas cuyo procesamiento falló en la cola GC| +| **cockroachdb.queue.gc.process.success**
(count) | \[OpenMetrics v1\] Número de réplicas procesadas con éxito por la cola GC| +| **cockroachdb.queue.gc.process.success.count**
(count) | \[OpenMetrics v2\] Número de réplicas procesadas con éxito por la cola GC| +| **cockroachdb.queue.gc.processingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a procesar réplicas en la cola GC
_Se muestra como nanosegundo_ | +| **cockroachdb.queue.gc.processingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a procesar réplicas en la cola GC
_Se muestra como nanosegundo_ | +| **cockroachdb.queue.merge.pending**
(gauge) | Número de réplicas pendientes en la cola de fusión| +| **cockroachdb.queue.merge.process.failure.count**
(count) | Número de réplicas cuyo procesamiento falló en la cola de fusión| +| **cockroachdb.queue.merge.process.success.count**
(count) | Número de réplicas procesadas con éxito por la cola de fusión| +| **cockroachdb.queue.merge.processingnanos.count**
(count) | Nanosegundos dedicados a procesar réplicas en la cola de fusión
_Se muestra como nanosegundo_ | +| **cockroachdb.queue.merge.purgatory**
(gauge) | Número de réplicas en el purgatorio de la cola de fusión, a la espera de ser fusionables| +| **cockroachdb.queue.raftlog.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas pendientes en la cola de logs Raft | +| **cockroachdb.queue.raftlog.process.failure**
(count) | \[OpenMetrics v1\] Número de réplicas cuyo procesamiento falló en la cola de de logs Raft | +| **cockroachdb.queue.raftlog.process.failure.count**
(count) | \[OpenMetrics v2\] Número de réplicas cuyo procesamiento falló en la cola de de logs Raft | +| **cockroachdb.queue.raftlog.process.success**
(count) | \[OpenMetrics v1\] Número de réplicas procesadas con éxito por la cola de logs Raft | +| **cockroachdb.queue.raftlog.process.success.count**
(count) | \[OpenMetrics v2\] Número de réplicas procesadas con éxito por la cola de logs Raft| +| **cockroachdb.queue.raftlog.processingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a procesar réplicas en la cola de logs Raft
_Se muestra como nanosegundo_ | +| **cockroachdb.queue.raftlog.processingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a procesar réplicas en la cola de logs Raft
_Se muestra como nanosegundo_ | +| **cockroachdb.queue.raftsnapshot.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas pendientes en la cola de reparación Raft| +| **cockroachdb.queue.raftsnapshot.process.failure**
(count) | \[OpenMetrics v1\] Número de réplicas cuyo procesamiento falló en la cola de reparación Raft| +| **cockroachdb.queue.raftsnapshot.process.failure.count**
(count) | \[OpenMetrics v2\] Número de réplicas cuyo procesamiento falló en la cola de reparación Raft| +| **cockroachdb.queue.raftsnapshot.process.success**
(count) | \[OpenMetrics v1\] Número de réplicas procesadas con éxito por la cola de reparación Raft| +| **cockroachdb.queue.raftsnapshot.process.success.count**
(count) | \[OpenMetrics v2\] Número de réplicas procesadas con éxito por la cola de reparación Raft| +| **cockroachdb.queue.raftsnapshot.processingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a procesar réplicas en la cola de reparación Raft
_Se muestra como nanosegundo_ | +| **cockroachdb.queue.raftsnapshot.processingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a procesar réplicas en la cola de reparación Raft
_Se muestra como nanosegundo_ | +| **cockroachdb.queue.replicagc.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas pendientes en la cola GC de replicación| +| **cockroachdb.queue.replicagc.process.failure**
(count) | \[OpenMetrics v1\] Número de réplicas cuyo procesamiento falló en la cola GC de replicación| +| **cockroachdb.queue.replicagc.process.failure.count**
(count) | \[OpenMetrics v2\] Número de réplicas cuyo procesamiento falló en la cola GC de replicación| +| **cockroachdb.queue.replicagc.process.success**
(count) | \[OpenMetrics v1\] Número de réplicas procesadas con éxito por la cola GC de replicación| +| **cockroachdb.queue.replicagc.process.success.count**
(count) | \[OpenMetrics v2\] Número de réplicas procesadas con éxito por la cola GC de replicación| +| **cockroachdb.queue.replicagc.processingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a procesar réplicas en la cola GC de replicación
_Se muestra como nanosegundo_ | +| **cockroachdb.queue.replicagc.processingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a procesar réplicas en la cola GC de replicación
_Se muestra como nanosegundo_ | +| **cockroachdb.queue.replicagc.removereplica**
(count) | \[OpenMetrics v1\] Número de eliminaciones de réplicas intentadas por la cola GC de replicación| +| **cockroachdb.queue.replicagc.removereplica.count**
(count) | \[OpenMetrics v2\] Número de eliminaciones de réplicas intentadas por la cola GC de replicación| +| **cockroachdb.queue.replicate.addnonvoterreplica.count**
(count) | Número de adiciones de réplicas no votantes intentadas por la cola de replicación| +| **cockroachdb.queue.replicate.addreplica**
(count) | \[OpenMetrics v1\] Número de adiciones de réplicas intentadas por la cola de replicación| +| **cockroachdb.queue.replicate.addreplica.count**
(count) | \[OpenMetrics v2\] Número de adiciones de réplicas intentadas por la cola de replicación| +| **cockroachdb.queue.replicate.addreplica.error.count**
(count) | Número de adiciones de réplicas fallidas procesadas por la cola de replicación| +| **cockroachdb.queue.replicate.addreplica.success.count**
(count) | Número de adiciones exitosas de réplicas procesadas por la cola de replicación| +| **cockroachdb.queue.replicate.addvoterreplica.count**
(count) | Número de adiciones de réplicas de votantes intentadas por la cola de replicación| +| **cockroachdb.queue.replicate.nonvoterpromotions.count**
(count) | Número de no votantes promovidos a votantes por la cola de replicación| +| **cockroachdb.queue.replicate.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas pendientes en la cola de replicación| +| **cockroachdb.queue.replicate.process.failure**
(count) | \[OpenMetrics v1\] Número de réplicas cuyo procesamiento falló en la cola de replicación| +| **cockroachdb.queue.replicate.process.failure.count**
(count) | \[OpenMetrics v2\] Número de réplicas cuyo procesamiento falló en la cola de replicación| +| **cockroachdb.queue.replicate.process.success**
(count) | \[OpenMetrics v1\] Número de réplicas procesadas con éxito por la cola de replicación| +| **cockroachdb.queue.replicate.process.success.count**
(count) | \[OpenMetrics v2\] Número de réplicas procesadas con éxito por la cola de replicación| +| **cockroachdb.queue.replicate.processingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a procesar réplicas en la cola de replicación
_Se muestra como nanosegundo_ | +| **cockroachdb.queue.replicate.processingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a procesar réplicas en la cola de replicación
_Se muestra como nanosegundo_ | +| **cockroachdb.queue.replicate.purgatory**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas en el purgatorio de la cola de replicación, a la espera de opciones de asignación| +| **cockroachdb.queue.replicate.rebalancenonvoterreplica.count**
(count) | Número de adiciones iniciadas por el rebalanceador de réplicas no votantes intentadas por la cola de replicación| +| **cockroachdb.queue.replicate.rebalancereplica**
(count) | \[OpenMetrics v1\] Número de adiciones iniciadas por el rebalanceador de réplicas intentadas por la cola de replicación| +| **cockroachdb.queue.replicate.rebalancereplica.count**
(count) | \[OpenMetrics v2\] Número de adiciones iniciadas por el rebalanceador de réplicas intentadas por la cola de replicación| +| **cockroachdb.queue.replicate.rebalancevoterreplica.count**
(count) | Número de adiciones iniciadas por el rebalanceador de réplicas de votantes intentadas por la cola de replicación| +| **cockroachdb.queue.replicate.removedeadnonvoterreplica.count**
(count) | Número de eliminaciones de réplicas muertas no votantes intentadas por la cola de replicación (normalmente en respuesta a la interrupción de un nodo)| +| **cockroachdb.queue.replicate.removedeadreplica**
(count) | \[OpenMetrics v1\] Número de eliminaciones de réplicas muertas intentadas por la cola de replicación (normalmente en respuesta a la interrupción de un nodo)| +| **cockroachdb.queue.replicate.removedeadreplica.count**
(count) | \[OpenMetrics v2\] Número de eliminaciones de réplicas muertas intentadas por la cola de replicación (normalmente en respuesta a la interrupción de un nodo)| +| **cockroachdb.queue.replicate.removedeadreplica.error.count**
(count) | Número de eliminaciones fallidas de réplicas muertas procesadas por la cola de replicación| +| **cockroachdb.queue.replicate.removedeadreplica.success.count**
(count) | Número de eliminaciones exitosas de réplicas muertas procesadas por la cola de replicación| +| **cockroachdb.queue.replicate.removedeadvoterreplica.count**
(count) | Número de eliminaciones de réplicas de votantes muertas intentadas por la cola de replicación (normalmente en respuesta a la interrupción de un nodo)| +| **cockroachdb.queue.replicate.removedecommissioningnonvoterreplica.count**
(count) | Número de eliminaciones de réplicas no votantes por desmantelamiento intentadas por la cola de replicación (normalmente en respuesta a la interrupción de un nodo)| +| **cockroachdb.queue.replicate.removedecommissioningreplica.count**
(count) | Número de eliminaciones de réplicas por desmantelamiento intentadas por la cola de replicación (normalmente en respuesta a la interrupción de un nodo)| +| **cockroachdb.queue.replicate.removedecommissioningreplica.error.count**
(count) | Número de eliminaciones fallidas de réplicas por desmantelamiento procesadas por la cola de replicación| +| **cockroachdb.queue.replicate.removedecommissioningreplica.success.count**
(count) | Número de eliminaciones exitosas de réplicas por desmantelamiento procesadas por la cola de replicación| +| **cockroachdb.queue.replicate.removedecommissioningvoterreplica.count**
(count) | Número de eliminaciones de réplicas votantes por desmantelamiento intentadas por la cola de replicación (normalmente en respuesta a la interrupción de un nodo)| +| **cockroachdb.queue.replicate.removelearnerreplica.count**
(count) | Número de eliminaciones de réplicas de aprendiz intentadas por la cola de replicación (normalmente debido a condiciones de carrera internas)| +| **cockroachdb.queue.replicate.removenonvoterreplica.count**
(count) | Número de eliminaciones de réplicas no votantes intentadas por la cola de replicación (normalmente en respuesta a una adición iniciada por un rebalanceador)| +| **cockroachdb.queue.replicate.removereplica**
(count) | [OpenMetrics v1\] Número de eliminaciones de réplicas intentadas por la cola de replicación (normalmente en respuesta a una adición iniciada por un rebalanceador)| +| **cockroachdb.queue.replicate.removereplica.count**
(count) | \[OpenMetrics v2\] Número de eliminaciones de réplicas intentadas por la cola de replicación (normalmente en respuesta a una adición iniciada por un rebalanceador)| +| **cockroachdb.queue.replicate.removereplica.error.count**
(count) | Número de eliminaciones de réplicas fallidas procesadas por la cola de replicación| +| **cockroachdb.queue.replicate.removereplica.success.count**
(count) | Número de eliminaciones exitosas de réplicas procesadas por la cola de replicación| +| **cockroachdb.queue.replicate.removevoterreplica.count**
(count) | Número de eliminaciones de réplicas votantes intentadas por la cola de replicación (normalmente en respuesta a una adición iniciada por un rebalanceador)| +| **cockroachdb.queue.replicate.replacedeadreplica.error.count**
(count) | Número de sustituciones de réplicas muertas fallidas procesadas por la cola de replicación| +| **cockroachdb.queue.replicate.replacedeadreplica.success.count**
(count) | Número de sustituciones exitosas de réplicas muertas procesadas por la cola de replicación| +| **cockroachdb.queue.replicate.replacedecommissioningreplica.error.count**
(count) | Número de sustituciones de réplicas por desmantelamiento fallidas procesadas por la cola de replicación| +| **cockroachdb.queue.replicate.replacedecommissioningreplica.success.count**
(count) | Número de sustituciones exitosas de réplicas por desmantelamiento procesadas por la cola de replicación| +| **cockroachdb.queue.replicate.transferlease**
(count) | \[OpenMetrics v1\] Número de transferencias de arrendamientos intentadas por la cola de replicación| +| **cockroachdb.queue.replicate.transferlease.count**
(count) | \[OpenMetrics v2\] Número de transferencias de arrendamientos intentadas por la cola de replicación| +| **cockroachdb.queue.replicate.voterdemotions.count**
(count) | Número de votantes degradados a no votantes por la cola de replicación| +| **cockroachdb.queue.split.load_based.count**
(count) | Número de divisiones de rango debidas a que un rango es superior a la carga máxima de rango configurada| +| **cockroachdb.queue.split.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas pendientes en la cola dividida| +| **cockroachdb.queue.split.process.failure**
(count) | \[OpenMetrics v1\] Número de réplicas cuyo procesamiento falló en la cola dividida| +| **cockroachdb.queue.split.process.failure.count**
(count) | \[OpenMetrics v2\] Número de réplicas cuyo procesamiento falló en la cola dividida| +| **cockroachdb.queue.split.process.success**
(count) | \[OpenMetrics v1\] Número de réplicas procesadas con éxito por la cola dividida| +| **cockroachdb.queue.split.process.success.count**
(count) | \[OpenMetrics v2\] Número de réplicas procesadas con éxito por la cola dividida| +| **cockroachdb.queue.split.processingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a procesar réplicas en la cola dividida
_Se muestra como nanosegundo_ | +| **cockroachdb.queue.split.processingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a procesar réplicas en la cola dividida
_Se muestra como nanosegundo_ | +| **cockroachdb.queue.split.purgatory**
(gauge) | Número de réplicas en el purgatorio de la cola dividida, esperando a ser divisibles| +| **cockroachdb.queue.split.size_based.count**
(count) | Número de divisiones de rangos debidas a que un rango es mayor que el tamaño máximo de rango configurado| +| **cockroachdb.queue.split.span_config_based.count**
(count) | Número de divisiones de rangos debidas debidas a la configuración de tramos| +| **cockroachdb.queue.tsmaintenance.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas pendientes en la cola de mantenimiento de series temporales| +| **cockroachdb.queue.tsmaintenance.process.failure**
(count) | \[OpenMetrics v1\] Número de réplicas cuyo procesamiento falló en la cola de mantenimiento de series temporales| +| **cockroachdb.queue.tsmaintenance.process.failure.count**
(count) | \[OpenMetrics v2\] Número de réplicas cuyo procesamiento falló en la cola de mantenimiento de series temporales| +| **cockroachdb.queue.tsmaintenance.process.success**
(count) | \[OpenMetrics v1\] Número de réplicas procesadas con éxito por la cola de mantenimiento de series temporales| +| **cockroachdb.queue.tsmaintenance.process.success.count**
(count) | \[OpenMetrics v2\] Número de réplicas procesadas con éxito por la cola de mantenimiento de series temporales| +| **cockroachdb.queue.tsmaintenance.processingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a procesar réplicas en la cola de mantenimiento de series temporales
_Se muestra como nanosegundo_ | +| **cockroachdb.queue.tsmaintenance.processingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a procesar réplicas en la cola de mantenimiento de series temporales
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.commands.proposed.count**
(count) | Número de comandos Raft propuestos. El número de proposiciones y repeticiones de proposiciones realizadas por los arrendatarios. Esta métrica aproxima el número de comandos enviados a través de Raft.| +| **cockroachdb.raft.commands.reproposed.new_lai.count**
(count) | Número de comandos Raft nuevamente propuestos con un nuevo LAI. Número de comandos Raft que los arrendatarios volvieron a proponer con un nuevo LAI. Estas nuevas propuestas se producen en el caso de comandos confirmados en Raft más allá de la orden deseada y que, por lo tanto, no pueden aplicarse tal cual.| +| **cockroachdb.raft.commands.reproposed.unchanged.count**
(count) | Número de comandos Raft nuevamente propuestos sin modificaciones. Número de comandos Raft que los arrendatarios volvieron a proponer sin modificaciones. Estas nuevas propuestas se producen en el caso de comandos no confirmados/no aplicados sin tiempo de inactividad y que, por lo tanto, corren un elevado riesgo de descartarse.| +| **cockroachdb.raft.commandsapplied**
(count) | \[OpenMetrics v1\] Recuento de comandos Raft aplicados
_Se muestra como comando_ | +| **cockroachdb.raft.commandsapplied.count**
(count) | \[OpenMetrics v2\] Recuento de comandos Raft aplicados
_Se muestra como comando_ | +| **cockroachdb.raft.dropped.count**
(count) | Número de propuestas Raft descartadas (se cuenta cada raftpb.Entry, no raftpb.MsgProp)| +| **cockroachdb.raft.dropped_leader.count**
(count) | Número de propuestas Raft lanzadas por una réplica que se considera líder. Cada actualización también incrementa `raft.dropped` (esto cuenta raftpb.Entry individuales, no raftpb.MsgProp)| +| **cockroachdb.raft.enqueued.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de mensajes salientes pendientes en la cola de Raft Transport| +| **cockroachdb.raft.entrycache.accesses.count**
(count) | Número de búsquedas en la caché de entradas Raft| +| **cockroachdb.raft.entrycache.bytes**
(gauge) | Tamaño agregado de todas las entradas Raft en la caché de entradas Raft
_Se muestra como byte_ | +| **cockroachdb.raft.entrycache.hits.count**
(count) | Número de búsquedas correctas en la caché de entradas Raft| +| **cockroachdb.raft.entrycache.read_bytes.count**
(count) | Contador de bytes en entradas devueltas desde la caché de entradas Raft
_Se muestra como byte_ | +| **cockroachdb.raft.entrycache.size**
(gauge) | Número de entradas Raft en la caché de entradas Raft| +| **cockroachdb.raft.heartbeats.pending**
(gauge) | \[OpenMetrics v1 y v2\] Número de latidos y respuestas pendientes a la espera de coalescer| +| **cockroachdb.raft.process.applycommitted.latency.bucket**
(count) | Histograma de latencia para la aplicación de todos los comandos Raft confirmados en un Raft listo. Esto mide la latencia de extremo a extremo de la aplicación de todos los comandos en un Raft listo. Ten en cuenta que esto se cierra sobre posiblemente múltiples mediciones de la métrica 'raft.process.commandcommit.latency', que recibe puntos de datos para cada sublote procesado en el proceso.
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.applycommitted.latency.count**
(count) | Histograma de latencia para la aplicación de todos los comandos Raft confirmados en un Raft listo. Esto mide la latencia de extremo a extremo de la aplicación de todos los comandos en un Raft listo. Ten en cuenta que esto se cierra sobre posiblemente múltiples mediciones de la métrica 'raft.process.commandcommit.latency', que recibe puntos de datos para cada sublote procesado en el proceso.
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.applycommitted.latency.sum**
(count) | Histograma de latencia para la aplicación de todos los comandos Raft confirmados en un Raft listo. Esto mide la latencia de extremo a extremo de la aplicación de todos los comandos en un Raft listo. Ten en cuenta que esto se cierra sobre posiblemente múltiples mediciones de la métrica 'raft.process.commandcommit.latency', que recibe puntos de datos para cada sublote procesado en el proceso.
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.commandcommit.latency**
(gauge) | \[OpenMetrics v1\] Histograma de latencia en nanosegundos de la confirmación de comandos Raft
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.commandcommit.latency.bucket**
(count) | \[OpenMetrics v2\] Histograma de latencia en nanosegundos de la confirmación de comandos Raft
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.commandcommit.latency.count**
(count) | \[OpenMetrics v2\] Histograma de latencia en nanosegundos de la confirmación de comandos Raft
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.commandcommit.latency.sum**
(count) | \[OpenMetrics v2\] Histograma de latencia en nanosegundos de la confirmación de comandos Raft
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.handleready.latency.bucket**
(count) | Histograma de latencia para gestionar un Raft listo. Esto mide la latencia de extremo a extremo del bucle de avance del estado de Raft, incluyendo: aplicación de snapshots, ingesta de TSM, anexión duradera al log de Raft (es decir, incluye fsync), aplicación de entrada (incluye efectos secundarios replicados, en particular el truncamiento de logs).
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.handleready.latency.count**
(count) | Histograma de latencia para gestionar un Raft listo. Esto mide la latencia de extremo a extremo del bucle de avance del estado de Raft, incluyendo: aplicación de snapshots, ingesta de TSM, anexión duradera al log de Raft (es decir, incluye fsync), aplicación de entrada (incluye efectos secundarios replicados, en particular el truncamiento de logs).
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.handleready.latency.sum**
(count) | Histograma de latencia para gestionar un Raft listo. Esto mide la latencia de extremo a extremo del bucle de avance del estado de Raft, incluyendo: aplicación de snapshots, ingesta de TSM, anexión duradera al log de Raft (es decir, incluye fsync), aplicación de entrada (incluye efectos secundarios replicados, en particular el truncamiento de logs).
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.logcommit.latency**
(gauge) | \[OpenMetrics v1\] Histograma de latencia en nanosegundos para confirmar entradas de logs Raft
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.logcommit.latency.bucket**
(count) | \[OpenMetrics v2\] Histograma de latencia en nanosegundos para confirmar entradas de logs Raft
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.logcommit.latency.count**
(count) | \[OpenMetrics v2\] Histograma de latencia en nanosegundos para confirmar entradas de logs Raft
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.logcommit.latency.sum**
(count) | \[OpenMetrics v2\] Histograma de latencia en nanosegundos para confirmar entradas de logs Raft
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.tickingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados a store.processRaft() procesando replica.Tick()
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.tickingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados a store.processRaft() procesando replica.Tick()
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.workingnanos**
(count) | \[OpenMetrics v1\] Nanosegundos dedicados al trabajo con store.processRaft()
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.process.workingnanos.count**
(count) | \[OpenMetrics v2\] Nanosegundos dedicados al trabajo con store.processRaft()
_Se muestra como nanosegundo_ | +| **cockroachdb.raft.quota_pool.percent_used.bucket**
(count) | Histograma de uso del grupo de cuotas de propuestas (0-100) por arrendatario e intervalo de métrica| +| **cockroachdb.raft.quota_pool.percent_used.count**
(count) | Histograma de uso del grupo de cuotas de propuestas (0-100) por arrendatario e intervalo de métrica| +| **cockroachdb.raft.quota_pool.percent_used.sum**
(count) | Histograma de uso del grupo de cuotas de propuestas (0-100) por arrendatario e intervalo de métrica| +| **cockroachdb.raft.rcvd.app**
(count) | \[OpenMetrics v1\] Número de mensajes MsgApp recibidos por este almacén| +| **cockroachdb.raft.rcvd.app.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgApp recibidos por este almacén| +| **cockroachdb.raft.rcvd.appresp**
(count) | \[OpenMetrics v1\] Número de mensajes MsgAppResp recibidos por este almacén| +| **cockroachdb.raft.rcvd.appresp.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgAppResp recibidos por este almacén| +| **cockroachdb.raft.rcvd.bytes.count**
(count) | Número de bytes en mensajes Raft recibidos por este almacén. Ten en cuenta que esto no incluye el snapshot de Raft recibido.
_Se muestra como byte_ | +| **cockroachdb.raft.rcvd.cross_region.bytes.count**
(count) | Número de bytes recibidos por este almacén para mensajes Raft entre regiones (cuando los niveles de región están configurados). Ten en cuenta que esto no incluye el snapshot de Raft recibido.
_Se muestra como byte_ | +| **cockroachdb.raft.rcvd.cross_zone.bytes.count**
(count) | Número de bytes recibidos por este almacén para mensajes Raft entre zonas, de la misma región (cuando los niveles de región y zona están configurados). Si los niveles de región no están configurados, este recuento puede incluir datos enviados entre diferentes regiones.
_Se muestra como byte_ | +| **cockroachdb.raft.rcvd.dropped**
(count) | \[OpenMetrics v1\] Número de mensajes Raft entrantes descartados| +| **cockroachdb.raft.rcvd.dropped.count**
(count) | \[OpenMetrics v2\] Número de mensajes Raft entrantes descartados| +| **cockroachdb.raft.rcvd.dropped_bytes.count**
(count) | Bytes de mensajes Raft entrantes descartados
_Se muestra como byte_ | +| **cockroachdb.raft.rcvd.heartbeat**
(count) | \[OpenMetrics v1\] Número de mensajes MsgHeartbeat (coalescentes, si está activado) recibidos por este almacén| +| **cockroachdb.raft.rcvd.heartbeat.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgHeartbeat (coalescentes, si está activado) recibidos por este almacén| +| **cockroachdb.raft.rcvd.heartbeatresp**
(count) | \[OpenMetrics v1\] Número de mensajes MsgHeartbeatResp (coalescentes, si está activado) recibidos por este almacén| +| **cockroachdb.raft.rcvd.heartbeatresp.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgHeartbeatResp (coalescentes, si está activado) recibidos por este almacén| +| **cockroachdb.raft.rcvd.prevote**
(count) | \[OpenMetrics v1\] Número de mensajes MsgPreVote recibidos por este almacén| +| **cockroachdb.raft.rcvd.prevote.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgPreVote recibidos por este almacén| +| **cockroachdb.raft.rcvd.prevoteresp**
(count) | \[OpenMetrics v1\] Número de mensajes MsgPreVoteResp recibidos por este almacén| +| **cockroachdb.raft.rcvd.prevoteresp.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgPreVoteResp recibidos por este almacén| +| **cockroachdb.raft.rcvd.prop**
(count) | \[OpenMetrics v1\] Número de mensajes MsgProp recibidos por este almacén| +| **cockroachdb.raft.rcvd.prop.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgProp recibidos por este almacén| +| **cockroachdb.raft.rcvd.queued_bytes**
(gauge) | Número de bytes en mensajes actualmente en espera de procesamiento Raft
_Se muestra como byte_ | +| **cockroachdb.raft.rcvd.snap**
(count) | \[OpenMetrics v1\] Número de mensajes MsgSnap recibidos por este almacén| +| **cockroachdb.raft.rcvd.snap.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgSnap recibidos por este almacén| +| **cockroachdb.raft.rcvd.stepped_bytes.count**
(count) | Número de bytes en mensajes procesados por Raft. Los mensajes reflejados aquí fueron entregados a Raft (vía RawNode.step). Esto no implica que los mensajes ya no se conserven en la memoria o que se haya realizado una E/S.
_Se muestra como byte_ | +| **cockroachdb.raft.rcvd.timeoutnow**
(count) | \[OpenMetrics v1\] Número de mensajes MsgTimeoutNow recibidos por este almacén| +| **cockroachdb.raft.rcvd.timeoutnow.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgTimeoutNow recibidos por este almacén| +| **cockroachdb.raft.rcvd.transferleader**
(count) | \[OpenMetrics v1\] Número de mensajes MsgTransferLeader recibidos por este almacén| +| **cockroachdb.raft.rcvd.transferleader.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgTransferLeader recibidos por este almacén| +| **cockroachdb.raft.rcvd.vote**
(count) | \[OpenMetrics v1\] Número de mensajes MsgVote recibidos por este almacén| +| **cockroachdb.raft.rcvd.vote.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgVote recibidos por este almacén| +| **cockroachdb.raft.rcvd.voteresp**
(count) | \[OpenMetrics v1\] Número de mensajes MsgVoteResp recibidos por este almacén| +| **cockroachdb.raft.rcvd.voteresp.count**
(count) | \[OpenMetrics v2\] Número de mensajes MsgVoteResp recibidos por este almacén| +| **cockroachdb.raft.replication.latency.bucket**
(count) | Tiempo transcurrido entre la evaluación de una BatchRequest y su reflejo en la máquina de estado del proponente (es decir, su aplicación completa). Esto incluye el tiempo transcurrido en el grupo de cuotas, en la replicación (incluidas las propuestas) y en la aplicación, pero en particular *no* la latencia de secuenciación (es decir, la contención y la adquisición de latch).| +| **cockroachdb.raft.replication.latency.count**
(count) | Tiempo transcurrido entre la evaluación de una BatchRequest y su reflejo en la máquina de estado del proponente (es decir, su aplicación completa). Esto incluye el tiempo transcurrido en el grupo de cuotas, en la replicación (incluidas las propuestas) y en la aplicación, pero en particular *no* la latencia de secuenciación (es decir, la contención y la adquisición de latch).| +| **cockroachdb.raft.replication.latency.sum**
(count) | Tiempo transcurrido entre la evaluación de una BatchRequest y su reflejo en la máquina de estado del proponente (es decir, su aplicación completa). Esto incluye el tiempo transcurrido en el grupo de cuotas, en la replicación (incluidas las propuestas) y en la aplicación, pero en particular *no* la latencia de secuenciación (es decir, la contención y la adquisición de latch).| +| **cockroachdb.raft.scheduler.latency**
(count) | Duraciones de las colas de rangos que esperan ser procesados. Este histograma mide el tiempo que transcurre desde que un rango se registra en el programador para su procesamiento hasta que se procesa realmente. No incluye la duración del procesamiento.
_Se muestra como nanosegundos_ | +| **cockroachdb.raft.scheduler.latency.bucket**
(count) | Duraciones de las colas de rangos que esperan ser procesados. Este histograma mide el tiempo que transcurre desde que un rango se registra en el programador para su procesamiento hasta que se procesa realmente. No incluye la duración del procesamiento.
_Se muestra como nanosegundos_ | +| **cockroachdb.raft.scheduler.latency.count**
(count) | Duraciones de las colas de rangos que esperan ser procesados. Este histograma mide el tiempo que transcurre desde que un rango se registra en el programador para su procesamiento hasta que se procesa realmente. No incluye la duración del procesamiento.
_Se muestra como nanosegundos_ | +| **cockroachdb.raft.scheduler.latency.sum**
(count) | Duraciones de las colas de rangos que esperan ser procesados. Este histograma mide el tiempo que transcurre desde que un rango se registra en el programador para su procesamiento hasta que se procesa realmente. No incluye la duración del procesamiento.
_Se muestra como nanosegundos_ | +| **cockroachdb.raft.sent.bytes.count**
(count) | Número de bytes en mensajes Raft enviados por este almacén. Ten en cuenta que esto no incluye el snapshot Raft enviado.
_Se muestra como byte_ | +| **cockroachdb.raft.sent.cross_region.bytes.count**
(count) | Número de bytes enviados por este almacén para mensajes Raft entre regiones (cuando los niveles de región están configurados). Ten en cuenta que esto no incluye el snapshot de Raft enviado.
_Se muestra como byte_ | +| **cockroachdb.raft.sent.cross_zone.bytes.count**
(count) | Número de bytes enviados por este almacén para mensajes Raft entre zonas, de la misma región (cuando los niveles de región y zona están configurados). Si los niveles de región no están configurados, este recuento puede incluir datos enviados entre diferentes regiones. Para garantizar una monitorización precisa de los datos transmitidos, es importante definir una configuración de localidad coherente en todos los nodos. Ten en cuenta que esto no incluye el snapshot Raft enviado.
_Se muestra como byte_ | +| **cockroachdb.raft.storage.read_bytes.count**
(count) | Contador de raftpb.Entry.Size() leídos desde pebble para las entradas de logs Raft. Son los bytes devueltos por (raft.Storage). Método de entradas que no fueron devueltas a través de la caché de entradas Raft. Esta métrica más la métrica raft.entrycache.read_bytes representan el total de bytes devueltos por el método de entradas.
_Se muestra como byte_ | +| **cockroachdb.raft.ticks**
(count) | \[OpenMetrics v1\] Número de ticks Raft en cola| +| **cockroachdb.raft.ticks.count**
(count) | \[OpenMetrics v2\] Número de ticks Raft en cola| +| **cockroachdb.raft.timeoutcampaign.count**
(count) | Número de réplicas Raft en campaña tras la pérdida de latidos del líder| +| **cockroachdb.raft.transport.flow_token_dispatches_dropped.count**
(count) | Número de envíos de tokens de flujo descartados por el Raft Transport| +| **cockroachdb.raft.transport.rcvd.count**
(count) | Número de mensajes Raft recibidos por el Raft Transport| +| **cockroachdb.raft.transport.reverse_rcvd.count**
(count) | Mensajes recibidos desde la dirección inversa de un flujo. Estos mensajes deberían ser poco frecuentes. Son principalmente informativos, y no son respuestas reales a los mensajes Raft. Las respuestas se reciben a través de otro flujo.| +| **cockroachdb.raft.transport.reverse_sent.count**
(count) | Mensajes enviados en la dirección inversa de un flujo. Estos mensajes deberían ser poco frecuentes. Son principalmente informativos, y no son respuestas reales a los mensajes Raft. Las respuestas se envían a través de otro flujo.| +| **cockroachdb.raft.transport.send_queue_bytes**
(gauge) | Tamaño total en bytes de los mensajes salientes pendientes en la cola. La cola se compone de varios canales delimitados asociados a diferentes pares. Un tamaño superior a la línea de base media podría indicar problemas de transmisión de mensajes al menos a un par. Utiliza esta métrica junto con send-queue-size para tener una visión más completa.
_Se muestra como byte_ | +| **cockroachdb.raft.transport.send_queue_size**
(gauge) | Número de mensajes salientes pendientes en la cola de Raft Transport. La cola se compone de varios canales delimitados asociados a diferentes pares. El tamaño total de decenas de miles podría indicar problemas de transmisión de mensajes al menos a un par. Utiliza esta métrica junto con withsend-queue-bytes.| +| **cockroachdb.raft.transport.sends_dropped.count**
(count) | Número de envíos de mensajes Raft descartados por el Raft Transport| +| **cockroachdb.raft.transport.sent.count**
(count) | Número de mensajes Raft enviados por el Raft Transport| +| **cockroachdb.raftlog.behind**
(gauge) | \[OpenMetrics v1 y v2\] Un número de seguidores de entradas de logs Raft en otros almacenes están detrás
_Se muestra como entrada_ | +| **cockroachdb.raftlog.truncated**
(count) | \[OpenMetrics v1\] Número de entradas de logs Raft truncadas
_Se muestra como entrada_ | +| **cockroachdb.raftlog.truncated.count**
(count) | \[OpenMetrics v2\] Número de entradas de logs Raft truncadas
_Se muestra como entrada_ | +| **cockroachdb.range.adds**
(count) | \[OpenMetrics v1\] Número de adiciones de rangos| +| **cockroachdb.range.adds.count**
(count) | \[OpenMetrics v2\] Número de adiciones de rangos| +| **cockroachdb.range.merges.count**
(count) | Número de fusiones de rangos| +| **cockroachdb.range.raftleaderremovals.count**
(count) | Número de veces que el líder Raft actual fue eliminado de un rango| +| **cockroachdb.range.raftleadertransfers**
(count) | \[OpenMetrics v1\] Número de transferencias de líderes Raft| +| **cockroachdb.range.raftleadertransfers.count**
(count) | \[OpenMetrics v2\] Número de transferencias de líderes Raft| +| **cockroachdb.range.recoveries.count**
(count) | Recuento de operaciones de recuperación de pérdida de quórum sin conexión realizadas en rangos. Este recuento aumenta por cada rango recuperado en una operación de recuperación de pérdida de quórum sin conexión. La métrica se actualiza cuando el nodo en el que se encuentra la réplica superviviente se inicia tras la recuperación.| +| **cockroachdb.range.removes**
(count) | \[OpenMetrics v1\] Número de eliminaciones de rangos| +| **cockroachdb.range.removes.count**
(count) | \[OpenMetrics v2\] Número de eliminaciones de rangos| +| **cockroachdb.range.snapshots.applied_initial.count**
(count) | Número de snapshots aplicados para la replicación inicial| +| **cockroachdb.range.snapshots.applied_non_voter.count**
(count) | Número de snapshots aplicados por réplicas no votantes| +| **cockroachdb.range.snapshots.applied_voter.count**
(count) | Número de snapshots aplicados por las réplicas votantes| +| **cockroachdb.range.snapshots.cross_region.rcvd_bytes.count**
(count) | Número de bytes de snapshots recibidos entre regiones
_Se muestra como byte_ | +| **cockroachdb.range.snapshots.cross_region.sent_bytes.count**
(count) | Número de bytes de snapshots enviados entre regiones
_Se muestra como byte_ | +| **cockroachdb.range.snapshots.cross_zone.rcvd_bytes.count**
(count) | Número de bytes de snapshots recibidos entre zonas dentro de la misma región o si los niveles de región no están configurados. Este recuento aumenta por cada snapshot recibido entre zonas diferentes dentro de la misma región. Sin embargo, si los niveles de región no están configurados, este recuento también puede incluir datos de snapshots recibidos entre diferentes regiones.
_Se muestra como byte_ | +| **cockroachdb.range.snapshots.cross_zone.sent_bytes.count**
(count) | Número de bytes de snapshots enviados entre zonas dentro de la misma región o si los niveles de región no están configurados. Este recuento aumenta por cada snapshot enviado entre zonas diferentes dentro de la misma región. Sin embargo, si los niveles de región no están configurados, este recuento también puede incluir datos de snapshots enviados entre diferentes regiones.
_Se muestra como byte_ | +| **cockroachdb.range.snapshots.delegate.failures.count**
(count) | Número de snapshots delegados a un nodo diferente y que resultaron en un fallo en ese delegado. Existen numerosas razones por las que puede producirse un fallo en un delegado, como que se agote el tiempo de espera, que el log Raft delegado esté demasiado atrasado o que el delegado esté demasiado ocupado para enviar.| +| **cockroachdb.range.snapshots.delegate.in_progress**
(gauge) | Número de snapshots delegados que están actualmente en curso| +| **cockroachdb.range.snapshots.delegate.sent_bytes.count**
(count) | Bytes enviados mediante un delegado. El número de bytes enviados como resultado de una solicitud de snapshot delegado que se originó en un nodo diferente. Esta métrica es útil para evaluar el ahorro de red que supone no enviar tráfico entre regiones.
_Se muestra como byte_ | +| **cockroachdb.range.snapshots.delegate.successes.count**
(count) | Número de snapshots delegados a un nodo diferente y que fueron exitosas en ese delegado. No se tienen en cuenta los snapshots autodelegados.| +| **cockroachdb.range.snapshots.generated**
(count) | \[OpenMetrics v1\] Número de snapshots generados| +| **cockroachdb.range.snapshots.generated.count**
(count) | \[OpenMetrics v2\] Número de snapshots generados| +| **cockroachdb.range.snapshots.normal_applied**
(count) | \[OpenMetrics v1\] Número de snapshots aplicados| +| **cockroachdb.range.snapshots.normal_applied.count**
(count) | \[OpenMetrics v2\] Número de snapshots aplicados| +| **cockroachdb.range.snapshots.preemptive_applied**
(count) | \[OpenMetrics v1\] Número de snapshots preventivos aplicados| +| **cockroachdb.range.snapshots.preemptive_applied.count**
(count) | \[OpenMetrics v2\] Número de snapshots preventivos aplicados| +| **cockroachdb.range.snapshots.rcvd_bytes.count**
(count) | Número de bytes de snapshots recibidos
_Se muestra como byte_ | +| **cockroachdb.range.snapshots.rebalancing.rcvd_bytes.count**
(count) | Número de bytes de snapshots de rebalanceo recibidos
_Se muestra como byte_ | +| **cockroachdb.range.snapshots.rebalancing.sent_bytes.count**
(count) | Número de bytes de snapshots de rebalanceo enviados
_Se muestra como byte_ | +| **cockroachdb.range.snapshots.recovery.rcvd_bytes.count**
(count) | Número de bytes de snapshots de recuperación recibidos
_Se muestra como byte_ | +| **cockroachdb.range.snapshots.recovery.sent_bytes.count**
(count) | Número de bytes de snapshots de recuperación enviados
_Se muestra como byte_ | +| **cockroachdb.range.snapshots.recv_failed.count**
(count) | Número de mensajes de inicialización de snapshots de rangos que fallaron en el destinatario, normalmente antes de que se transfiera ningún dato| +| **cockroachdb.range.snapshots.recv_in_progress**
(gauge) | Número de snapshots no vacíos que se reciben| +| **cockroachdb.range.snapshots.recv_queue**
(gauge) | Número de snapshots en cola para recibir| +| **cockroachdb.range.snapshots.recv_queue_bytes**
(gauge) | Tamaño total de todos los snapshots en la cola de recepción de snapshots
_Se muestra como byte_ | +| **cockroachdb.range.snapshots.recv_total_in_progress**
(gauge) | Número total de snapshots recibidos| +| **cockroachdb.range.snapshots.recv_unusable.count**
(count) | Número de snapshots de rangos que se transmitieron en su totalidad pero se determinó que eran innecesarios o inutilizables| +| **cockroachdb.range.snapshots.send_in_progress**
(gauge) | Número de snapshots no vacíos que se envían| +| **cockroachdb.range.snapshots.send_queue**
(gauge) | Número de snapshots en cola para enviar| +| **cockroachdb.range.snapshots.send_queue_bytes**
(indicador) | Tamaño total de todos los snapshots en la cola de envío de snapshots
_Se muestra como byte_ | +| **cockroachdb.range.snapshots.send_total_in_progress**
(gauge) | Número total de snapshots enviados| +| **cockroachdb.range.snapshots.sent_bytes.count**
(count) | Número de bytes de snapshots enviados
_Se muestra como byte_ | +| **cockroachdb.range.snapshots.unknown.rcvd_bytes.count**
(count) | Número de bytes de snapshots desconocidos recibidos
_Se muestra como byte_ | +| **cockroachdb.range.snapshots.unknown.sent_bytes.count**
(count) | Número de bytes de snapshots desconocidos enviados
_Se muestra como byte_ | +| **cockroachdb.range.splits.count**
(count) | Número de divisiones de rangos| +| **cockroachdb.range.splits.total**
(count) | \[OpenMetrics v1\] Número de divisiones de rangos| +| **cockroachdb.range.splits.total.count**
(count) | \[OpenMetrics v2\] Número de divisiones de rangos| +| **cockroachdb.rangekeybytes**
(gauge) | Número de bytes ocupados por las claves de rango (por ejemplo, lápidas de rango MVCC)
_Se muestra como byte_ | +| **cockroachdb.rangekeycount**
(gauge) | Recuento de todas las claves de rango (por ejemplo, lápidas de rango MVCC)| +| **cockroachdb.ranges**
(gauge) | \[OpenMetrics v1 y v2\] Número de rangos| +| **cockroachdb.ranges.overreplicated**
(gauge) | \[OpenMetrics v1 y v2\] Número de rangos con más réplicas vivas que el objetivo de replicación| +| **cockroachdb.ranges.unavailable**
(gauge) | \[OpenMetrics v1 y v2\] Número de rangos con menos réplicas vivas de las necesarias para el quórum| +| **cockroachdb.ranges.underreplicated**
(calibre) | \[OpenMetrics v1 y v2\] Número de rangos con menos réplicas vivas que el objetivo de replicación| +| **cockroachdb.rangevalbytes**
(gauge) | Número de bytes ocupados por valores claves de rangos (por ejemplo, lápidas del rango MVCC)
_Se muestra como byte_ | +| **cockroachdb.rangevalcount**
(gauge) | Recuento de todos los valores clave de rangos (por ejemplo, lápidas del rango MVCC)| +| **cockroachdb.rebalancing.cpunanospersecond**
(gauge) | Promedio de nanosegundos de CPU dedicados a procesar operaciones de replicación en los últimos 30 minutos.
_Se muestra como nanosegundo_ | +| **cockroachdb.rebalancing.lease.transfers.count**
(count) | Número de transferencias de arrendatarios por desequilibrios de carga a nivel del almacén| +| **cockroachdb.rebalancing.queriespersecond**
(gauge) | Número de solicitudes a nivel de KV recibidas por segundo por el almacén, promediadas a lo largo de un periodo de tiempo amplio, tal y como se utiliza en las decisiones de rebalanceo| +| **cockroachdb.rebalancing.range.rebalances.count**
(count) | Número de operaciones de rebalanceo de rangos motivadas por desequilibrios de carga a nivel del almacén| +| **cockroachdb.rebalancing.readbytespersecond**
(indicador) | Número de bytes leídos recientemente por segundo, considerando los últimos 30 minutos.
_Se muestra como byte_ | +| **cockroachdb.rebalancing.readspersecond**
(gauge) | Número de claves leídas recientemente por segundo, considerando los últimos 30 minutos.| +| **cockroachdb.rebalancing.replicas.cpunanospersecond.bucket**
(count) | Histograma de la media de nanosegundos de CPU dedicados a procesar operaciones de replicación en los últimos 30 minutos.
_Se muestra como nanosegundo_ | +| **cockroachdb.rebalancing.replicas.cpunanospersecond.count**
(count) | Histograma de la media de nanosegundos de CPU dedicados a procesar operaciones de réplica en los últimos 30 minutos.
_Se muestra como nanosegundo_ | +| **cockroachdb.rebalancing.replicas.cpunanospersecond.sum**
(count) | Histograma de la media de nanosegundos de CPU dedicados a procesar operaciones de réplica en los últimos 30 minutos.
_Se muestra como nanosegundo_ | +| **cockroachdb.rebalancing.replicas.queriespersecond.bucket**
(count) | Histograma del promedio de solicitudes a nivel de KV recibidas por segundo por réplicas del almacén en los últimos 30 minutos.| +| **cockroachdb.rebalancing.replicas.queriespersecond.count**
(count) | Histograma del promedio de solicitudes a nivel de KV recibidas por segundo por réplicas del almacén en los últimos 30 minutos.| +| **cockroachdb.rebalancing.replicas.queriespersecond.sum**
(count) | Histograma del promedio de solicitudes a nivel de KV recibidas por segundo por réplicas del almacén en los últimos 30 minutos.| +| **cockroachdb.rebalancing.requestspersecond**
(gauge) | Número de solicitudes recibidas recientemente por segundo, considerando los últimos 30 minutos| +| **cockroachdb.rebalancing.state.imbalanced_overfull_options_exhausted.count**
(count) | Número de ocasiones en las que este almacén estuvo sobrecargado pero no consiguió eliminar la carga tras agotar las opciones de rebalanceo disponibles| +| **cockroachdb.rebalancing.writebytespersecond**
(gauge) | Número de bytes escritos recientemente por segundo, considerando los últimos 30 minutos.
_Se muestra como byte_ | +| **cockroachdb.rebalancing.writespersecond**
(gauge) | \[OpenMetrics v1 y v2\] Número de claves escritas (es decir, aplicadas por Raft) por segundo en el almacén, promediado durante un largo período de tiempo como se utiliza en las decisiones de rebalanceo
_Se muestra como clave_ | +| **cockroachdb.replicas**
(gauge) | Número de réplicas| +| **cockroachdb.replicas.commandqueue.combinedqueuesize**
(gauge) | \[OpenMetrics v1 y v2\] Número de comandos en todas las CommandQueues combinadas
_Se muestra como comando_ | +| **cockroachdb.replicas.commandqueue.combinedreadcount**
(gauge) | \[OpenMetrics v1 y v2\] Número de comandos de solo lectura en todas las CommandQueues combinadas
_Se muestra como comando_ | +| **cockroachdb.replicas.commandqueue.combinedwritecount**
(gauge) | \[OpenMetrics v1 y v2\] Número de comandos de lectura-escritura en todas las CommandQueues combinadas
_Se muestra como comando_ | +| **cockroachdb.replicas.commandqueue.maxoverlaps**
(gauge) | \[OpenMetrics v1 y v2\] Mayor número de comandos superpuestos vistos al añadir a cualquier CommandQueue
_Se muestra como comando_ | +| **cockroachdb.replicas.commandqueue.maxreadcount**
(gauge) | \[OpenMetrics v1 y v2\] Mayor número de comandos de solo lectura en cualquier CommandQueue
_Se muestra como comando_ | +| **cockroachdb.replicas.commandqueue.maxsize**
(gauge) | \[OpenMetrics v1 y v2\] Mayor número de comandos en cualquier CommandQueue
_Se muestra como comando_ | +| **cockroachdb.replicas.commandqueue.maxtreesize**
(gauge) | \[OpenMetrics v1 y v2\] Mayor número de intervalos en cualquier árbol de intervalos de CommandQueue| +| **cockroachdb.replicas.commandqueue.maxwritecount**
(gauge) | \[OpenMetrics v1 y v2\] Mayor número de comandos de lectura-escritura en cualquier CommandQueue
_Se muestra como comando_ | +| **cockroachdb.replicas.leaders**
(gauge) | \[OpenMetrics v1 y v2\] Número de líderes Raft| +| **cockroachdb.replicas.leaders.not_leaseholders**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas que son líderes Raft cuyo arrendamiento de rangos está en manos de otro almacén| +| **cockroachdb.replicas.leaders_invalid_lease**
(gauge) | Número de réplicas que son líderes Raft cuyo arrendamiento no es válido| +| **cockroachdb.replicas.leaders_not_leaseholders**
(gauge) | Número de réplicas que son líderes Raft cuyo arrendamiento de rangos está en manos de otro almacén| +| **cockroachdb.replicas.leaseholders**
(gauge) | \[OpenMetrics v1 y v2\] Número de arrendatarios| +| **cockroachdb.replicas.quiescent**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas en reposo| +| **cockroachdb.replicas.reserved**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas reservadas para snapshots| +| **cockroachdb.replicas.total**
(gauge) | \[OpenMetrics v1 y v2\] Número de réplicas| +| **cockroachdb.replicas.uninitialized**
(gauge) | Número de réplicas no inicializadas. No incluye las réplicas no inicializadas que pueden permanecer latentes en un estado persistente.| +| **cockroachdb.requests.backpressure.split**
(gauge) | \[OpenMetrics v1 y v2\] Número de escrituras con contrapresión a la espera en una división de rango| +| **cockroachdb.requests.slow.commandqueue**
(gauge) | \[OpenMetrics v1 y v2\] Número de solicitudes que llevan mucho tiempo atascadas en la cola de comandos
_Se muestra como solicitud_ | +| **cockroachdb.requests.slow.distsender**
(gauge) | \[OpenMetrics v1 y v2\] Número de solicitudes que llevan mucho tiempo atascadas en la cola de comandos
_Se muestra como solicitud_ | +| **cockroachdb.requests.slow.latch**
(indicador) | Número de solicitudes que han estado atascadas durante mucho tiempo adquiriendo latches. Los latches moderan el acceso al espacio de claves KV con el fin de evaluar y replicar comandos. Un intento lento de adquisición de latches suele deberse a que otra solicitud retiene y no libera sus latches a tiempo.| +| **cockroachdb.requests.slow.lease**
(gauge) | \[OpenMetrics v1 y v2\] Número de solicitudes que llevan mucho tiempo atascadas adquiriendo un arrendamiento
_Se muestra como solicitud_ | +| **cockroachdb.requests.slow.raft**
(indicador) | \[OpenMetrics v1 y v2\] Número de solicitudes que llevan mucho tiempo atascadas en Raft
_Se muestra como solicitud_ | +| **cockroachdb.rocksdb.block.cache.hits**
(gauge) | \[OpenMetrics v1 y v2\] Recuento de accesos a la caché de bloques| +| **cockroachdb.rocksdb.block.cache.misses**
(gauge) | \[OpenMetrics v1 y v2\] Recuento de fallos en la caché de bloques| +| **cockroachdb.rocksdb.block.cache.pinned.usage**
(gauge) | \[OpenMetrics v1 y v2\] Bytes fijados por la caché de bloques
_Se muestra como byte_ | +| **cockroachdb.rocksdb.block.cache.usage**
(gauge) | \[OpenMetrics v1 y v2\] Bytes utilizados por la caché de bloques
_Se muestra como byte_ | +| **cockroachdb.rocksdb.bloom.filter.prefix.checked**
(gauge) | Número de veces que se comprobó el filtro de Bloom| +| **cockroachdb.rocksdb.bloom.filter.prefix.useful**
(gauge) | Número de veces que el filtro de Bloom ayudó a evitar la creación de iteradores| +| **cockroachdb.rocksdb.bloom_filter.prefix.checked**
(indicador) | \[OpenMetrics v1 y v2\] Número de veces que se comprobó el filtro de Bloom| +| **cockroachdb.rocksdb.bloom_filter.prefix.useful**
(gauge) | \[OpenMetrics v1 y v2\] Número de veces que el filtro de Bloom ayudó a evitar la creación de iteradores| +| **cockroachdb.rocksdb.compacted_bytes_read**
(gauge) | Bytes leídos durante la compactación
_Se muestra como byte_ | +| **cockroachdb.rocksdb.compacted_bytes_written**
(gauge) | Bytes escritos durante la compactación
_Se muestra como byte_ | +| **cockroachdb.rocksdb.compactions**
(gauge) | Número de compactaciones de tablas| +| **cockroachdb.rocksdb.compactions.total**
(gauge) | \[OpenMetrics v1 y v2\] Número de compactaciones de tablas| +| **cockroachdb.rocksdb.encryption.algorithm**
(gauge) | Algoritmo utilizado para el cifrado en reposo, consulta ccl/storageccl/engineccl/enginepbccl/key_registry.proto| +| **cockroachdb.rocksdb.estimated_pending_compaction**
(gauge) | Bytes de compactación pendientes estimados
_Se muestra como byte_ | +| **cockroachdb.rocksdb.flushed_bytes**
(gauge) | Bytes escritos durante la descarga
_Se muestra como byte_ | +| **cockroachdb.rocksdb.flushes**
(gauge) | Número de descargas de tablas| +| **cockroachdb.rocksdb.flushes.total**
(gauge) | \[OpenMetrics v1 y v2\] Número de descargas de tablas| +| **cockroachdb.rocksdb.ingested_bytes**
(indicador) | Bytes ingeridos
_Se muestra como byte_ | +| **cockroachdb.rocksdb.memtable.total.size**
(gauge) | \[OpenMetrics v1 y v2\] Tamaño actual de la memtable en bytes
_Se muestra como byte_ | +| **cockroachdb.rocksdb.num_sstables**
(gauge) | \[OpenMetrics v1 y v2\] Número de SSTables rocksdb
_Se muestra como tabla_ | +| **cockroachdb.rocksdb.read.amplification**
(gauge) | \[OpenMetrics v1 y v2\] Número de lecturas de disco por consulta
_Se muestra como lectura_ | +| **cockroachdb.rocksdb.table.readers.mem.estimate**
(gauge) | \[OpenMetrics v1 y v2\] Memoria utilizada por los bloques de índice y filtro| +| **cockroachdb.round_trip.latency**
(gauge) | \[OpenMetrics v1\] Distribución de latencias de ida y vuelta con otros nodos en nanosegundos
_Se muestra como nanosegundo_ | +| **cockroachdb.round_trip.latency.bucket**
(count) | \[OpenMetrics v2\] Distribución de latencias de ida y vuelta con otros nodos en nanosegundos
_Se muestra como nanosegundo_ | +| **cockroachdb.round_trip.latency.count**
(count) | \[OpenMetrics v2\] Distribución de latencias de ida y vuelta con otros nodos en nanosegundos
_Se muestra como nanosegundo_ | +| **cockroachdb.round_trip.latency.sum**
(count) | \[OpenMetrics v2\] Distribución de latencias de ida y vuelta con otros nodos en nanosegundos
_Se muestra como nanosegundo_ | +| **cockroachdb.round_trip_latency.bucket**
(count) | Distribución de latencias de ida y vuelta con otros nodos. Solo refleja los latidos exitosos y mide la sobrecarga de gRPC, así como posibles bloqueos de cabecera. Los valores elevados de esta métrica pueden indicar problemas o saturación de la red, pero no son prueba de ello. La sobrecarga de la CPU también puede elevar esta métrica
_Se muestra como nanosegundo_ | +| **cockroachdb.round_trip_latency.count**
(count) | Distribución de latencias de ida y vuelta con otros nodos. Solo refleja los latidos exitosos y mide la sobrecarga de gRPC, así como posibles bloqueos de cabecera. Los valores elevados de esta métrica pueden indicar problemas o saturación de la red, pero no son prueba de ello. La sobrecarga de la CPU también puede elevar esta métrica
_Se muestra como nanosegundo_ | +| **cockroachdb.round_trip_latency.sum**
(count) | Distribución de latencias de ida y vuelta con otros nodos. Solo refleja los latidos exitosos y mide la sobrecarga de gRPC, así como posibles bloqueos de cabecera. Los valores elevados de esta métrica pueden indicar problemas o saturación de la red, pero no son prueba de ello. La sobrecarga de la CPU también puede elevar esta métrica
_Se muestra como nanosegundo_ | +| **cockroachdb.rpc.batches.recv.count**
(count) | Número de lotes procesados| +| **cockroachdb.rpc.connection.avg_round_trip_latency**
(gauge) | Suma de la media móvil exponencialmente ponderada de las latencias de ida y vuelta, medidas a través de una RPC gRPC. Al dividir este indicador por rpc.connection.healthy se obtiene una aproximación de la latencia media, pero el histograma de latencias de ida y vuelta de nivel superior es más útil. En su lugar, los usuarios deberían consultar las familias de etiquetas de esta métrica si están disponibles.
_Se muestra como nanosegundo_ | +| **cockroachdb.rpc.connection.failures.count**
(count) | Contador de conexiones fallidas. Esto incluye tanto el evento en el que una conexión saludable termina, como los intentos fallidos de reconexión. Se excluyen las conexiones que se terminan como parte del cierre de nodos locales. Se excluyen los pares dados de baja.| +| **cockroachdb.rpc.connection.healthy**
(gauge) | Medición de las conexiones actuales en un estado saludable (es decir, conectadas bidireccionalmente y latiendo)| +| **cockroachdb.rpc.connection.healthy_nanos**
(gauge) | Indicador de nanosegundos de tiempo de conexión saludable. En el endpoint de Prometheus con la configuración de clúster 'server.child_metrics.enabled', las partes constitutivas de esta métrica están disponibles por par y se puede leer el tiempo de conexión de un par concreto
_Se muestra como nanosegundo_. | +| **cockroachdb.rpc.connection.heartbeats.count**
(count) | Contador de latidos exitosos| +| **cockroachdb.rpc.connection.inactive**
(gauge) | Indicador de las conexiones actuales en estado inactivo y pendientes de eliminación. No son saludables, pero tampoco se rastrean como no saludables, ya que hay motivos para creer que la conexión ya no es relevante, por ejemplo, si desde entonces el nodo se ve con una nueva dirección.| +| **cockroachdb.rpc.connection.unhealthy**
(gauge) | Indicador de conexiones actuales en estado no saludable (no conectadas bidireccionalmente o latiendo)| +| **cockroachdb.rpc.connection (conexión).unhealthy_nanos**
(calibre) | Indicador de nanosegundos del tiempo de conexión no saludable. En el endpoint de Prometheus con la configuración de clúster 'server.child_metrics.enabled', las partes constitutivas de esta métrica están disponibles por par y se puede leer el tiempo que un par determinado ha permanecido inaccesible
_Se muestra como nanosegundo_ | +| **cockroachdb.rpc.method.addsstable.recv.count**
(count) | Número de solicitudes AddSSTable procesadas| +| **cockroachdb.rpc.method.adminchangereplicas.recv.count**
(count) | Número de solicitudes AdminChangeReplicas procesadas| +| **cockroachdb.rpc.method.adminmerge.recv.count**
(count) | Número de solicitudes AdminMerge procesadas| +| **cockroachdb.rpc.method.adminrelocaterange.recv.count**
(count) | Número de solicitudes AdminRelocateRange procesadas| +| **cockroachdb.rpc.method.adminscatter.recv.count**
(count) | Número de solicitudes AdminScatter procesadas| +| **cockroachdb.rpc.method.adminsplit.recv.count**
(count) | Número de solicitudes AdminSplit procesadas| +| **cockroachdb.rpc.method.admintransferlease.recv.count**
(count) | Número de solicitudes AdminTransferLease procesadas| +| **cockroachdb.rpc.method.adminunsplit.recv.count**
(count) | Número de solicitudes AdminUnsplit procesadas| +| **cockroachdb.rpc.method.adminverifyprotectedtimestamp.recv.count**
(count) | Número de solicitudes AdminVerifyProtectedTimestamp procesadas| +| **cockroachdb.rpc.method.barrier.recv.count**
(count) | Número de solicitudes Barrier procesadas| +| **cockroachdb.rpc.method.checkconsistency.recv.count**
(count) | Número de solicitudes CheckConsistency procesadas| +| **cockroachdb.rpc.method.clearrange.recv.count**
(count) | Número de solicitudes ClearRange procesadas| +| **cockroachdb.rpc.method.computechecksum.recv.count**
(count) | Número de solicitudes ComputeChecksum procesadas| +| **cockroachdb.rpc.method.conditionalput.recv.count**
(count) | Número de solicitudes ConditionalPut procesadas| +| **cockroachdb.rpc.method.delete.recv.count**
(count) | Número de solicitudes Delete procesadas| +| **cockroachdb.rpc.method.deleterange.recv.count**
(count) | Número de solicitudes DeleteRange procesadas| +| **cockroachdb.rpc.method.endtxn.recv.count**
(count) | Número de solicitudes EndTxn procesadas| +| **cockroachdb.rpc.method.export.recv.count**
(count) | Número de solicitudes Export procesadas| +| **cockroachdb.rpc.method.gc.recv.count**
(count) | Número de solicitudes GC procesadas| +| **cockroachdb.rpc.method.get.recv.count**
(count) | Número de solicitudes Get procesadas| +| **cockroachdb.rpc.method.heartbeattxn.recv.count**
(count) | Número de solicitudes HeartbeatTxn procesadas| +| **cockroachdb.rpc.method.increment.recv.count**
(count) | Número de solicitudes Increment procesadas| +| **cockroachdb.rpc.method.initput.recv.count**
(count) | Número de solicitudes InitPut procesadas| +| **cockroachdb.rpc.method.isspanempty.recv.count**
(count) | Número de solicitudes IsSpanEmpty procesadas| +| **cockroachdb.rpc.method.leaseinfo.recv.count**
(count) | Número de solicitudes LeaseInfo procesadas| +| **cockroachdb.rpc.method.merge.recv.count**
(count) | Número de solicitudes Merge procesadas| +| **cockroachdb.rpc.method.migrate.recv.count**
(count) | Número de solicitudes Migrate procesadas| +| **cockroachdb.rpc.method.probe.recv.count**
(count) | Número de solicitudes Probe procesadas| +| **cockroachdb.rpc.method.pushtxn.recv.count**
(count) | Número de solicitudes PushTxn procesadas| +| **cockroachdb.rpc.method.put.recv.count**
(count) | Número de solicitudes Put procesadas| +| **cockroachdb.rpc.method.queryintent.recv.count**
(count) | Número de solicitudes QueryIntent procesadas| +| **cockroachdb.rpc.method.querylocks.recv.count**
(count) | Número de solicitudes QueryLocks procesadas| +| **cockroachdb.rpc.method.queryresolvedtimestamp.recv.count**
(count) | Número de solicitudes QueryResolvedTimestamp procesadas| +| **cockroachdb.rpc.method.querytxn.recv.count**
(count) | Número de solicitudes QueryTxn procesadas| +| **cockroachdb.rpc.method.rangestats.recv.count**
(count) | Número de solicitudes RangeStats procesadas| +| **cockroachdb.rpc.method.recomputestats.recv.count**
(count) | Número de solicitudes RecomputeStats procesadas| +| **cockroachdb.rpc.method.recovertxn.recv.count**
(count) | Número de solicitudes RecoverTxn procesadas| +| **cockroachdb.rpc.method.refresh.recv.count**
(count) | Número de solicitudes Refresh tramitadas| +| **cockroachdb.rpc.method.refreshrange.recv.count**
(count) | Número de solicitudes RefreshRange procesadas| +| **cockroachdb.rpc.method.requestlease.recv.count**
(count) | Número de solicitudes RequestLease procesadas| +| **cockroachdb.rpc.method.resolveintent.recv.count**
(count) | Número de solicitudes ResolveIntent procesadas| +| **cockroachdb.rpc.method.resolveintentrange.recv.count**
(count) | Número de solicitudes ResolveIntentRange procesadas| +| **cockroachdb.rpc.method.reversescan.recv.count**
(count) | Número de solicitudes ReverseScan procesadas| +| **cockroachdb.rpc.method.revertrange.recv.count**
(count) | Número de solicitudes RevertRange procesadas| +| **cockroachdb.rpc.method.scan.recv.count**
(count) | Número de solicitudes Scan procesadas| +| **cockroachdb.rpc.method.subsume.recv.count**
(count) | Número de solicitudes Subsume procesadas| +| **cockroachdb.rpc.method.transferlease.recv.count**
(count) | Número de solicitudes TransferLease procesadas| +| **cockroachdb.rpc.method.truncatelog.recv.count**
(count) | Número de solicitudes TruncateLog procesadas| +| **cockroachdb.rpc.method.writebatch.recv.count**
(count) | Número de solicitudes WriteBatch procesadas| +| **cockroachdb.rpc.streams.mux_rangefeed.active**
(gauge) | Número de flujos MuxRangeFeed actualmente en ejecución| +| **cockroachdb.rpc.streams.mux_rangefeed.recv.count**
(count) | Número total de flujos MuxRangeFeed| +| **cockroachdb.rpc.streams.rangefeed.active**
(gauge) | Número de flujos RangeFeed que se están ejecutando actualmente| +| **cockroachdb.rpc.streams.rangefeed.recv.count**
(count) | Número total de flujos RangeFeed| +| **cockroachdb.schedules.BACKUP.failed.count**
(count) | Número de trabajos de BACKUP fallidos| +| **cockroachdb.schedules.BACKUP.last_completed_time**
(indicador) | Marca de tiempo Unix de la copia de seguridad más reciente realizada por un programa especificado para mantener esta métrica| +| **cockroachdb.schedules.BACKUP.protected_age_sec**
(gauge) | Antigüedad del registro PTS más antiguo protegido por programas de BACKUP
_Se muestra como segundo_ | +| **cockroachdb.schedules.BACKUP.protected_record_count**
(gauge) | Número de registros PTS mantenidos por programas de BACKUP| +| **cockroachdb.schedules.BACKUP.started.count**
(count) | Número de trabajos de BACKUP iniciados| +| **cockroachdb.schedules.BACKUP.succeeded.count**
(count) | Número de trabajos de BACKUP exitosos| +| **cockroachdb.schedules.CHANGEFEED.failed.count**
(count) | Número de trabajos de CHANGEFEED fallidos| +| **cockroachdb.schedules.CHANGEFEED.started.count**
(count) | Número de trabajos de CHANGEFEED iniciados| +| **cockroachdb.schedules.CHANGEFEED.succeeded.count**
(count) | Número de trabajos de CHANGEFEED exitosos| +| **cockroachdb.schedules.backup.failed**
(count) | \[OpenMetrics v1\] Número de copias de seguridad programadas fallidas| +| **cockroachdb.schedules.backup.failed.count**
(count) | \[OpenMetrics v2\] Número de copias de seguridad programadas fallidas| +| **cockroachdb.schedules.backup.last_completed_time**
(gauge) | \[OpenMetrics v1 y v2\] Marca de tiempo Unix de la copia de seguridad más reciente realizada por un programa especificado para mantener esta métrica
_Se muestra como segundo_ | +| **cockroachdb.schedules.backup.started**
(count) | \[OpenMetrics v1\] Número de trabajos de copia de seguridad programados iniciados| +| **cockroachdb.schedules.backup.started.count**
(count) | \[OpenMetrics v2\] Número de trabajos de copia de seguridad programados iniciados| +| **cockroachdb.schedules.backup.succeeded**
(count) | \[OpenMetrics v1\] Número de trabajos de copia de seguridad programados exitosos| +| **cockroachdb.schedules.backup.succeeded.count**
(count) | \[OpenMetrics v2\] Número de trabajos de copia de seguridad programados exitosos| +| **cockroachdb.schedules.error**
(gauge) | Número de programas que no se ejecutaron con éxito| +| **cockroachdb.schedules.malformed**
(gauge) | Número de programas malformados| +| **cockroachdb.schedules.round.jobs_started**
(gauge) | Número de trabajos iniciados| +| **cockroachdb.schedules.round.reschedule_skip**
(gauge) | Número de programas reprogramados debido a la política SKIP| +| **cockroachdb.schedules.round.reschedule_wait**
(gauge) | Número de programas reprogramados debido a la política WAIT| +| **cockroachdb.schedules.scheduled.row.level.ttl.executor_failed.count**
(count) | Número de trabajos row-level-ttl-executor programados fallidos| +| **cockroachdb.schedules.scheduled_row_level_ttl_executor.failed.count**
(count) | Número de trabajos row-level-ttl-executor programados fallidos| +| **cockroachdb.schedules.scheduled_row_level_ttl_executor.started.count**
(count) | Número de trabajos row-level-ttl-executor programados iniciados| +| **cockroachdb.schedules.scheduled_row_level_ttl_executor.succeeded.count**
(count) | Número de trabajos row-level-ttl-executor programados exitosos| +| **cockroachdb.schedules.scheduled_schema_telemetry_executor.failed.count**
(count) | Número de trabajos schema-telemetry-executor programados fallidos| +| **cockroachdb.schedules.scheduled_schema_telemetry_executor.started.count**
(count) | Número de trabajos schema-telemetry-executor programados iniciados| +| **cockroachdb.schedules.scheduled_schema_telemetry_executor.succeeded.count**
(count) | Número de trabajos schema-telemetry-executor programados exitosos| +| **cockroachdb.schedules.scheduled_sql_stats_compaction_executor.failed.count**
(count) | Número de trabajos sql-stats-compaction-executor fallidos| +| **cockroachdb.schedules.scheduled_sql_stats_compaction_executor.started.count**
(count) | Número de trabajos sql-stats-compaction-executor programados iniciados| +| **cockroachdb.schedules.scheduled_sql_stats_compaction_executor.succeeded.count**
(count) | Número de trabajos sql-stats-compaction-executor programados exitosos| +| **cockroachdb.seconds.until.enterprise.license.expiry**
(gauge) | Segundos hasta que caduque la licencia de empresa (0 si no hay licencia o se ejecuta sin funciones de empresa)| +| **cockroachdb.seconds_until_enterprise_license_expiry**
(gauge) | Segundos hasta que caduque la licencia de empresa (0 si no hay licencia o se ejecuta sin funciones de empresa)
_Se muestra como segundo_ | +| **cockroachdb.security.certificate.expiration.ca**
(gauge) | Caducidad del certificado de la CA. 0 significa que no hay certificado o error.| +| **cockroachdb.security.certificate.expiration.ca_client_tenant**
(gauge) | Caducidad del certificado de la CA del cliente arrendatario. 0 significa que no hay certificado o error.| +| **cockroachdb.security.certificate.expiration.client**
(gauge) | Caducidad mínima de los certificados del cliente, etiquetados por el usuario SQL. 0 significa que no hay certificado o error.| +| **cockroachdb.security.certificate.expiration.client_ca**
(gauge) | Caducidad del certificado de la CA del cliente. 0 significa que no hay certificado o error.| +| **cockroachdb.security.certificate.expiration.client_tenant**
(gauge) | Caducidad del certificado del cliente arrendatario. 0 significa que no hay certificado o error.| +| **cockroachdb.security.certificate.expiration.node**
(gauge) | Caducidad del certificado del nodo. 0 significa que no hay certificado o error.| +| **cockroachdb.security.certificate.expiration.node_client**
(gauge) | Caducidad del certificado de cliente del nodo. 0 significa que no hay certificado o error.| +| **cockroachdb.security.certificate.expiration.ui**
(gauge) | Caducidad del certificado de la interfaz de usuario. 0 significa que no hay certificado o error.| +| **cockroachdb.security.certificate.expiration.ui_ca**
(gauge) | Caducidad del certificado de la CA de la interfaz de usuario. 0 significa que no hay certificado o error.| +| **cockroachdb.security.certificate_expiration.ca**
(gauge) | Caducidad del certificado de la CA. 0 significa que no hay certificado o error.| +| **cockroachdb.security.certificate_expiration.client_ca**
(gauge) | Caducidad del certificado de la CA del cliente. 0 significa que no hay certificado o error.| +| **cockroachdb.security.certificate_expiration.node**
(gauge) | Caducidad del certificado del nodo. 0 significa que no hay certificado o error.| +| **cockroachdb.security.certificate_expiration.node_client**
(gauge) | Caducidad del certificado del cliente del nodo. 0 significa que no hay certificado o error.| +| **cockroachdb.security.certificate_expiration.ui**
(gauge) | Caducidad del certificado de la interfaz de usuario. 0 significa que no hay certificado o error.| +| **cockroachdb.security.certificate_expiration.ui_ca**
(gauge) | Caducidad del certificado de la CA de la interfaz de usuario. 0 significa que no hay certificado o error.| +| **cockroachdb.spanconfig.kvsubscriber.oldest_protected_record_nanos**
(gauge) | Diferencia entre la hora actual y la marca de tiempo protegida más antigua (las caídas repentinas indican que se está liberando un registro y un número cada vez mayor indica que el registro más antiguo está cerca e impide GC si > el TTL de GC configurado)
_Se muestra como nanosegundo_ | +| **cockroachdb.spanconfig.kvsubscriber.protected_record_count**
(gauge) | Número de registros de marca de tiempo protegidos, vistos por KV| +| **cockroachdb.spanconfig.kvsubscriber.update_behind_nanos**
(gauge) | Diferencia entre la hora actual y el momento en que el KVSubscriber recibió su última actualización (un número creciente indica que ya no estamos recibiendo actualizaciones)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.bytesin**
(count) | \[OpenMetrics v1\] Número de bytes SQL recibidos
_Se muestra como byte_ | +| **cockroachdb.sql.bytesin.count**
(count) | \[OpenMetrics v2\] Número de bytes SQL recibidos
_Se muestra como byte_ | +| **cockroachdb.sql.bytesout**
(count) | \[OpenMetrics v1\] Número de bytes SQL enviados
_Se muestra como byte_ | +| **cockroachdb.sql.bytesout.count**
(count) | \[OpenMetrics v2\] Número de bytes SQL enviados
_Se muestra como byte_ | +| **cockroachdb.sql.conn.failures.count**
(count) | Número de fallos de conexión SQL | +| **cockroachdb.sql.conn.latency**
(gauge) | \[OpenMetrics v1\] Latencia para establecer y autenticar una conexión SQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.conn.latency.bucket**
(count) | \[OpenMetrics v2\] Latencia para establecer y autenticar una conexión SQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.conn.latency.count**
(count) | \[OpenMetrics v2\] Latencia para establecer y autenticar una conexión SQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.conn.latency.sum**
(count) | \[OpenMetrics v2\] Latencia para establecer y autenticar una conexión SQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.conns**
(gauge) | \[OpenMetrics v1y v2\] Número de conexiones SQL activas
_Se muestra como conexión_ | +| **cockroachdb.sql.conns_waiting_to_hash**
(gauge) | Número de intentos de conexión SQL que se están restringiendo para limitar la concurrencia de hash de contraseñas| +| **cockroachdb.sql.contention.resolver.failed_resolutions.count**
(count) | Número de intentos fallidos de resolución de ID de transacción| +| **cockroachdb.sql.contention.resolver.queue_size**
(gauge) | Duración de los eventos de contención no resueltos en cola| +| **cockroachdb.sql.contention.resolver.retries.count**
(count) | Número de veces que se reintentó la resolución del ID de transacción| +| **cockroachdb.sql.contention.txn_id_cache.miss.count**
(count) | Número de fallos de caché| +| **cockroachdb.sql.contention.txn_id_cache.read.count**
(count) | Número de lecturas de caché| +| **cockroachdb.sql.copy.count**
(count) | Número de sentencias COPY SQL ejecutadas con éxito| +| **cockroachdb.sql.copy.internal.count**
(count) | Número de sentencias COPY SQL ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.copy.nonatomic.count**
(count) | Número de sentencias COPY SQL no atómicas ejecutadas con éxito| +| **cockroachdb.sql.copy.nonatomic.internal.count**
(count) | Número de sentencias SQL COPY no atómicas ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.copy.nonatomic.started.count**
(count) | Número de sentencias COPY SQL no atómicas iniciadas| +| **cockroachdb.sql.copy.nonatomic.started.internal.count**
(count) | Número de sentencias COPY SQL no atómicas iniciadas (consultas internas)| +| **cockroachdb.sql.copy.started.count**
(count) | Número de sentencias COPY SQL iniciadas| +| **cockroachdb.sql.copy.started.internal.count**
(count) | Número de sentencias COPY SQL iniciadas (consultas internas)| +| **cockroachdb.sql.ddl.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias DDL SQL| +| **cockroachdb.sql.ddl.internal.count**
(count) | Número de sentencias DDL SQL ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.ddl.started.count**
(count) | Número de sentencias DDL SQL iniciadas| +| **cockroachdb.sql.ddl.started.internal.count**
(count) | Número de sentencias DDL SQL iniciadas (consultas internas)| +| **cockroachdb.sql.delete.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias DELETE SQL| +| **cockroachdb.sql.delete.internal.count**
(count) | Número de sentencias DELETE SQL ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.delete.started.count**
(count) | Número de sentencias DELETE SQL iniciadas| +| **cockroachdb.sql.delete.started.internal.count**
(count) | Número de sentencias DELETE SQL iniciadas (consultas internas)| +| **cockroachdb.sql.disk.distsql.current**
(gauge) | Uso actual del disco de sentencias SQL para DistSQL
_Se muestra como byte_ | +| **cockroachdb.sql.disk.distsql.max.bucket**
(count) | Uso de disco por sentencia SQL para DistSQL
_Se muestra como byte_ | +| **cockroachdb.sql.disk.distsql.max.count**
(count) | Uso de disco por sentencia SQL para DistSQL
_Se muestra como byte_ | +| **cockroachdb.sql.disk.distsql.max.sum**
(count) | Uso de disco por sentencia SQL para DistSQL
_Se muestra como byte_ | +| **cockroachdb.sql.disk.distsql.spilled.bytes.read.count**
(count) | Número de bytes leídos del almacenamiento temporal en disco como resultado del desbordamiento
_Se muestra como byte_ | +| **cockroachdb.sql.disk.distsql.spilled.bytes.written.count**
(count) | Número de bytes escritos en el almacenamiento temporal en disco como resultado del desbordamiento
_Se muestra como byte_ | +| **cockroachdb.sql.distsql.contended.queries**
(count) | \[OpenMetrics v1\] Número de consultas SQL que experimentaron contención| +| **cockroachdb.sql.distsql.contended.queries.count**
(count) | \[OpenMetrics v2\] Número de consultas SQL que experimentaron contención| +| **cockroachdb.sql.distsql.contended_queries.count**
(count) | Número de consultas SQL que experimentaron contención| +| **cockroachdb.sql.distsql.dist_query_rerun_locally.count**
(count) | Número total de casos en los que un error de una consulta distribuida dio lugar a una nueva ejecución local| +| **cockroachdb.sql.distsql.dist_query_rerun_locally.failure_count.count**
(count) | Número total de casos en los que la nueva ejecución local de una consulta distribuida dio lugar a un error| +| **cockroachdb.sql.distsql.exec.latency**
(gauge) | \[OpenMetrics v1\] Latencia en nanosegundos de ejecución de sentencias DistSQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.distsql.exec.latency.bucket**
(count) | Latencia de ejecución de sentencias DistSQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.distsql.exec.latency.count**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de sentencias DistSQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.distsql.exec.latency.internal.bucket**
(count) | Latencia de ejecución de sentencias DistSQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.distsql.exec.latency.internal.count**
(count) | Latencia de ejecución de sentencias DistSQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.distsql.exec.latency.internal.sum**
(count) | Latencia de ejecución de sentencias DistSQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.distsql.exec.latency.sum**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de sentencias DistSQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.distsql.flows.active**
(gauge) | \[OpenMetrics v1 y v2\] Número de flujos SQL distribuidos actualmente activos| +| **cockroachdb.sql.distsql.flows.count**
(count) | \[OpenMetrics v2\] Número de flujos SQL distribuidos ejecutados| +| **cockroachdb.sql.distsql.flows.total**
(count) | \[OpenMetrics v1\] Número de flujos SQL distribuidos ejecutados| +| **cockroachdb.sql.distsql.flows.total.count**
(count) | Número de flujos SQL distribuidos ejecutados| +| **cockroachdb.sql.distsql.queries.active**
(gauge) | \[OpenMetrics v1 y v2\] Número de consultas SQL distribuidas actualmente activas| +| **cockroachdb.sql.distsql.queries.count**
(count) | \[OpenMetrics v2\] Número de consultas SQL distribuidas ejecutadas| +| **cockroachdb.sql.distsql.queries.spilled.count**
(count) | Número de consultas que se desbordaron al disco| +| **cockroachdb.sql.distsql.queries.total**
(count) | \[OpenMetrics v1\] Número de consultas SQL distribuidas ejecutadas| +| **cockroachdb.sql.distsql.select.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias SELECT DistSQL| +| **cockroachdb.sql.distsql.select.internal.count**
(count) | Número de sentencias SELECT DistSQL (consultas internas)| +| **cockroachdb.sql.distsql.service.latency**
(gauge) | \[OpenMetrics v1\] Latencia en nanosegundos de ejecución de solicitudes DistSQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.distsql.service.latency.bucket**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de solicitudes DistSQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.distsql.service.latency.count**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de solicitudes DistSQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.distsql.service.latency.internal**
(count) | Latencia de ejecución de solicitudes DistSQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.distsql.service.latency.internal.bucket**
(count) | Latencia de ejecución de solicitudes DistSQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.distsql.service.latency.internal.count**
(count) | Latencia de ejecución de solicitudes DistSQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.distsql.service.latency.internal.sum**
(count) | Latencia de ejecución de solicitudes DistSQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.distsql.service.latency.sum**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de solicitudes DistSQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.distsql.vec.openfds**
(gauge) | Número actual de descriptores de archivos abiertos utilizados por el almacenamiento externo vectorizado| +| **cockroachdb.sql.exec.latency**
(gauge) | \[OpenMetrics v1\] Latencia en nanosegundos de ejecución de sentencias SQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.exec.latency.bucket**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de sentencias SQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.exec.latency.count**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de sentencias SQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.exec.latency.internal**
(count) | Latencia de ejecución de sentencias SQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.exec.latency.internal.bucket**
(count) | Latencia de ejecución de sentencias SQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.exec.latency.internal.count**
(count) | Latencia de ejecución de sentencias SQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.exec.latency.internal.sum**
(count) | Latencia de ejecución de sentencias SQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.exec.latency.sum**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de sentencias SQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.failure**
(count) | \[OpenMetrics v1\] Número de sentencias que dan lugar a un error de planificación o de tiempo de ejecución| +| **cockroachdb.sql.failure.count**
(count) | \[OpenMetrics v2\] Número de sentencias que dan lugar a un error de planificación o de tiempo de ejecución| +| **cockroachdb.sql.failure.internal.count**
(count) | Número de sentencias que dan lugar a un error de planificación o de tiempo de ejecución (consultas internas)| +| **cockroachdb.sql.feature_flag_denial.count**
(count) | Contador del número de sentencias denegadas por un indicador de características| +| **cockroachdb.sql.full.scan**
(count) | \[OpenMetrics v1\] Número de análisis completos de tablas o índices| +| **cockroachdb.sql.full.scan.count**
(count) | \[OpenMetrics v2\] Número de análisis completos de tablas o índices| +| **cockroachdb.sql.full.scan.internal.count**
(count) | Número de análisis completos de tablas o índices (consultas internas)| +| **cockroachdb.sql.guardrails.full_scan_rejected.count**
(count) | Número de análisis completos de tablas o índices rechazados debido a guardarrails `disallow_full_table_scans`| +| **cockroachdb.sql.guardrails.full_scan_rejected.internal.count**
(count) | Número de análisis completos de tablas o índices rechazados debido a guardarrails `disallow_full_table_scans` (consultas internas)| +| **cockroachdb.sql.guardrails.max_row_size_err.count**
(count) | Número de filas observadas que violan sql.guardrails.max_row_size_err| +| **cockroachdb.sql.guardrails.max_row_size_err.internal.count**
(count) | Número de filas observadas que violan sql.guardrails.max_row_size_err (consultas internas)| +| **cockroachdb.sql.guardrails.max_row_size_log.count**
(count) | Número de filas observadas que violan sql.guardrails.max_row_size_log| +| **cockroachdb.sql.guardrails.max_row_size_log.internal.count**
(count) | Número de filas observadas que violan sql.guardrails.max_row_size_log (consultas internas)| +| **cockroachdb.sql.guardrails.transaction_rows_read_err.count**
(count) | Número de transacciones con error debido a guardarrails transaction_rows_read_err| +| **cockroachdb.sql.guardrails.transaction_rows_read_err.internal.count**
(count) | Número de transacciones con error debido a guardarrails transaction_rows_read_err (consultas internas)| +| **cockroachdb.sql.guardrails.transaction_rows_read_log.count**
(count) | Número de transacciones registradas debido a guardarrails transaction_rows_read_log| +| **cockroachdb.sql.guardrails.transaction_rows_read_log.internal.count**
(count) | Número de transacciones registradas debido a guardarrails transaction_rows_read_log (consultas internas)| +| **cockroachdb.sql.guardrails.transaction_rows_written_err.count**
(count) | Número de transacciones con error debido a guardarrails transaction_rows_written_err| +| **cockroachdb.sql.guardrails.transaction_rows_written_err.internal.count**
(count) | Número de transacciones con error debido a guardarrails transaction_rows_written_err (consultas internas)| +| **cockroachdb.sql.guardrails.transaction_rows_written_log.count**
(count) | Número de transacciones registradas debido a guardarrails transaction_rows_written_log| +| **cockroachdb.sql.guardrails.transaction_rows_written_log.internal.count**
(count) | Número de transacciones registradas debido a guardarrails transaction_rows_written_log (consultas internas)| +| **cockroachdb.sql.hydrated_schema_cache.hits.count**
(count) | Contador del número de aciertos de caché| +| **cockroachdb.sql.hydrated_schema_cache.misses.count**
(count) | Contador del número de fallos de caché| +| **cockroachdb.sql.hydrated_table_cache.hits.count**
(count) | Contador del número de aciertos de caché| +| **cockroachdb.sql.hydrated_table_cache.misses.count**
(count) | Contador del número de fallos de caché| +| **cockroachdb.sql.hydrated_type_cache.hits.count**
(count) | Contador del número de aciertos de caché| +| **cockroachdb.sql.hydrated_type_cache.misses.count**
(count) | Contador del número de fallos de caché| +| **cockroachdb.sql.hydrated_udf_cache.hits.count**
(count) | Contador del número de aciertos de caché| +| **cockroachdb.sql.hydrated_udf_cache.misses.count**
(count) | Contador del número de fallos de caché| +| **cockroachdb.sql.insert.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias INSERT SQL| +| **cockroachdb.sql.insert.internal.count**
(count) | Número de sentencias INSERT SQL ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.insert.started.count**
(count) | Número de sentencias INSERT SQL iniciadas| +| **cockroachdb.sql.insert.started.internal.count**
(count) | Número de sentencias INSERT SQL iniciadas (consultas internas)| +| **cockroachdb.sql.insights.anomaly_detection.evictions.count**
(count) | Desalojos de resúmenes de latencia de huellas digitales debido a la presión de la memoria| +| **cockroachdb.sql.insights.anomaly_detection.fingerprints**
(gauge) | Número actual de huellas digitales de sentencias que se están monitorizando para detectar anomalías| +| **cockroachdb.sql.insights.anomaly_detection.memory**
(gauge) | Memoria actual utilizada para soportar la detección de anomalías
_Se muestra como byte_ | +| **cockroachdb.sql.leases.active**
(gauge) | Número de arrendamientos de esquemas SQL destacados| +| **cockroachdb.sql.mem.admin.current**
(gauge) | \[OpenMetrics v1 y v2\] Uso actual de la memoria por sentencias SQL para administradores| +| **cockroachdb.sql.mem.admin.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada sentencia SQL para administradores| +| **cockroachdb.sql.mem.admin.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para administradores| +| **cockroachdb.sql.mem.admin.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para administradores| +| **cockroachdb.sql.mem.admin.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para administradores| +| **cockroachdb.sql.mem.admin.session.current**
(gauge) | \[OpenMetrics v1 y v2\] Uso actual de la memoria por sesiones SQL para administradores| +| **cockroachdb.sql.mem.admin.session.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para administradores| +| **cockroachdb.sql.mem.admin.session.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para administradores| +| **cockroachdb.sql.mem.admin.session.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para administradores| +| **cockroachdb.sql.mem.admin.txn.current**
(gauge) | \[OpenMetrics v1 y v2\] Uso actual de la memoria por transacciones SQL para administradores| +| **cockroachdb.sql.mem.admin.txn.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada transacción SQL para administradores| +| **cockroachdb.sql.mem.admin.txn.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para administradores| +| **cockroachdb.sql.mem.admin.txn.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para administradores| +| **cockroachdb.sql.mem.admin.txn.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para administradores| +| **cockroachdb.sql.mem.bulk.current**
(gauge) | Uso actual de la memoria por sentencias SQL para operaciones en bloque
_Se muestra como byte_ | +| **cockroachdb.sql.mem.bulk.max**
(count) | Uso de la memoria por cada sentencia SQL para operaciones en bloque
_Se muestra como byte_ | +| **cockroachdb.sql.mem.bulk.max.bucket**
(count) | Uso de la memoria por cada sentencia SQL para operaciones en bloque
_Se muestra como byte_ | +| **cockroachdb.sql.mem.bulk.max.count**
(count) | Uso de la memoria por cada sentencia SQL para operaciones en bloque
_Se muestra como byte_ | +| **cockroachdb.sql.mem.bulk.max.sum**
(count) | Uso de la memoria por cada sentencia SQL para operaciones en bloque
_Se muestra como byte_ | +| **cockroachdb.sql.mem.client.current**
(gauge) | \[OpenMetrics v1 y v2] Uso actual de la memoria por sentencias SQL para clientes| +| **cockroachdb.sql.mem.client.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada sentencia SQL para clientes| +| **cockroachdb.sql.mem.client.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para clientes| +| **cockroachdb.sql.mem.client.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para clientes| +| **cockroachdb.sql.mem.client.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para clientes| +| **cockroachdb.sql.mem.client.session.current**
(gauge) | \[OpenMetrics v1 y v2\] Uso actual de la memoria por sesiones SQL para clientes| +| **cockroachdb.sql.mem.client.session.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada sesión SQL para clientes| +| **cockroachdb.sql.mem.client.session.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para clientes| +| **cockroachdb.sql.mem.client.session.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para clientes| +| **cockroachdb.sql.mem.client.session.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para clientes| +| **cockroachdb.sql.mem.client.txn.current**
(gauge) | \[OpenMetrics v1 y v2] Uso actual de la memoria por transacciones SQL para clientes| +| **cockroachdb.sql.mem.client.txn.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada transacción SQL para clientes| +| **cockroachdb.sql.mem.client.txn.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para clientes| +| **cockroachdb.sql.mem.client.txn.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para clientes| +| **cockroachdb.sql.mem.client.txn.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para clientes| +| **cockroachdb.sql.mem.conns.current**
(gauge) | \[OpenMetrics v1 y v2] Uso actual de la memoria por sentencias SQL para conexiones| +| **cockroachdb.sql.mem.conns.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada sentencia SQL para conexiones| +| **cockroachdb.sql.mem.conns.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para conexiones| +| **cockroachdb.sql.mem.conns.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para conexiones| +| **cockroachdb.sql.mem.conns.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para conexiones| +| **cockroachdb.sql.mem.conns.session.current**
(gauge) | \[OpenMetrics v1 y v2\] Uso actual de la memoria por sesiones SQL para conexiones| +| **cockroachdb.sql.mem.conns.session.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada sesión SQL para conexiones| +| **cockroachdb.sql.mem.conns.session.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para conexiones| +| **cockroachdb.sql.mem.conns.session.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para conexiones| +| **cockroachdb.sql.mem.conns.session.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para conexiones| +| **cockroachdb.sql.mem.conns.txn.current**
(gauge) | \[OpenMetrics v1 y v2] Uso actual de la memoria por transacciones SQL para conexiones| +| **cockroachdb.sql.mem.conns.txn.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada transacción SQL para conexiones| +| **cockroachdb.sql.mem.conns.txn.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para conexiones| +| **cockroachdb.sql.mem.conns.txn.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para conexiones| +| **cockroachdb.sql.mem.conns.txn.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para conexiones| +| **cockroachdb.sql.mem.distsql.current**
(gauge) | \[OpenMetrics v1 y v2] Uso actual de la memoria por sentencias SQL para DistSQL| +| **cockroachdb.sql.mem.distsql.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada sentencia SQL para DistSQL| +| **cockroachdb.sql.mem.distsql.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para DistSQL| +| **cockroachdb.sql.mem.distsql.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para DistSQL| +| **cockroachdb.sql.mem.distsql.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para DistSQL| +| **cockroachdb.sql.mem.internal.current**
(gauge) | \[OpenMetrics v1 y v2] Uso actual de la memoria por sentencias SQL para internos| +| **cockroachdb.sql.mem.internal.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada sentencia SQL para internos| +| **cockroachdb.sql.mem.internal.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para internos| +| **cockroachdb.sql.mem.internal.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para internos| +| **cockroachdb.sql.mem.internal.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sentencia SQL para internos| +| **cockroachdb.sql.mem.internal.session.current**
(gauge) | \[OpenMetrics v1 y v2\] Uso actual de la memoria por sesiones SQL para internos| +| **cockroachdb.sql.mem.internal.session.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada sesión SQL para internos| +| **cockroachdb.sql.mem.internal.session.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para internos| +| **cockroachdb.sql.mem.internal.session.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para internos| +| **cockroachdb.sql.mem.internal.session.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada sesión SQL para internos| +| **cockroachdb.sql.mem.internal.session.prepared.current**
(gauge) | Uso actual de la memoria por sesiones SQL por parte de sentencias preparadas para internos
_Se muestra como byte_ | +| **cockroachdb.sql.mem.internal.session.prepared.max.bucket**
(count) | Uso de la memoria por sentencias preparadas por parte de sesiones SQL para internos
_Se muestra como byte_ | +| **cockroachdb.sql.mem.internal.session.prepared.max.count**
(count) | Uso de la memoria por sentencias preparadas por parte de sesiones SQL para internos
_Se muestra como byte_ | +| **cockroachdb.sql.mem.internal.session.prepared.max.sum**
(count) | Uso de la memoria por sentencias preparadas por parte de sesiones SQL para internos
_Se muestra como byte_ | +| **cockroachdb.sql.mem.internal.txn.current**
(gauge) | \[OpenMetrics v1 y v2] Uso actual de la memoria por transacciones SQL para internos| +| **cockroachdb.sql.mem.internal.txn.max**
(gauge) | \[OpenMetrics v1\] Uso de la memoria por cada transacción SQL para internos| +| **cockroachdb.sql.mem.internal.txn.max.bucket**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para internos| +| **cockroachdb.sql.mem.internal.txn.max.count**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para internos| +| **cockroachdb.sql.mem.internal.txn.max.sum**
(count) | \[OpenMetrics v2\] Uso de la memoria por cada transacción SQL para internos| +| **cockroachdb.sql.mem.root.current**
(gauge) | Uso actual de la memoria por sentencias SQL para root| +| **cockroachdb.sql.mem.root.max.bucket**
(count) | Uso de la memoria por cada sentencia SQL para root
_Se muestra como byte_ | +| **cockroachdb.sql.mem.root.max.count**
(count) | Uso de la memoria por cada sentencia SQL para root
_Se muestra como byte_ | +| **cockroachdb.sql.mem.root.max.sum**
(count) | Uso de la memoria por cada sentencia SQL para root
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.current**
(gauge) | Uso actual de la memoria por sentencias SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.max**
(count) | Uso de la memoria por cada sentencia SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.max.bucket**
(count) | Uso de la memoria por cada sentencia SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.max.count**
(count) | Uso de la memoria por cada sentencia SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.max.sum**
(count) | Uso de la memoria por cada sentencia SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.session.current**
(gauge) | Uso actual de la memoria por sesiones SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.session.max**
(count) | Uso de la memoria por cada sentencia SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.session.max.bucket**
(count) | Uso de la memoria por cada sentencia SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.session.max.count**
(count) | Uso de la memoria por cada sentencia SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.session.max.sum**
(count) | Uso de la memoria por cada sentencia SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.session.prepared.current**
(gauge) | Uso actual de la memoria por sesiones SQL por parte de sentencias preparadas para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.session.prepared.max**
(count) | Uso de la memoria por sentencias preparadas por parte de sesiones SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.session.prepared.max.bucket**
(count) | Uso de la memoria por sentencias preparadas por parte de sesiones SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.session.prepared.max.count**
(count) | Uso de la memoria por sentencias preparadas por parte de sesiones SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.session.prepared.max.sum**
(count) | Uso de la memoria por sentencias preparadas por parte de sesiones SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.txn.current**
(gauge) | Uso actual de la memoria por transacciones SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.txn.max**
(count) | Uso de la memoria por cada transacción SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.txn.max.bucket**
(count) | Uso de la memoria por cada transacción SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.txn.max.count**
(count) | Uso de la memoria por cada transacción SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.mem.sql.txn.max.sum**
(count) | Uso de la memoria por cada transacción SQL para SQL
_Se muestra como byte_ | +| **cockroachdb.sql.misc.count**
(count) | \[OpenMetrics v1 y v2\] Número de otras sentencias SQL| +| **cockroachdb.sql.misc.internal.count**
(count) | Número de otras sentencias SQL ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.misc.started.count**
(count) | Número de otras sentencias SQL iniciadas| +| **cockroachdb.sql.misc.started.internal.count**
(count) | Número de otras sentencias SQL iniciadas (consultas internas)| +| **cockroachdb.sql.new_conns.count**
(count) | Contador del número de conexiones SQL creadas| +| **cockroachdb.sql.optimizer.fallback.count**
(count) | Número de sentencias que el optimizador basado en costes no pudo planificar| +| **cockroachdb.sql.optimizer.fallback.internal.count**
(count) | Número de sentencias que el optimizador basado en costes no pudo planificar (consultas internas)| +| **cockroachdb.sql.optimizer.plan_cache.hits.count**
(count) | Número de sentencias no preparadas para las que se utilizó un plan en caché| +| **cockroachdb.sql.optimizer.plan_cache.hits.internal.count**
(count) | Número de sentencias no preparadas para las que se utilizó un plan en caché (consultas internas)| +| **cockroachdb.sql.optimizer.plan_cache.misses.count**
(count) | Número de sentencias no preparadas para las que no se utilizó un plan en caché| +| **cockroachdb.sql.optimizer.plan_cache.misses.internal.count**
(count) | Número de sentencias no preparadas para las que no se utilizó un plan en caché (consultas internas)| +| **cockroachdb.sql.pgwire_cancel.count**
(count) | Número de solicitudes de anulación de consultas pgwire| +| **cockroachdb.sql.pgwire_cancel.ignored.count**
(count) | Número de solicitudes de cancelación de consultas pgwire ignoradas debido a la limitación de velocidad| +| **cockroachdb.sql.pgwire_cancel.successful.count**
(count) | Número de solicitudes de cancelación de consultas pgwire exitosas| +| **cockroachdb.sql.pre_serve.bytesin.count**
(count) | Número de bytes SQL recibidos antes de enrutar la conexión al servidor SQL de destino
_Se muestra como byte_ | +| **cockroachdb.sql.pre_serve.bytesout.count**
(count) | Número de bytes SQL enviados antes de enrutar la conexión al servidor SQL de destino
_Se muestra como byte_ | +| **cockroachdb.sql.pre_serve.conn.failures.count**
(count) | Número de fallos de conexión SQL antes de enrutar la conexión al servidor SQL de destino| +| **cockroachdb.sql.pre_serve.mem.cur**
(gauge) | Uso actual de la memoria por conexiones SQL antes de enrutar la conexión al servidor SQL de destino
_Se muestra como byte_ | +| **cockroachdb.sql.pre_serve.mem.max**
(count) | Uso actual de la memoria por conexiones SQL antes de enrutar la conexión al servidor SQL de destino
_Se muestra como byte_ | +| **cockroachdb.sql.pre_serve.mem.max.bucket**
(count) | Uso actual de la memoria por conexiones SQL antes de enrutar la conexión al servidor SQL de destino
_Se muestra como byte_ | +| **cockroachdb.sql.pre_serve.mem.max.count**
(count) | Uso actual de la memoria por conexiones SQL antes de enrutar la conexión al servidor SQL de destino
_Se muestra como byte_ | +| **cockroachdb.sql.pre_serve.mem.max.sum**
(count) | Uso actual de la memoria por conexiones SQL antes de enrutar la conexión al servidor SQL de destino
_Se muestra como byte_ | +| **cockroachdb.sql.pre_serve.new_conns.count**
(count) | Número de conexiones SQL creadas antes de enrutar la conexión al servidor SQL de destino| +| **cockroachdb.sql.query.count**
(count) | \[OpenMetrics v1 y v2\] Número de consultas SQL| +| **cockroachdb.sql.query.internal.count**
(count) | Número de consultas SQL ejecutadas (consultas internas)| +| **cockroachdb.sql.query.started.count**
(count) | Número de consultas SQL iniciadas| +| **cockroachdb.sql.query.started.internal.count**
(count) | Número de consultas SQL iniciadas (consultas internas)| +| **cockroachdb.sql.restart_savepoint.count**
(count) | Número de sentencias `SAVEPOINT cockroach_restart` ejecutadas correctamente| +| **cockroachdb.sql.restart_savepoint.internal.count**
(count) | Número de sentencias `SAVEPOINT cockroach_restart` ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.restart_savepoint.release.count**
(count) | Número de sentencias `RELEASE SAVEPOINT cockroach_restart` ejecutadas correctamente| +| **cockroachdb.sql.restart_savepoint.release.internal.count**
(count) | Número de sentencias `RELEASE SAVEPOINT cockroach_restart` ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.restart_savepoint.release.started.count**
(count) | Número de sentencias `RELEASE SAVEPOINT cockroach_restart` iniciadas| +| **cockroachdb.sql.restart_savepoint.release.started.internal.count**
(count) | Número de sentencias `RELEASE SAVEPOINT cockroach_restart` iniciadas (consultas internas)| +| **cockroachdb.sql.restart_savepoint.rollback.count**
(count) | Número de sentencias `ROLLBACK TO SAVEPOINT cockroach_restart` ejecutadas con éxito| +| **cockroachdb.sql.restart_savepoint.rollback.internal.count**
(count) | Número de sentencias `ROLLBACK TO SAVEPOINT cockroach_restart` ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.restart_savepoint.rollback.started.count**
(count) | Número de sentencias `ROLLBACK TO SAVEPOINT cockroach_restart` iniciadas| +| **cockroachdb.sql.restart_savepoint.rollback.started.internal.count**
(count) | Número de sentencias `ROLLBACK TO SAVEPOINT cockroach_restart` iniciadas (consultas internas)| +| **cockroachdb.sql.restart_savepoint.started.count**
(count) | Número de sentencias `SAVEPOINT cockroach_restart` iniciadas| +| **cockroachdb.sql.restart_savepoint.started.internal.count**
(count) | Número de sentencias `SAVEPOINT cockroach_restart` iniciadas (consultas internas)| +| **cockroachdb.sql.savepoint.count**
(count) | Número de sentencias SAVEPOINT SQL ejecutadas con éxito| +| **cockroachdb.sql.savepoint.internal.count**
(count) | Número de sentencias SAVEPOINT SQL ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.savepoint.release.count**
(count) | Número de sentencias `RELEASE SAVEPOINT` ejecutadas con éxito| +| **cockroachdb.sql.savepoint.release.internal.count**
(count) | Número de sentencias `RELEASE SAVEPOINT` ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.savepoint.release.started.count**
(count) | Número de sentencias `RELEASE SAVEPOINT` iniciadas| +| **cockroachdb.sql.savepoint.release.started.internal.count**
(count) | Número de sentencias `RELEASE SAVEPOINT` iniciadas (consultas internas)| +| **cockroachdb.sql.savepoint.rollback.count**
(count) | Número de sentencias `ROLLBACK TO SAVEPOINT` ejecutadas con éxito| +| **cockroachdb.sql.savepoint.rollback.internal.count**
(count) | Número de sentencias `ROLLBACK TO SAVEPOINT` ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.savepoint.rollback.started.count**
(count) | Número de sentencias `ROLLBACK TO SAVEPOINT` iniciadas| +| **cockroachdb.sql.savepoint.rollback.started.internal.count**
(count) | Número de sentencias `ROLLBACK TO SAVEPOINT` iniciadas (consultas internas)| +| **cockroachdb.sql.savepoint.started.count**
(count) | Número de sentencias SAVEPOINT SQL iniciadas| +| **cockroachdb.sql.savepoint.started.internal.count**
(count) | Número de sentencias SAVEPOINT SQL iniciadas (consultas internas)| +| **cockroachdb.sql.schema.invalid_objects**
(gauge) | Indicador de objetos no válidos detectados en la tabla system.descriptor (medido mediante consulta a crdb_internal.invalid_objects)| +| **cockroachdb.sql.schema_changer.permanent_errors.count**
(count) | Contador del número de errores permanentes experimentados por el modificador de esquemas| +| **cockroachdb.sql.schema_changer.retry_errors.count**
(count) | Contador del número de errores reintentables experimentados por el modificador de esquemas| +| **cockroachdb.sql.schema_changer.running**
(gauge) | Indicador de los cambios de esquemas que se están ejecutando actualmente| +| **cockroachdb.sql.schema_changer.successes.count**
(count) | Contador del número de reanudaciones exitosas del modificador de esquemas| +| **cockroachdb.sql.select.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias SELECT SQL| +| **cockroachdb.sql.select.internal.count**
(count) | Número de sentencias SELECT SQL ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.select.started.count**
(count) | Número de sentencias SELECT SQL iniciadas| +| **cockroachdb.sql.select.started.internal.count**
(count) | Número de sentencias SELECT SQL iniciadas (consultas internas)| +| **cockroachdb.sql.service.latency**
(gauge) | \[OpenMetrics v1\] Latencia en nanosegundos de ejecución de solicitudes SQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.service.latency.bucket**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de solicitudes SQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.service.latency.count**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de solicitudes SQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.service.latency.internal**
(count) | Latencia de ejecución de solicitudes SQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.service.latency.internal.bucket**
(count) | Latencia de ejecución de solicitudes SQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.service.latency.internal.count**
(count) | Latencia de ejecución de solicitudes SQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.service.latency.internal.sum**
(count) | Latencia de ejecución de solicitudes SQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.service.latency.sum**
(count) | \[OpenMetrics v2\] Latencia en nanosegundos de ejecución de solicitudes SQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.statements.active**
(gauge) | \[OpenMetrics v1 y v2\] Número de sentencias SQL de usuario actualmente activas| +| **cockroachdb.sql.statements.active.internal**
(gauge) | Número de sentencias SQL de usuario actualmente activas (consultas internas)| +| **cockroachdb.sql.stats.cleanup.rows_removed.count**
(count) | Número de filas de estadísticas obsoletas que se eliminan| +| **cockroachdb.sql.stats.discarded.current.count**
(count) | Número de estadísticas de huellas digitales descartadas| +| **cockroachdb.sql.stats.flush.count**
(count) | Número de veces que las estadísticas SQL se descargan en el almacenamiento persistente| +| **cockroachdb.sql.stats.flush.duration**
(count) | Tiempo en nanosegundos dedicado a completar la descarga de estadísticas SQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.stats.flush.duration.bucket**
(count) | Tiempo en nanosegundos dedicado a completar la descarga de estadísticas SQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.stats.flush.duration.count**
(count) | Tiempo en nanosegundos dedicado a completar la descarga de estadísticas SQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.stats.flush.duration.sum**
(count) | Tiempo en nanosegundos dedicado a completar la descarga de estadísticas SQL
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.stats.flush.error.count**
(count) | Número de errores encontrados al descargar estadísticas SQL| +| **cockroachdb.sql.stats.mem.current**
(gauge) | Uso actual de la memoria para el almacenamiento de huellas digitales
_Se muestra como byte_ | +| **cockroachdb.sql.stats.mem.max**
(count) | Uso de la memoria para el almacenamiento de huellas digitales
_Se muestra como byte_ | +| **cockroachdb.sql.stats.mem.max.bucket**
(count) | Uso de la memoria para el almacenamiento de huellas digitales
_Se muestra como byte_ | +| **cockroachdb.sql.stats.mem.max.count**
(count) | Uso de la memoria para el almacenamiento de huellas digitales
_Se muestra como byte_ | +| **cockroachdb.sql.stats.mem.max.sum**
(count) | Uso de la memoria para el almacenamiento de huellas digitales
_Se muestra como byte_ | +| **cockroachdb.sql.stats.reported.mem.current**
(gauge) | Uso actual de la memoria para el almacenamiento de huellas digitales informadas
_Se muestra como byte_ | +| **cockroachdb.sql.stats.reported.mem.max**
(count) | Uso de la memoria para el almacenamiento de huellas digitales informadas
_Se muestra como byte_ | +| **cockroachdb.sql.stats.reported.mem.max.bucket**
(count) | Uso de la memoria para el almacenamiento de huellas digitales informadas
_Se muestra como byte_ | +| **cockroachdb.sql.stats.reported.mem.max.count**
(count) | Uso de la memoria para el almacenamiento de huellas digitales informadas
_Se muestra como byte_ | +| **cockroachdb.sql.stats.reported.mem.max.sum**
(count) | Uso de la memoria para el almacenamiento de huellas digitales informadas
_Se muestra como byte_ | +| **cockroachdb.sql.stats.txn_stats_collection.duration**
(count) | Tiempo en nanosegundos dedicado a recopilar estadísticas de transacciones
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.stats.txn_stats_collection.duration.bucket**
(count) | Tiempo en nanosegundos dedicado a recopilar estadísticas de transacciones
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.stats.txn_stats_collection.duration.count**
(count) | Tiempo en nanosegundos dedicado a recopilar estadísticas de transacciones
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.stats.txn_stats_collection.duration.sum**
(count) | Tiempo en nanosegundos dedicado a recopilar estadísticas de transacciones
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.temp_object_cleaner.active_cleaners**
(gauge) | Número de tareas de limpieza que se están ejecutando actualmente en este nodo| +| **cockroachdb.sql.temp_object_cleaner.schemas_deletion_error.count**
(count) | Número de eliminaciones de esquemas fallidos por el limpiador de objetos temporales en este nodo| +| **cockroachdb.sql.temp_object_cleaner.schemas_deletion_success.count**
(count) | Número de eliminaciones exitosas de esquemas por parte del limpiador de objetos temporales en este nodo| +| **cockroachdb.sql.temp_object_cleaner.schemas_to_delete.count**
(count) | Número de esquemas a eliminar por el limpiador de objetos temporales en este nodo| +| **cockroachdb.sql.txn.abort.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias ABORT de transacciones SQL| +| **cockroachdb.sql.txn.abort.internal.count**
(count) | Número de errores de interrupción de transacciones SQL (consultas internas)| +| **cockroachdb.sql.txn.begin.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias BEGIN de transacciones SQL| +| **cockroachdb.sql.txn.begin.internal.count**
(count) | Número de sentencias BEGIN de transacciones SQL ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.txn.begin.started.count**
(count) | Número de sentencias BEGIN de transacciones SQL iniciadas| +| **cockroachdb.sql.txn.begin.started.internal.count**
(count) | Número de sentencias BEGIN de transacciones SQL iniciadas (consultas internas)| +| **cockroachdb.sql.txn.commit.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias COMMIT de transacciones SQL| +| **cockroachdb.sql.txn.commit.internal.count**
(count) | Número de sentencias COMMIT de transacciones SQL ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.txn.commit.started.count**
(count) | Número de sentencias COMMIT de transacciones SQL iniciadas| +| **cockroachdb.sql.txn.commit.started.internal.count**
(count) | Número de sentencias COMMIT de transacciones SQL iniciadas (consultas internas)| +| **cockroachdb.sql.txn.contended.count**
(count) | Número de transacciones SQL que experimentaron contención| +| **cockroachdb.sql.txn.contended.internal.count**
(count) | Número de transacciones SQL que experimentaron contención (consultas internas)| +| **cockroachdb.sql.txn.latency**
(gauge) | \[OpenMetrics v1\] Latencia de las transacciones SQL
_Se muestra como transacción_ | +| **cockroachdb.sql.txn.latency.bucket**
(count) | \[OpenMetrics v2\] Latencia de las transacciones SQL
_Se muestra como transacción_ | +| **cockroachdb.sql.txn.latency.count**
(count) | \[OpenMetrics v2\] Latencia de las transacciones SQL
_Se muestra como transacción_ | +| **cockroachdb.sql.txn.latency.internal.bucket**
(count) | Latencia de las transacciones SQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.txn.latency.internal.count**
(count) | Latencia de las transacciones SQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.txn.latency.internal.sum**
(count) | Latencia de las transacciones SQL (consultas internas)
_Se muestra como nanosegundo_ | +| **cockroachdb.sql.txn.latency.sum**
(count) | \[OpenMetrics v2\] Latencia de las transacciones SQL
_Se muestra como transacción_ | +| **cockroachdb.sql.txn.rollback.count**
(count) | \[OpenMetrics v1 y v2\] Número de sentencias ROLLBACK de transacciones SQL| +| **cockroachdb.sql.txn.rollback.internal.count**
(count) | Número de sentencias ROLLBACK de transacciones SQL ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.txn.rollback.started.count**
(count) | Número de sentencias ROLLBACK de transacciones SQL iniciadas| +| **cockroachdb.sql.txn.rollback.started.internal.count**
(count) | Número de sentencias ROLLBACK de transacciones SQL iniciadas (consultas internas)| +| **cockroachdb.sql.txns.open**
(gauge) | \[OpenMetrics v1 y v2\] Número de transacciones SQL de usuario actualmente abiertas
_Se muestra como transacción_ | +| **cockroachdb.sql.txns.open.internal**
(gauge) | Número de transacciones SQL de usuario actualmente abiertas (consultas internas)| +| **cockroachdb.sql.update.count**
(count) | \[OpenMetrics v1 y v2\] Númyero de sentencias UPDATE SQL| +| **cockroachdb.sql.update.internal.count**
(count) | Número de sentencias UPDATE SQL ejecutadas con éxito (consultas internas)| +| **cockroachdb.sql.update.started.count**
(count) | Número de sentencias UPDATE SQL iniciadas| +| **cockroachdb.sql.update.started.internal.count**
(count) | Número de sentencias UPDATE SQL iniciadas (consultas internas)| +| **cockroachdb.sqlliveness.is_alive.cache_hits.count**
(count) | Número de llamadas a IsAlive que vuelven de la caché| +| **cockroachdb.sqlliveness.is_alive.cache_misses.count**
(count) | Número de llamadas a IsAlive que no vuelven de la caché| +| **cockroachdb.sqlliveness.sessions_deleted.count**
(count) | Número de sesiones caducadas eliminadas| +| **cockroachdb.sqlliveness.sessions_deletion_runs.count**
(count) | Número de llamadas para eliminar sesiones realizadas| +| **cockroachdb.sqlliveness.write_failures.count**
(count) | Número de llamadas de actualización o inserción fallidas| +| **cockroachdb.sqlliveness.write_successes.count**
(count) | Número de llamadas de actualización o inserción realizadas con éxito| +| **cockroachdb.storage.batch_commit**
(gauge) | Recuento de confirmaciones por lotes. Para ver más detalles, consulta storage.AggregatedBatchCommitStats.| +| **cockroachdb.storage.batch_commit.commit_wait.duration**
(gauge) | Tiempo acumulado a la espera de la sincronización de WAL, para la confirmación por lotes. Para ver más detalles, consulta storage.AggregatedBatchCommitStats.
_Se muestra como nanosegundo_ | +| **cockroachdb.storage.batch_commit.duration**
(gauge) | Tiempo acumulado dedicado a la confirmación por lotes. Para ver más detalles, consulta storage.AggregatedBatchCommitStats.
_Se muestra como nanosegundo_ | +| **cockroachdb.storage.batch_commit.l0_stall.duration**
(gauge) | Tiempo acumulado dedicado a un bloqueo de escritura debido a una alta amplificación de lectura en L0, para la confirmación por lotes. Para ver más detalles, consulta storage.AggregatedBatchCommitStats.
_Se muestra como nanosegundo_ | +| **cockroachdb.storage.batch_commit.mem_stall.duration**
(gauge) | Tiempo acumulado dedicado a un bloqueo de escritura debido a muchas memtables, para la confirmación por lotes. Para ver más detalles, consulta storage.AggregatedBatchCommitStats.
_Se muestra como nanosegundo_ | +| **cockroachdb.storage.batch_commit.sem_wait.duration**
(gauge) | Tiempo acumulado dedicado a la espera del semáforo, para la confirmación por lotes. Para ver más detalles, consulta storage.AggregatedBatchCommitStats.
_Se muestra como nanosegundo_ | +| **cockroachdb.storage.batch_commit.wal_queue_wait.duration**
(gauge) | Tiempo acumulado dedicado a la espera de bloques de memoria en la cola de WAL, para la confirmación por lotes. Para ver más detalles, consulta storage.AggregatedBatchCommitStats.
_Se muestra como nanosegundo_ | +| **cockroachdb.storage.batch_commit.wal_rotation.duration**
(gauge) | Tiempo acumulado dedicado a la espera de la rotación de WAL, para la confirmación por lotes. Para ver más detalles, consulta storage.AggregatedBatchCommitStats.
_Se muestra como nanosegundo_ | +| **cockroachdb.storage.checkpoints**
(gauge) | Número de directorios de puntos de control encontrados en el almacenamiento. Se trata del número de directorios encontrados en el directorio auxiliar/de puntos de control. Cada uno representa un punto de control inmutable en el tiempo del motor de almacenamiento. Son económicos (consisten principalmente en enlaces duros), pero con el tiempo se convierten en una copia completa del estado anterior, lo que aumenta su coste relativo.| +| **cockroachdb.storage.compactions.duration**
(gauge) | Suma acumulativa de todas las duraciones de compactación. La tasa de este valor proporciona la concurrencia de compactación efectiva de un almacén, que puede ser útil para determinar si la concurrencia de compactación máxima se utiliza completamente.
_Se muestra como nanosegundo_ | +| **cockroachdb.storage.compactions.keys.pinned**
(calibre) | Recuento acumulado de KV del motor de almacenamiento escritos en sstables durante las descargas y compactaciones debidas a snapshots LSM abiertos. Diferentes subsistemas de CockroachDB toman snapshots LSM para mantener una vista coherente de la base de datos durante un periodo de tiempo prolongado.| +| **cockroachdb.storage.compactions.keys.pinned.bytes**
(gauge) | Tamaño acumulado de KV del motor de almacenamiento escritos en sstables durante las descargas y compactaciones debidas a snapshots LSM abiertos. Diferentes subsistemas de CockroachDB toman snapshots LSM para mantener una vista coherente de la base de datos durante un periodo de tiempo prolongado.
_Se muestra como byte_ | +| **cockroachdb.storage.disk_slow**
(gauge) | Número de casos de operaciones de disco que tardan más de 10s| +| **cockroachdb.storage.disk_stalled**
(gauge) | Número de casos de operaciones de disco que tardan más de 20s| +| **cockroachdb.storage.flush.ingest**
(gauge) | Descargas que realizan una ingesta (ingestas descargables)| +| **cockroachdb.storage.flush.ingest.table**
(gauge) | Tablas ingeridas a través de descargas (ingestas descargables)| +| **cockroachdb.storage.flush.ingest.table.bytes**
(gauge) | Bytes ingeridos a través de descargas (ingestas descargables)
_Se muestra como byte_ | +| **cockroachdb.storage.flush.utilization**
(gauge) | Porcentaje de tiempo durante el que el motor de almacenamiento envía memtables al disco.
_Se muestra como porcentaje_ | +| **cockroachdb.storage.ingest**
(gauge) | Número de ingestas realizadas con éxito| +| **cockroachdb.storage.iterator.block_load.bytes**
(gauge) | Bytes cargados por los iteradores del motor de almacenamiento (posiblemente en caché). Para ver más detalles, consulta storage.AggregatedIteratorStats.
_Se muestra como byte_ | +| **cockroachdb.storage.iterator.block_load.cached_bytes**
(gauge) | Bytes cargados por los iteradores del motor de almacenamiento desde la caché de bloques. Para ver más detalles, consulta storage.AggregatedIteratorStats.
_Se muestra como byte_ | +| **cockroachdb.storage.iterator.block_load.read_duration**
(gauge) | Tiempo acumulado que los iteradores del motor de almacenamiento dedicaron a cargar bloques desde el almacenamiento duradero. Para ver más detalles, consulta storage.AggregatedIteratorStats.
_Se muestra como nanosegundo_ | +| **cockroachdb.storage.iterator.external.seeks**
(gauge) | Recuento acumulado de búsquedas realizadas en los iteradores del motor de almacenamiento. Para ver más detalles, consulta storage.AggregatedIteratorStats.| +| **cockroachdb.storage.iterator.external.steps**
(gauge) | Recuento acumulado de pasos realizados en los iteradores del motor de almacenamiento. Para ver más detalles, consulta storage.AggregatedIteratorStats.| +| **cockroachdb.storage.iterator.internal.seeks**
(gauge) | Conteo acumulado de búsquedas realizadas internamente en los iteradores del motor de almacenamiento. Un valor alto relativo a 'storage.iterator.external.seeks' es una buena señal de que hay una acumulación interna de basura dentro del motor de almacenamiento. Para ver más detalles, consulta storage.AggregatedIteratorStats.| +| **cockroachdb.storage.iterator.internal.steps**
(gauge) | Conteo acumulado de pasos realizados internamente en los iteradores del motor de almacenamiento. Un valor alto relativo a 'storage.iterator.external.steps' es una buena señal de que hay una acumulación interna de basura dentro del motor de almacenamiento. Para ver más detalles, consulta storage.AggregatedIteratorStats.| +| **cockroachdb.storage.keys.range_key_set**
(gauge) | Recuento aproximado de claves internas RangeKeySet en todo el motor de almacenamiento| +| **cockroachdb.storage.keys.tombstone**
(calibre) | Recuento aproximado de claves internas DEL, SINGLEDEL y RANGEDEL en todo el motor de almacenamiento| +| **cockroachdb.storage.l0_bytes_flushed**
(gauge) | Número de bytes descargados (desde memtables) en el nivel 0
_Se muestra como byte_ | +| **cockroachdb.storage.l0_bytes_ingested**
(gauge) | Número de bytes ingeridos directamente en el nivel 0
_Se muestra como byte_ | +| **cockroachdb.storage.l0_level_score**
(gauge) | Puntuación de compactación del nivel 0| +| **cockroachdb.storage.l0_level_size**
(gauge) | Tamaño de las SSTables en el nivel 0
_Se muestra como byte_ | +| **cockroachdb.storage.l0_num_files**
(gauge) | Número de SSTables en el nivel 0| +| **cockroachdb.storage.l0_sublevels**
(gauge) | Número de subniveles del nivel 0| +| **cockroachdb.storage.l1_bytes_ingested**
(gauge) | Número de bytes ingeridos directamente en el nivel 1
_Se muestra como byte_ | +| **cockroachdb.storage.l1_level_score**
(gauge) | Puntuación de compactación del nivel 1| +| **cockroachdb.storage.l1_level_size**
(gauge) | Tamaño de las SSTables en el nivel 1
_Se muestra como byte_ | +| **cockroachdb.storage.l2_bytes_ingested**
(gauge) | Número de bytes ingeridos directamente en el nivel 2
_Se muestra como byte_ | +| **cockroachdb.storage.l2_level_score**
(gauge) | Puntuación de compactación del nivel 2| +| **cockroachdb.storage.l2_level_size**
(gauge) | Tamaño de las SSTables en el nivel 2
_Se muestra como byte_ | +| **cockroachdb.storage.l3_bytes_ingested**
(gauge) | Número de bytes ingeridos directamente en el nivel 3
_Se muestra como byte_ | +| **cockroachdb.storage.l3_level_score**
(gauge) | Puntuación de compactación del nivel 3| +| **cockroachdb.storage.l3_level_size**
(gauge) | Tamaño de las SSTables en el nivel 3
_Se muestra como byte_ | +| **cockroachdb.storage.l4_bytes_ingested**
(gauge) | Número de bytes ingeridos directamente en el nivel 4
_Se muestra como byte_ | +| **cockroachdb.storage.l4_level_score**
(gauge) | Puntuación de compactación del nivel 4| +| **cockroachdb.storage.l4_level_size**
(gauge) | Tamaño de las SSTables en el nivel 4
_Se muestra como byte_ | +| **cockroachdb.storage.l5_bytes_ingested**
(gauge) | Número de bytes ingeridos directamente en el nivel 5
_Se muestra como byte_ | +| **cockroachdb.storage.l5_level_score**
(gauge) | Puntuación de compactación del nivel 5| +| **cockroachdb.storage.l5_level_size**
(gauge) | Tamaño de las SSTables del nivel 5
_Se muestra como byte_ | +| **cockroachdb.storage.l6_bytes_ingested**
(gauge) | Número de bytes ingeridos directamente en el nivel 6
_Se muestra como byte_ | +| **cockroachdb.storage.l6_level_score**
(indicador) | Puntuación de compactación del nivel 6| +| **cockroachdb.storage.l6_level_size**
(gauge) | Tamaño de las SSTables en el nivel 6
_Se muestra como byte_ | +| **cockroachdb.storage.marked_for_compaction_files**
(gauge) | Recuento de SSTables marcadas para compactación| +| **cockroachdb.storage.queue.store_failures.count**
(count) | Número de réplicas que no se pudieron procesar en colas de replicación debido a errores reintentables del almacén| +| **cockroachdb.storage.secondary_cache**
(gauge) | Recuento de bloques de caché en la caché secundaria (no bloques sstable)| +| **cockroachdb.storage.secondary_cache.evictions**
(gauge) | Número de veces que un bloque de caché fue desalojado de la caché secundaria| +| **cockroachdb.storage.secondary_cache.reads_full_hit**
(gauge) | Número de lecturas en las que todos los datos devueltos fueron leídos de la caché secundaria| +| **cockroachdb.storage.secondary_cache.reads_multi_block**
(gauge) | Número de lecturas de la caché secundaria que requieren la lectura de datos de más de 2 bloques de caché| +| **cockroachdb.storage.secondary_cache.reads_multi_shard**
(gauge) | Número de lecturas de la caché secundaria que requieren la lectura de datos de más de 2 fragmentos| +| **cockroachdb.storage.secondary_cache.reads_no_hit**
(gauge) | Número de lecturas en las que no fueron devueltos datos leídos de la caché secundaria| +| **cockroachdb.storage.secondary_cache.reads_partial_hit**
(gauge) | Número de lecturas en las que algunos datos devueltos fueron leídos de la caché secundaria| +| **cockroachdb.storage.secondary_cache.reads_total**
(gauge) | Número de lecturas de la caché secundaria| +| **cockroachdb.storage.secondary_cache.size**
(gauge) | Número de bytes de sstable almacenados en la caché secundaria
_Se muestra como byte_ | +| **cockroachdb.storage.secondary_cache.write_back_failures**
(gauge) | Número de veces que falló la escritura de un bloque de caché en la caché secundaria| +| **cockroachdb.storage.shared_storage.read**
(gauge) | Bytes leídos del almacenamiento compartido
_Se muestra como byte_ | +| **cockroachdb.storage.shared_storage.write**
(gauge) | Bytes escritos en el almacenamiento externo
_Se muestra como byte_ | +| **cockroachdb.storage.single_delete.ineffectual**
(gauge) | Número de SingleDeletes sin efecto| +| **cockroachdb.storage.single_delete.invariant_violation**
(gauge) | Número de infracciones de la invariante SingleDelete| +| **cockroachdb.storage.wal.bytes_in**
(gauge) | Número de bytes lógicos que el motor de almacenamiento escribió en el WAL| +| **cockroachdb.storage.wal.bytes_written**
(gauge) | Número de bytes que el motor de almacenamiento escribió en el WAL| +| **cockroachdb.storage.wal.fsync.latency.bucket**
(count) | Latencia fsync del registro de escritura anticipada
_Se muestra como nanosegundo_ | +| **cockroachdb.storage.wal.fsync.latency.count**
(count) | Latencia fsync del registro de escritura anticipada
_Se muestra como nanosegundo_ | +| **cockroachdb.storage.wal.fsync.latency.sum**
(count) | Latencia fsync del registro de escritura anticipada
_Se muestra como nanosegundo_ | +| **cockroachdb.storage.write.stalls**
(gauge) | Número de casos de bloqueos de escritura intencionados para contrapresionar las escrituras entrantes| +| **cockroachdb.storage.write_stall_nanos**
(gauge) | Duración total del bloqueo de escritura en nanos
_Se muestra como nanosegundo_ | +| **cockroachdb.storage.write_stalls**
(gauge) | Número de casos de bloqueos de escritura intencionados para contrapresionar las escrituras entrantes| +| **cockroachdb.sys.cgo.allocbytes**
(gauge) | \[OpenMetrics v1 y v2\] Bytes actuales de memoria asignados por cgo
_Se muestra como byte_ | +| **cockroachdb.sys.cgo.totalbytes**
(gauge) | \[OpenMetrics v1 y v2\] Total de bytes de memoria asignados por cgo, pero no liberados
_Se muestra como byte_ | +| **cockroachdb.sys.cgocalls**
(gauge) | \[OpenMetrics v1 y v2\] Número total de llamadas de cgo| +| **cockroachdb.sys.cpu.combined.percent.normalized**
(gauge) | \[OpenMetrics v1 y v2\] Porcentaje actual de cpu de usuario+sistema, normalizado 0-1 por número de núcleos
_Se muestra como fracción_ | +| **cockroachdb.sys.cpu.host.combined.percent_normalized**
(gauge) | Porcentaje actual de cpu de usuario+sistema en toda la máquina, normalizado 0-1 por número de núcleos
_Se muestra como porcentaje_ | +| **cockroachdb.sys.cpu.now.ns**
(gauge) | La hora en que se tomaron las mediciones de la CPU, en nanosegundos desde la marca de tiempo
_Se muestra como nanosegundo_ | +| **cockroachdb.sys.cpu.sys.ns**
(gauge) | \[OpenMetrics v1 y v2\] Tiempo total de cpu del sistema en nanosegundos
_Se muestra como nanosegundo_ | +| **cockroachdb.sys.cpu.sys.percent**
(gauge) | \[OpenMetrics v1 y v2\] Porcentaje actual de cpu del sistema
_Se muestra como núcleo_ | +| **cockroachdb.sys.cpu.user.ns**
(gauge) | \[OpenMetrics v1 y v2\] Tiempo total de cpu del usuario en nanosegundos
_Se muestra como nanosegundo_ | +| **cockroachdb.sys.cpu.user.percent**
(gauge) | \[OpenMetrics v1 y v2\] Porcentaje de cpu del usuario actual
_Se muestra como núcleo_ | +| **cockroachdb.sys.fd.open**
(gauge) | \[OpenMetrics v1 y v2\] Procesar descriptores de archivo abiertos| +| **cockroachdb.sys.fd.softlimit**
(gauge) | \[OpenMetrics v1 y v2\] Procesar límite suave FD abierto| +| **cockroachdb.sys.gc**
(gauge) | \[OpenMetrics v2\] Número total de ejecuciones GC| +| **cockroachdb.sys.gc.count**
(gauge) | \[OpenMetrics v1\] Número total de ejecuciones GC| +| **cockroachdb.sys.gc.pause.ns**
(gauge) | \[OpenMetrics v1 y v2\] Pausa GC total en nanosegundos
_Se muestra como nanosegundo_ | +| **cockroachdb.sys.gc.pause.percent**
(gauge) | \[OpenMetrics v1 y v2\] Porcentaje actual de pausa GC
_Se muestra como fracción_ | +| **cockroachdb.sys.go.allocbytes**
(gauge) | \[OpenMetrics v1 y v2\] Bytes actuales de memoria asignados por go
_Se muestra como byte_ | +| **cockroachdb.sys.go.totalbytes**
(gauge) | \[OpenMetrics v1 y v2\] Total de bytes de memoria asignados por go, pero no liberados
_Se muestra como byte_ | +| **cockroachdb.sys.goroutines**
(gauge) | \[OpenMetrics v1 y v2\] Número actual de goroutines| +| **cockroachdb.sys.host.disk.io.time**
(gauge) | Tiempo dedicado a leer o escribir en todos los discos desde que se inició este proceso
_Se muestra como nanosegundo_ | +| **cockroachdb.sys.host.disk.iopsinprogress**
(gauge) | Operaciones de E/S actualmente en curso en este host| +| **cockroachdb.sys.host.disk.read**
(gauge) | Operaciones de lectura en todos los discos desde que se inició este proceso| +| **cockroachdb.sys.host.disk.read.bytes**
(gauge) | \[OpenMetrics v1 y v2\] Bytes leídos de todos los discos desde que se inició este proceso
_Se muestra como byte_ | +| **cockroachdb.sys.host.disk.read.count**
(gauge) | Operaciones de lectura en todos los discos desde que se inició este proceso| +| **cockroachdb.sys.host.disk.read.time**
(gauge) | Tiempo dedicado a leer todos los discos desde que se inició este proceso
_Se muestra como nanosegundo_ | +| **cockroachdb.sys.host.disk.weightedio.time**
(gauge) | Tiempo ponderado dedicado a leer o escribir en todos los discos desde que se inició este proceso
_Se muestra como nanosegundo_ | +| **cockroachdb.sys.host.disk.write**
(gauge) | Operaciones de escritura en todos los discos desde que se inició este proceso| +| **cockroachdb.sys.host.disk.write.bytes**
(gauge) | \[OpenMetrics v1 y v2\] Bytes escritos en todos los discos desde que se inició este proceso
_Se muestra como byte_ | +| **cockroachdb.sys.host.disk.write.count**
(gauge) | Operaciones de escritura en todos los discos desde que se inició este proceso| +| **cockroachdb.sys.host.disk.write.time**
(gauge) | Tiempo dedicado a escribir en todos los discos desde que se inició este proceso
_Se muestra como nanosegundo_ | +| **cockroachdb.sys.host.net.recv.bytes**
(gauge) | \[OpenMetrics v1 y v2\] Bytes recibidos en todas las interfaces de red desde que se inició este proceso
_Se muestra como byte_ | +| **cockroachdb.sys.host.net.recv.packets**
(gauge) | Paquetes recibidos en todas las interfaces de red desde que se inició este proceso| +| **cockroachdb.sys.host.net.send.bytes**
(gauge) | \[OpenMetrics v1 y v2\] Bytes enviados en todas las interfaces de red desde que se inició este proceso
_Se muestra como byte_ | +| **cockroachdb.sys.host.net.send.packets**
(gauge) | Paquetes enviados en todas las interfaces de red desde que se inició este proceso| +| **cockroachdb.sys.rss**
(gauge) | \[OpenMetrics v1 y v2\] Proceso RSS actual| +| **cockroachdb.sys.runnable.goroutines.per.cpu**
(gauge) | Número medio de goroutines en espera de ejecución, normalizado por el número de núcleos| +| **cockroachdb.sys.runnable.goroutines.per_cpu**
(gauge) | Número medio de goroutines en espera de ejecución, normalizado por el número de núcleos| +| **cockroachdb.sys.totalmem**
(gauge) | Memoria total (tanto libre como utilizada)
_Se muestra como byte_ | +| **cockroachdb.sys.uptime**
(gauge) | \[OpenMetrics v1 y v2\] Tiempo de actividad del proceso en segundos
_Se muestra como segundo_ | +| **cockroachdb.sysbytes**
(gauge) | \[OpenMetrics v1 y v2\] Número de bytes en pares KV del sistema
_Se muestra como byte_ | +| **cockroachdb.syscount**
(gauge) | \[OpenMetrics v1 y v2\] Recuento de pares KV del sistema| +| **cockroachdb.tenant.consumption.cross_region_network_ru.count**
(count) | Número total de RU cobradas por el tráfico de red entre regiones| +| **cockroachdb.tenant.consumption.external_io_egress_bytes**
(gauge) | Número total de bytes escritos en servicios externos como proveedores de almacenamiento en la nube| +| **cockroachdb.tenant.consumption.external_io_ingress_bytes**
(gauge) | Número total de bytes leídos de servicios externos como proveedores de almacenamiento en la nube| +| **cockroachdb.tenant.consumption.kv_request_units**
(gauge) | Consumo de RU atribuible a KV| +| **cockroachdb.tenant.consumption.kv_request_units.count**
(count) | Consumo de RU atribuible a KV| +| **cockroachdb.tenant.consumption.pgwire_egress_bytes**
(gauge) | Número total de bytes transferidos desde un pod SQL al cliente| +| **cockroachdb.tenant.consumption.read_batches**
(gauge) | Número total de lotes de lectura KV| +| **cockroachdb.tenant.consumption.read_bytes**
(gauge) | Número total de bytes leídos de KV| +| **cockroachdb.tenant.consumption.read_requests**
(gauge) | Número total de solicitudes de lectura a KV| +| **cockroachdb.tenant.consumption.request_units**
(gauge) | Consumo total de RU| +| **cockroachdb.tenant.consumption.request_units.count**
(count) | Consumo total de RU| +| **cockroachdb.tenant.consumption.sql_pods_cpu_seconds**
(gauge) | Cantidad total de CPU utilizada por pods SQL
_Se muestra como segundo_ | +| **cockroachdb.tenant.consumption.write_batches**
(gauge) | Número total de lotes de escritura en KV| +| **cockroachdb.tenant.consumption.write_bytes**
(gauge) | Número total de bytes escritos en KV| +| **cockroachdb.tenant.consumption.write_requests**
(gauge) | Número total de solicitudes de escritura en KV| +| **cockroachdb.timeseries.write.bytes**
(count) | \[OpenMetrics v1\] Tamaño total en bytes de las muestras de métricas escritas en disco
_Se muestra como byte_ | +| **cockroachdb.timeseries.write.bytes.count**
(count) | \[OpenMetrics v2\] Tamaño total en bytes de las muestras de métricas escritas en disco
_Se muestra como byte_ | +| **cockroachdb.timeseries.write.errors**
(count) | \[OpenMetrics v1\] Total de errores encontrados al intentar escribir métricas en disco
_Se muestra como error_ | +| **cockroachdb.timeseries.write.errors.count**
(count) | \[OpenMetrics v2\] Total de errores encontrados al intentar escribir métricas en disco
_Se muestra como error_ | +| **cockroachdb.timeseries.write.samples**
(count) | \[OpenMetrics v1\] Número total de muestras de métricas escritas en disco| +| **cockroachdb.timeseries.write.samples.count**
(count) | \[OpenMetrics v2\] Número total de muestras de métricas escritas en disco| +| **cockroachdb.totalbytes**
(gauge) | \[OpenMetrics v1 y v2\] Número total de bytes ocupados por claves y valores incluyendo datos no activos
_Se muestra como byte_ | +| **cockroachdb.tscache.skl.pages**
(gauge) | Número de páginas en la caché de marcas de tiempo| +| **cockroachdb.tscache.skl.read.pages**
(gauge) | \[OpenMetrics v1 y v2\] Número de páginas en la caché de marcas de tiempo de lectura| +| **cockroachdb.tscache.skl.read.rotations**
(count) | \[OpenMetrics v1\] Número de rotaciones de página en la caché de marcas de tiempo de lectura| +| **cockroachdb.tscache.skl.read.rotations.count**
(count) | \[OpenMetrics v2\] Número de rotaciones de página en la caché de marcas de tiempo de lectura| +| **cockroachdb.tscache.skl.rotations.count**
(count) | Número de rotaciones de página en la caché de marcas de tiempo| +| **cockroachdb.tscache.skl.write.pages**
(gauge) | \[OpenMetrics v1 y v2\] Número de páginas en la caché de marcas de tiempo de escritura| +| **cockroachdb.tscache.skl.write.rotations**
(count) | \[OpenMetrics v1\] Número de rotaciones de página en la caché de marcas de tiempo de escritura| +| **cockroachdb.tscache.skl.write.rotations.count**
(count) | \[OpenMetrics v2\] Número de rotaciones de página en la caché de marcas de tiempo de escritura| +| **cockroachdb.txn.abandons**
(count) | \[OpenMetrics v1\] Número de transacciones KV abandonadas| +| **cockroachdb.txn.abandons.count**
(count) | \[OpenMetrics v2\] Número de transacciones KV abandonadas| +| **cockroachdb.txn.aborts**
(count) | \[OpenMetrics v1\] Número de transacciones KV canceladas| +| **cockroachdb.txn.aborts.count**
(count) | \[OpenMetrics v2\] Número de transacciones KV canceladas| +| **cockroachdb.txn.autoretries**
(count) | \[OpenMetrics v1\] Número de reintentos automáticos para evitar reinicios serializables| +| **cockroachdb.txn.autoretries.count**
(count) | \[OpenMetrics v2\] Número de reintentos automáticos para evitar reinicios serializables| +| **cockroachdb.txn.commit_waits.before_commit_trigger.count**
(count) | Número de transacciones KV que tuvieron que esperar en el servidor antes de confirmarse porque tenían un activador de confirmación| +| **cockroachdb.txn.commit_waits.count**
(count) | Número de transacciones KV que tuvieron que esperar la confirmación para garantizar la linealidad. Esto suele ocurrir con transacciones que escriben en rangos globales.| +| **cockroachdb.txn.commits**
(count) | \[OpenMetrics v1\] Número de transacciones KV confirmadas (incluyendo 1PC)| +| **cockroachdb.txn.commits.count**
(count) | \[OpenMetrics v2\] Número de transacciones KV confirmadas (incluyendo 1PC)| +| **cockroachdb.txn.commits1PC**
(count) | \[OpenMetrics v1\] Número de transacciones KV de una fase confirmadas| +| **cockroachdb.txn.commits1PC.count**
(count) | \[OpenMetrics v2\] Número de transacciones KV de una fase confirmadas| +| **cockroachdb.txn.condensed_intent_spans.count**
(count) | Transacciones KV que excedieron su presupuesto de memoria de seguimiento de intentos (kv.transaction.max_intents_bytes). Para obtener un indicador de las transacciones que se están ejecutando actualmente, consulta también txn.condensed_intent_spans_gauge.| +| **cockroachdb.txn.condensed_intent_spans_gauge**
(gauge) | Transacciones KV que se están ejecutando actualmente y que excedieron su presupuesto de memoria de seguimiento de intentos (kv.transaction.max_intents_bytes). Para un contador/una tasa perpetuos, consulta también txn.condensed_intent_spans.| +| **cockroachdb.txn.condensed_intent_spans_rejected.count**
(count) | Transacciones KV que se cancelaron porque excedieron su presupuesto de memoria de seguimiento de intentos (kv.transaction.max_intents_bytes). El rechazo lo provoca kv.transaction.reject_over_max_intents_budget.| +| **cockroachdb.txn.durations**
(gauge) | \[OpenMetrics v1\] Duración de las transacciones KV en nanosegundos| +| **cockroachdb.txn.durations.bucket**
(count) | \[OpenMetrics v2\] Duración de las transacciones KV en nanosegundos| +| **cockroachdb.txn.durations.count**
(count) | \[OpenMetrics v2\] Duración de las transacciones KV en nanosegundos| +| **cockroachdb.txn.durations.sum**
(count) | \[OpenMetrics v2\] Duración de las transacciones KV en nanosegundos| +| **cockroachdb.txn.parallelcommits.auto_retries.count**
(count) | Número de intentos de confirmación después de intentos de confirmación fallidos exitosos paralelos| +| **cockroachdb.txn.parallelcommits.count**
(count) | Número de intentos de confirmación paralelos de transacciones KV| +| **cockroachdb.txn.refresh.auto_retries.count**
(count) | Número de reintentos de solicitud luego de una actualización exitosa del cliente| +| **cockroachdb.txn.refresh.fail.count**
(count) | Número de actualizaciones de transacciones del lado del cliente fallidas| +| **cockroachdb.txn.refresh.fail_with_condensed_spans.count**
(count) | Número de actualizaciones de transacciones del lado del cliente fallidas, cuyo seguimiento de lectura perdió fidelidad debido a la condensación. Un fallo de este tipo podría ser un falso conflicto. Los fallos contabilizados aquí también se contabilizan en txn.refresh.fail, y las transacciones respectivas también se contabilizan en txn.refresh.memory_limit_exceeded.| +| **cockroachdb.txn.refresh.memory_limit_exceeded.count**
(count) | Número de transacciones que superan el límite de bytes de tramos de actualización, lo que provoca que se condensen sus intervalos de lectura| +| **cockroachdb.txn.refresh.success.count**
(count) | Número de actualizaciones de transacciones del lado del cliente exitosas. Una actualización puede ser preventiva o reactiva. Una actualización reactiva se realiza después de que una petición arroje un error porque se necesita una actualización para que tenga éxito. En estos casos, la solicitud será reemitida como un auto-reintento (ver txn.refresh.auto_retries) después de que la actualización tenga éxito.| +| **cockroachdb.txn.refresh.success_server_side.count**
(count) | Número de actualizaciones de transacciones del servidor exitosas| +| **cockroachdb.txn.restarts**
(gauge) | \[OpenMetrics v1\] Número de transacciones KV reiniciadas| +| **cockroachdb.txn.restarts.asyncwritefailure.count**
(count) | Número de reinicios debidos a escrituras consensuadas asíncronas que no consiguieron dejar intentos| +| **cockroachdb.txn.restarts.bucket**
(count) | \[OpenMetrics v2\] Número de transacciones KV reiniciadas| +| **cockroachdb.txn.restarts.commitdeadlineexceeded.count**
(count) | Número de reinicios debidos a que una transacción superó su límite de tiempo| +| **cockroachdb.txn.restarts.count**
(count) | \[OpenMetrics v2\] Número de transacciones KV reiniciadas| +| **cockroachdb.txn.restarts.deleterange**
(count) | \[OpenMetrics v1\] Número de reinicios debidos a una marca de tiempo de confirmación reenviada y a un comando DeleteRange| +| **cockroachdb.txn.restarts.deleterange.count**
(count) | \[OpenMetrics v2\] Número de reinicios debidos a una marca de tiempo de confirmación reenviada y a un comando DeleteRange| +| **cockroachdb.txn.restarts.possiblereplay**
(count) | \[OpenMetrics v1\] Número de reinicios debidos a posibles repeticiones de lotes de comandos en la capa de almacenamiento| +| **cockroachdb.txn.restarts.possiblereplay.count**
(count) | \[OpenMetrics v2\] Número de reinicios debidos a posibles repeticiones de lotes de comandos en la capa de almacenamiento| +| **cockroachdb.txn.restarts.readwithinuncertainty.count**
(count) | Número de reinicios debidos a la lectura de un nuevo valor dentro del intervalo de incertidumbre| +| **cockroachdb.txn.restarts.serializable**
(count) | \[OpenMetrics v1\] Número de reinicios debidos a una marca de tiempo de confirmación reenviada y a un aislamiento=SERIALIZABLE| +| **cockroachdb.txn.restarts.serializable.count**
(count) | \[OpenMetrics v2\] Número de reinicios debidos a una marca de tiempo de confirmación reenviada y a un aislamiento=SERIALIZABLE| +| **cockroachdb.txn.restarts.sum**
(count) | \[OpenMetrics v2\] Número de transacciones KV reiniciadas| +| **cockroachdb.txn.restarts.txnaborted.count**
(count) | Número de reinicios debidos a la cancelación de una transacción concurrente (normalmente debido a un bloqueo)| +| **cockroachdb.txn.restarts.txnpush.count**
(count) | Número de reinicios debidos a un fallo de envío de transacción| +| **cockroachdb.txn.restarts.unknown.count**
(count) | Número de reinicios por causas desconocidas| +| **cockroachdb.txn.restarts.writetooold**
(count) | \[OpenMetrics v1\] Número de reinicios debidos a que un escritor se confirmó primero| +| **cockroachdb.txn.restarts.writetooold.count**
(count) | \[OpenMetrics v2\] Número de reinicios debidos a que un escritor se confirmó primero| +| **cockroachdb.txn.restarts.writetoooldmulti.count**
(count) | Número de reinicios debidos a que varios escritores concurrentes se confirmaron primero| +| **cockroachdb.txn.rollbacks.async.failed.count**
(count) | Número de transacciones KV que no pudieron enviar cancelaciones de forma asíncrona y que no siempre se vuelven a intentar| +| **cockroachdb.txn.rollbacks.failed.count**
(count) | Número de transacciones KV que no pudieron enviar la cancelación final| +| **cockroachdb.txn.server_side.1PC.failure.count**
(count) | Número de lotes que intentaron confirmar utilizando 1PC y fallaron| +| **cockroachdb.txn.server_side.1PC.success.count**
(count) | Número de lotes que intentaron confirmar utilizando 1PC y lo consiguieron| +| **cockroachdb.txn.server_side_retry.read_evaluation.failure.count**
(count) | Número de lotes de lectura que no se actualizaron con éxito en el servidor| +| **cockroachdb.txn.server_side_retry.read_evaluation.success.count**
(count) | Número de lotes de lectura que se actualizaron con éxito en el servidor| +| **cockroachdb.txn.server_side_retry.uncertainty_interval_error.failure.count**
(count) | Número de lotes con errores de intervalo de incertidumbre que no se actualizaron con éxito en el servidor| +| **cockroachdb.txn.server_side_retry.uncertainty_interval_error.success.count**
(count) | Número de lotes con errores de intervalo de incertidumbre que se actualizaron correctamente en el servidor| +| **cockroachdb.txn.server_side_retry.write_evaluation.failure.count**
(count) | Número de lotes de escritura que no se actualizaron correctamente en el servidor| +| **cockroachdb.txn.server_side_retry.write_evaluation.success.count**
(count) | Número de lotes de escritura que se actualizaron correctamente en el servidor| +| **cockroachdb.txnrecovery.attempts.count**
(count) | Número de intentos de recuperación de transacciones ejecutados| +| **cockroachdb.txnrecovery.attempts.pending**
(gauge) | Número de intentos de recuperación de transacciones en curso| +| **cockroachdb.txnrecovery.failures.count**
(count) | Número de intentos de recuperación de transacciones fallidos| +| **cockroachdb.txnrecovery.successes.aborted.count**
(count) | Número de intentos de recuperación de transacciones que cancelaron una transacción| +| **cockroachdb.txnrecovery.successes.committed.count**
(count) | Número de intentos de recuperación de transacciones que confirmaron una transacción| +| **cockroachdb.txnrecovery.successes.pending.count**
(count) | Número de intentos de recuperación de transacciones que dejaron una transacción pendiente| +| **cockroachdb.txnwaitqueue.deadlocks.count**
(count) | Número de bloqueos detectados por la cola de espera de transacciones| +| **cockroachdb.txnwaitqueue.deadlocks_total.count**
(count) | Número de interbloqueos detectados por la cola de espera de transacciones| +| **cockroachdb.txnwaitqueue.pushee.waiting**
(gauge) | Número de empujadores en la cola de espera de transacciones| +| **cockroachdb.txnwaitqueue.pusher.slow**
(gauge) | Número total de casos en los que un empujador esperó más que el umbral de espera excesiva| +| **cockroachdb.txnwaitqueue.pusher.wait_time.bucket**
(count) | Histograma de las duraciones de permanencia en la cola de los empujadores
_Se muestra como nanosegundo_ | +| **cockroachdb.txnwaitqueue.pusher.wait_time.count**
(count) | Histograma de las duraciones de permanencia de los empujadores en la cola
_Se muestra como nanosegundo_ | +| **cockroachdb.txnwaitqueue.pusher.wait_time.sum**
(count) | Histograma de las duraciones de permanencia de los empujadores en la cola
_Se muestra como nanosegundo_ | +| **cockroachdb.txnwaitqueue.pusher.waiting**
(gauge) | Número de empujadores en la cola de espera de transacciones| +| **cockroachdb.txnwaitqueue.query.wait_time.bucket**
(count) | Histograma de las duraciones de permanencia de las consultas en la cola
_Se muestra como nanosegundo_ | +| **cockroachdb.txnwaitqueue.query.wait_time.count**
(count) | Histograma de las duraciones de permanencia de las consultas en la cola
_Se muestra como nanosegundo_ | +| **cockroachdb.txnwaitqueue.query.wait_time.sum**
(count) | Histograma de las duraciones de permanencia de las consultas en la cola
_Se muestra como nanosegundo_ | +| **cockroachdb.txnwaitqueue.query.waiting**
(gauge) | Número de consultas sobre el estado de las transacciones en espera de un registro de transacciones actualizado| +| **cockroachdb.valbytes**
(gauge) | \[OpenMetrics v1 y v2\] Número de bytes ocupados por los valores
_Se muestra como byte_ | +| **cockroachdb.valcount**
(gauge) | \[OpenMetrics v1 y v2\] Recuento de todos los valores| ### Checks de servicio -El check de CockroachDB no incluye checks de servicio. +**cockroachdb.openmetrics.health** + +Devuelve `CRITICAL` si el check no puede acceder al endpoint de métricas OpenMetrics de CockroachDB. + +_Estados: ok, crítico_ + +**cockroachdb.prometheus.health** + +Devuelve `CRITICAL` si el check no puede acceder al endpoint de métricas Prometheus de CockroachDB. + +_Estados: ok, crítico_ ### Eventos @@ -195,19 +2240,10 @@ El check de CockroachDB no incluye eventos. ## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][6]. +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). ## Referencias adicionales -Más enlaces, artículos y documentación útiles: - -- [Monitorizar métricas de rendimiento de CockroachDB con Datadog][7] - +Documentación útil adicional, enlaces y artículos: -[1]: https://www.cockroachlabs.com/product/cockroachdb -[2]: https://app.datadoghq.com/account/settings/agent/latest -[3]: https://docs.datadoghq.com/es/integrations/guide/versions-for-openmetrics-based-integrations -[4]: https://github.com/DataDog/integrations-core/blob/7.33.x/cockroachdb/datadog_checks/cockroachdb/data/conf.yaml.example -[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[6]: https://docs.datadoghq.com/es/help/ -[7]: https://www.datadoghq.com/blog/monitor-cockroachdb-performance-metrics-with-datadog \ No newline at end of file +- [Monitorizar métricas de rendimiento de CockroachDB con Datadog](https://www.datadoghq.com/blog/monitor-cockroachdb-performance-metrics-with-datadog) \ No newline at end of file diff --git a/content/es/integrations/consul.md b/content/es/integrations/consul.md index 1259ae4ec21d6..f1bcd6c68c6eb 100644 --- a/content/es/integrations/consul.md +++ b/content/es/integrations/consul.md @@ -1,38 +1,5 @@ --- app_id: consul -app_uuid: d0b52e9d-6594-4ff5-9b66-800943f75756 -assets: - dashboards: - consul: assets/dashboards/consul_overview.json - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: true - metrics: - check: consul.peers - metadata_path: metadata.csv - prefix: consul. - process_signatures: - - consul agent - - consul_agent - - consul-agent - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 122 - source_type_name: Consul - monitors: - consul service status: assets/monitors/consul_status.json - saved_views: - consul_errors: assets/saved_views/consul_errors.json - consul_overview: assets/saved_views/consul_overview.json - consul_processes: assets/saved_views/consul_processes.json -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - configuration & deployment - containers @@ -41,63 +8,36 @@ categories: - notifications - orchestration custom_kind: integración -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/consul/README.md -display_on_public_website: true -draft: false -git_integration_title: consul -integration_id: consul -integration_title: Consul -integration_version: 4.0.0 -is_public: true -manifest_version: 2.0.0 -name: consul -public_title: Consul -short_description: Alerta sobre los controles de estado de Consul, consulta las asignaciones - de servicio a nodo y mucho más. +description: Recibe alertas sobre los checks de estado de Consul, ve las asignaciones + de servicio a nodo y mucho más. more. +further_reading: +- link: https://docs.datadoghq.com/integrations/guide/hcp-consul + tag: documentación + text: Monitorización de HCP Cónsul con Datadog +- link: https://www.datadoghq.com/blog/monitor-consul-health-and-performance-with-datadog + tag: blog + text: Monitorización del estado y rendimiento de Consul con Datadog +- link: https://www.datadoghq.com/blog/engineering/consul-at-datadog/ + tag: blog + text: Consul en Datadog +- link: https://www.datadoghq.com/blog/consul-metrics/ + tag: blog + text: Métricas clave para la monitorización de Consul +- link: https://www.datadoghq.com/blog/consul-monitoring-tools/ + tag: blog + text: Herramientas de monitorización de Consul +- link: https://www.datadoghq.com/blog/consul-datadog/ + tag: blog + text: Cómo monitorizar Consul con Datadog +integration_version: 5.0.0 +media: [] supported_os: - linux - windows - macos -tile: - changelog: CHANGELOG.md - classifier_tags: - - Category::Configuración y despliegue - - Category::Contenedores - - Category::Recopilación de logs - - Category::Red - - Category::Notificaciones - - Category::Orquestación - - Supported OS::Linux - - Supported OS::Windows - - Supported OS::macOS - - Offering::integración - configuration: README.md#Configuración - description: Alerta sobre los controles de estado de Consul, consulta las asignaciones - de servicio a nodo y mucho más. - media: [] - overview: README.md#Información general - resources: - - resource_type: documentación - url: https://docs.datadoghq.com/integrations/guide/hcp-consul - - resource_type: blog - url: https://www.datadoghq.com/blog/monitor-consul-health-and-performance-with-datadog - - resource_type: blog - url: https://www.datadoghq.com/blog/engineering/consul-at-datadog/ - - resource_type: blog - url: https://www.datadoghq.com/blog/consul-metrics/ - - resource_type: blog - url: https://www.datadoghq.com/blog/consul-monitoring-tools/ - - resource_type: blog - url: https://www.datadoghq.com/blog/consul-datadog/ - support: README.md#Soporte - title: Consul +title: Consul --- - - - - -![Consul Dash][1] +![Panel de Consul](https://raw.githubusercontent.com/DataDog/integrations-core/master/consul/images/consul-dash.png) ## Información general @@ -114,7 +54,7 @@ El _Consul_ Agent puede proporcionar métricas adicionales con DogStatsD. Estas - Protocolo Raft - Rendimiento del DNS -Y mucho más. +Y muchos más. Por último, además de las métricas, el Datadog Agent también envía un check de servicio para cada uno de los checks de estado de Consul y un evento después de cada nueva elección de líder. @@ -122,20 +62,21 @@ Por último, además de las métricas, el Datadog Agent también envía un check ### Instalación -El check de Consul está incluido en el paquete del [Datadog Agent][2], por lo que no necesitas instalar nada más en tus nodos de Consul. +El check de Consul del Datadog Agent está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest), por lo que no necesitas instalar nada más en tus nodos de Consul. ### Configuración {{< tabs >}} + {{% tab "Host" %}} -#### Host +#### host Para configurar este check para un Agent que se ejecuta en un host: ##### Recopilación de métricas -1. Edita el archivo `consul.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][1] para empezar a recopilar tus métricas de Consul. Para ver todas las opciones disponibles de configuración, consulta el [ejemplo consul.d/conf.yaml][2]. +1. Edita el archivo `consul.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory) para comenzar a recopilar tus métricas de Consul. Consulta el [consul.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/consul/datadog_checks/consul/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. ```yaml init_config: @@ -149,7 +90,7 @@ Para configurar este check para un Agent que se ejecuta en un host: - url: http://localhost:8500 ``` -2. [Reinicia el Agent][3]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). ###### OpenMetrics @@ -157,44 +98,45 @@ Opcionalmente, puedes habilitar la opción de configuración `use_prometheus_end **Nota**: Utiliza el método DogStatsD o Prometheus; no habilites ambos para la misma instancia. -1. Configura Consul para exponer métricas al endpoint de Prometheus. Establece [`prometheus_retention_time`][4] anidado bajo la clave `telemetry` de nivel superior del archivo de configuración principal de Consul: +1. Configura Consul para exponer métricas al endpoint de Prometheus. Establece [`prometheus_retention_time`](https://www.consul.io/docs/agent/options#telemetry-prometheus_retention_time) anidado bajo la clave de nivel superior `telemetry` del archivo de configuración principal de Consul: - ```conf - { - ... - "telemetry": { - "prometheus_retention_time": "360h" - }, - ... - } - ``` + ```conf + { + ... + "telemetry": { + "prometheus_retention_time": "360h" + }, + ... + } + ``` + +1. Edita el archivo `consul.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory) para empezar a utilizar el endpoint de Prometheus. -2. Edita el archivo `consul.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent][1] para empezar a usar el endpoint de Prometheus. - ```yaml - instances: - - url: - use_prometheus_endpoint: true - ``` + ```yaml + instances: + - url: + use_prometheus_endpoint: true + ``` -3. [Reinicia el Agent][3]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). ##### DogStatsD -En lugar de utilizar el endpoint de Prometheus, puedes configurar Consul para enviar el mismo conjunto de métricas adicionales al Agent a través de [DogStatsD][5]. +En lugar de utilizar el endpoint de Prometheus, puedes configurar Consul para que envíe el mismo conjunto de métricas adicionales al Agent a través de [DogStatsD](https://docs.datadoghq.com/developers/dogstatsd/). 1. Configura Consul para enviar métricas de DogStatsD añadiendo `dogstatsd_addr` anidado bajo la clave `telemetry` de nivel superior en el archivo de configuración principal de Consul: - ```conf - { - ... - "telemetry": { - "dogstatsd_addr": "127.0.0.1:8125" - }, - ... - } - ``` + ```conf + { + ... + "telemetry": { + "dogstatsd_addr": "127.0.0.1:8125" + }, + ... + } + ``` -2. Actualiza el [archivo de configuración principal del Datadog Agent][6] `datadog.yaml` añadiendo las siguientes configuraciones para garantizar que las métricas estén etiquetadas correctamente: +1. Actualiza el [archivo de configuración principal del Datadog Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/) `datadog.yaml` añadiendo los siguientes ajustes para garantizar que las métricas se etiquetan correctamente: ```yaml # dogstatsd_mapper_cache_size: 1000 # default to 1000 @@ -225,11 +167,11 @@ En lugar de utilizar el endpoint de Prometheus, puedes configurar Consul para en peer_id: "$1" ``` -3. [Reinicia el Agent][3]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). ##### Recopilación de logs -_Disponible para la versión 6.0 o posteriores del Agent_ +_Disponible para las versiones 6.0 o posteriores del Agent_ 1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala en tu archivo `datadog.yaml` con: @@ -237,7 +179,7 @@ _Disponible para la versión 6.0 o posteriores del Agent_ logs_enabled: true ``` -2. Edita este bloque de configuración en tu archivo `consul.yaml` para recopilar logs de Consul: +1. Edita este bloque de configuración en tu archivo `consul.yaml` para recopilar logs de Consul: ```yaml logs: @@ -248,22 +190,17 @@ _Disponible para la versión 6.0 o posteriores del Agent_ ``` Cambia los valores de los parámetros `path` y `service` y configúralos para tu entorno. - Para conocer todas las opciones de configuración disponibles, consulta el [consul.d/conf.yaml de ejemplo][2]. + Consulta el [consul.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/consul/datadog_checks/consul/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. -3. [Reinicia el Agent][3]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). -[1]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/#agent-configuration-directory -[2]: https://github.com/DataDog/integrations-core/blob/master/consul/datadog_checks/consul/data/conf.yaml.example -[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[4]: https://www.consul.io/docs/agent/options#telemetry-prometheus_retention_time -[5]: https://docs.datadoghq.com/es/developers/dogstatsd/ -[6]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/ {{% /tab %}} -{{% tab "Contenedorizado" %}} -#### Contenedores +{{% tab "Containerized" %}} + +#### En contenedores -Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. +Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. ##### Recopilación de métricas @@ -275,23 +212,21 @@ Para entornos en contenedores, consulta las [plantillas de integración de Autod ##### Recopilación de logs -_Disponible para la versión 6.0 o posteriores del Agent_ +_Disponible para las versiones 6.0 o posteriores del Agent_ -La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta [Recopilación de logs de Kubernetes][2]. +La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/). | Parámetro | Valor | | -------------- | --------------------------------------------------- | | `` | `{"source": "consul", "service": ""}` | - -[1]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ -[2]: https://docs.datadoghq.com/es/agent/kubernetes/log/ {{% /tab %}} + {{< /tabs >}} ### Validación -[Ejecuta el subcomando de estado del Agent][3] y busca `consul` en la sección Checks. +[Ejecuta el subcomando de estado del Agent(https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `consul` en la sección Checks. **Nota**: Si tus nodos de Consul tienen habilitado el registro de depuración, el sondeo regular del Datadog Agent se muestra en el log de Consul: @@ -317,12 +252,165 @@ udp 0 0 127.0.0.1:53874 127.0.0.1:8125 ESTABLISHED ## Datos recopilados ### Métricas -{{< get-metrics-from-git "consul" >}} - -Consulta el [documento de telemetría del Consul][4] para obtener una descripción de las métricas que el Consul Agent envía a DogStatsD. - -Consulta el [documento de coordenadas de red de Consul][5] para obtener detalles sobre cómo se calculan las métricas de latencia de red. +| | | +| --- | --- | +| **consul.catalog.nodes_critical**
(gauge) | \[Integración\] El número de nodos registrados con estado de servicio `critical`
_Se muestra como nodo_ | +| **consul.catalog.nodes_passing**
(gauge) | \[Integración\] El número de nodos registrados con estado de servicio `passing`
_Se muestra como nodo_ | +| **consul.catalog.nodes_up**
(gauge) | \[Integración\] El número de nodos
_Se muestra como nodo_ | +| **consul.catalog.nodes_warning**
(gauge) | \[Integración\] El número de nodos registrados con estado de servicio `warning`
_Se muestra como nodo_ | +| **consul.catalog.services_count**
(gauge) | \[Integración\] Métrica para contar el número de servicios que coinciden con criterios como la etiqueta del servicio, el nombre del nodo o el estado. Se puede consultar mediante el agregador `sum by`.
_Se muestra como servicio_ | +| **consul.catalog.services_critical**
(gauge) | \[Integración\] Total de servicios críticos en los nodos
_Se muestra como servicio_ | +| **consul.catalog.services_passing**
(gauge) | \[Integración\] Total de servicios aprobados en los nodos
_Se muestra como servicio_ | +| **consul.catalog.services_up**
(gauge) | \[Integración\] Total de servicios registrados en los nodos
_Se muestra como servicio_ | +| **consul.catalog.services_warning**
(gauge) | \[Integración\] Total de servicios de alerta en los nodos
_Se muestra como servicio_ | +| **consul.catalog.total_nodes**
(gauge) | \[Integración\] El número de nodos registrados en el clúster de consul
_Se muestra como nodo_ | +| **consul.check.up**
(gauge) | Métrica que representa el estado de un check de servicio. Un valor de 0 = no disponible, 1 = aprobado, 2 = advertencia, 3 = crítico.| +| **consul.client.rpc**
(count) | \[DogStatsD\] \[Prometheus\] Se incrementa cada vez que un agente de Consul en modo cliente hace una solicitud RPC a un servidor de Consul. Esto da una medida de cuánto está cargando un agent dado los servidores de Consul. Esto solo lo generan los agents en modo cliente, no los servidores de Consul.
_Se muestra como solicitud_ | +| **consul.client.rpc.failed**
(count) | \[DogStatsD\] \[Prometheus\] Se incrementa cada vez que un agente de Consul en modo cliente realiza una solicitud RPC a un servidor de Consul y falla
_Se muestra como solicitud_ | +| **consul.http.request**
(gauge) | \[DogStatsD\] Realiza un seguimiento de cuánto tiempo se tarda en atender la solicitud HTTP dada para el verbo y la ruta dados. Usando un asignador DogStatsD como se describe en el README, las rutas se asignan a etiquetas y no incluyen detalles como nombres de servicio o clave. Para estas rutas, un guión bajo está presente como parámetro, por ejemplo: `http_method:GET, path:v1.kv._)`
_Se muestra como milisegundo_ | +| **consul.http.request.count**
(count) | \[Prometheus\] Un recuento de cuánto tiempo se tarda en atender la solicitud HTTP dada para el verbo y la ruta dados. Incluye etiquetas para ruta y método. La ruta no incluye detalles como nombres de servicio o clave. Para estas rutas, un guión bajo está presente como parámetro, por ejemplo: `path=v1.kv._)`
_Se muestra como milisegundo_ | +| **consul.http.request.quantile**
(gauge) | \[Prometheus\] Un cuantil de cuánto tiempo se tarda en atender la solicitud HTTP dada para el verbo y la ruta dados. Incluye etiquetas para ruta y método. La ruta no incluye detalles como nombres de servicio o clave. Para estas rutas, hay un guión bajo como parámetro, por ejemplo: `path=v1.kv._)`
_Se muestra como milisegundo_ | +| **consul.http.request.sum**
(count) | \[Prometheus\] La suma de lo que se tarda en atender la solicitud HTTP dada para el verbo y la ruta dados. Incluye etiquetas para ruta y método. La ruta no incluye detalles como nombres de servicio o clave. Para estas rutas, un guión bajo está presente como parámetro, por ejemplo: `path=v1.kv._)`
_Se muestra como milisegundo_ | +| **consul.memberlist.degraded.probe**
(gauge) | \[DogStatsD\] \[Prometheus\] Esta métrica cuenta el número de veces que el agent de Consul ha realizado la detección de fallos en otro agent a una velocidad de sonda más lenta. El agent utiliza su propia métrica de estado como indicador para realizar esta acción. Si su puntuación de estado es baja, significa que el nodo está en buen estado, y viceversa.| +| **consul.memberlist.gossip.95percentile**
(gauge) | \[DogStatsD\] El p95 para el número de chismes (mensajes) emitidos a un conjunto de nodos seleccionados aleatoriamente.
_Se muestra como mensaje_ | +| **consul.memberlist.gossip.avg**
(gauge) | \[DogStatsD\] Promedio del número de chismes (mensajes) emitidos a un conjunto de nodos seleccionados aleatoriamente.
_Se muestra como mensaje_ | +| **consul.memberlist.gossip.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de consul.memberlist.gossip| +| **consul.memberlist.gossip.max**
(gauge) | \[DogStatsD\] El máximo para el número de chismes (mensajes) difundidos a un conjunto de nodos seleccionados al azar.
_Se muestra como mensaje_ | +| **consul.memberlist.gossip.median**
(gauge) | \[DogStatsD\] La mediana del número de chismes (mensajes) emitidos a un conjunto de nodos seleccionados aleatoriamente.
_Se muestra como mensaje_ | +| **consul.memberlist.gossip.quantile**
(gauge) | \[Prometheus\] El cuantil del número de chismes (mensajes) emitidos a un conjunto de nodos seleccionados aleatoriamente.
_Se muestra como mensaje_ | +| **consul.memberlist.gossip.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma del número de chismes (mensajes) emitidos a un conjunto de nodos seleccionados aleatoriamente.
_Se muestra como mensaje_ | +| **consul.memberlist.health.score**
(gauge) | \[DogStatsD\] \[Prometheus\] Esta métrica describe la percepción de un nodo de su propio estado basado en lo bien que está cumpliendo los requisitos de tiempo real poco restrictivos del protocolo. Esta métrica va de 0 a 8, donde 0 indica "totalmente en buen estado". Para más detalles, consulta la sección IV del documento de Lifeguard: https://arxiv.org/pdf/1707.00788.pdf| +| **consul.memberlist.msg.alive**
(count) | \[DogStatsD\] \[Prometheus\] Esta métrica cuenta el número de agents de Consul activos, que el agent ha asignado hasta el momento, basándose en la información de mensajes dada por la capa de red.| +| **consul.memberlist.msg.dead**
(count) | \[DogStatsD\] \[Prometheus\] Esta métrica cuenta el número de veces que un agent de Consul ha marcado a otro agente como nodo apagado.
_Se muestra como mensaje_ | +| **consul.memberlist.msg.suspect**
(count) | \[DogStatsD\] \[Prometheus\] El número de veces que un agent de Consul sospecha que otro ha fallado mientras sondea durante el protocolo de gossip.| +| **consul.memberlist.probenode.95percentile**
(gauge) | \[DogStatsD\] El p95 para el tiempo que se tarda en realizar una sola ronda de detección de fallos en un agent selecto de Consul.
_Se muestra como nodo_ | +| **consul.memberlist.probenode.avg**
(gauge) | \[DogStatsD\] Promedio del tiempo necesario para realizar una sola ronda de detección de fallos en un agent seleccionado de Consul.
_Se muestra como nodo_ | +| **consul.memberlist.probenode.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de consul.memberlist.probenode| +| **consul.memberlist.probenode.max**
(gauge) | \[DogStatsD\] El máximo para el tiempo que se tarda en realizar una sola ronda de detección de fallos en un agent selecto de Consul.
_Se muestra como nodo_ | +| **consul.memberlist.probenode.median**
(gauge) | \[DogStatsD\] La mediana del tiempo que se tarda en realizar una sola ronda de detección de fallos en un agent seleccionado de Consul.
_Se muestra como nodo_ | +| **consul.memberlist.probenode.quantile**
(gauge) | \[Prometheus\] El cuantil del tiempo necesario para realizar una única ronda de detección de fallos en un agent de Consul seleccionado.
_Se muestra como nodo_ | +| **consul.memberlist.probenode.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma del tiempo necesario para realizar una sola ronda de detección de fallos en un agent de Consul seleccionado.
_Se muestra como nodo_ | +| **consul.memberlist.pushpullnode.95percentile**
(gauge) | \[DogStatsD\] El p95 para el número de agents de Consul que han intercambiado estado con este agent.
_Se muestra como nodo_ | +| **consul.memberlist.pushpullnode.avg**
(gauge) | \[DogStatsD\] La media del número de agents de Consul que han intercambiado estado con este agent.
_Se muestra como nodo_ | +| **consul.memberlist.pushpullnode.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de consul.memberlist.pushpullnode| +| **consul.memberlist.pushpullnode.max**
(gauge) | \[DogStatsD\] El máximo para el número de agents de Consul que han intercambiado estado con este agent.
_Se muestra como nodo_ | +| **consul.memberlist.pushpullnode.median**
(gauge) | \[DogStatsD\] La mediana del número de agents de Consul que han intercambiado estado con este agent.
_Se muestra como nodo_ | +| **consul.memberlist.pushpullnode.quantile**
(gauge) | \[Prometheus\] El cuantil para el número de agents de Consul que han intercambiado estado con este agent.| +| **consul.memberlist.pushpullnode.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma del número de agents de Consul que han intercambiado estado con este agent.| +| **consul.memberlist.tcp.accept**
(count) | \[DogStatsD\] \[Prometheus\] Esta métrica cuenta el número de veces que un agent de Consul ha aceptado una conexión de flujo TCP entrante.
_Se muestra como conexión_ | +| **consul.memberlist.tcp.connect**
(count) | \[DogStatsD\] \[Prometheus\] Esta métrica cuenta el número de veces que un agent de Consul ha iniciado una sincronización push/pull con otro agent.
_Se muestra como conexión_ | +| **consul.memberlist.tcp.sent**
(count) | \[DogStatsD\] \[Prometheus\] Esta métrica mide el número total de bytes enviados por un agent de Consul a través del protocolo TCP
_Se muestra como byte_ | +| **consul.memberlist.udp.received**
(count) | \[DogStatsD\] \[Prometheus\] Esta métrica mide el número total de bytes enviados/recibidos por un agent de Consul a través del protocolo UDP.
_Se muestra como byte_ | +| **consul.memberlist.udp.sent**
(count) | \[DogStatsD\] \[Prometheus\] Esta métrica mide el número total de bytes enviados/recibidos por un agent de Consul a través del protocolo UDP.
_Se muestra como byte_ | +| **consul.net.node.latency.max**
(gauge) | \[Integration\] Latencia máxima desde este nodo a todos los demás
_Se muestra en milisegundos_ | +| **consul.net.node.latency.median**
(gauge) | \[Integration\] Mediana de latencia desde este nodo a todos los demás
_Se muestra en milisegundos_ | +| **consul.net.node.latency.min**
(gauge) | \[Integration\] Latencia mínima desde este nodo a todos los demás
_Se muestra en milisegundos_ | +| **consul.net.node.latency.p25**
(gauge) | \[Integración\] Latencia P25 desde este nodo a todos los demás
_Se muestra en milisegundos_ | +| **consul.net.node.latency.p75**
(gauge) | \[Integración\] Latencia P75 desde este nodo a todos los demás
_Se muestra en milisegundos_ | +| **consul.net.node.latency.p90**
(gauge) | \[Integración\] Latencia P90 desde este nodo a todos los demás
_Se muestra en milisegundos_ | +| **consul.net.node.latency.p95**
(gauge) | \[Integración\] Latencia P95 desde este nodo a todos los demás
_Se muestra en milisegundos_ | +| **consul.net.node.latency.p99**
(gauge) | \[Integración\] Latencia P99 desde este nodo a todos los demás
_Se muestra en milisegundos_ | +| **consul.peers**
(gauge) | \[Integración\] El número de pares en el conjunto de pares| +| **consul.raft.apply**
(count) | \[DogStatsD\] \[Prometheus\] El número de transacciones de raft que se producen
_Se muestra como transacción_ | +| **consul.raft.commitTime.95percentile**
(gauge) | \[DogStatsD\] El tiempo p95 que tarda en confirmarse una nueva entrada en el log de raft en el líder
_Se muestra como milisegundo_ | +| **consul.raft.commitTime.avg**
(gauge) | \[DogStatsD\] El tiempo medio que se tarda en consignar una nueva entrada en el log de raft en el líder
_Se muestra como milisegundo_ | +| **consul.raft.commitTime.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de raft.commitTime| +| **consul.raft.commitTime.max**
(gauge) | \[DogStatsD\] El tiempo máximo que se tarda en confirmar una nueva entrada en el log de raft en el líder
_Se muestra como milisegundo_ | +| **consul.raft.commitTime.median**
(gauge) | \[DogStatsD\] La mediana del tiempo que se tarda en consignar una nueva entrada en el log de raft en el líder
_Se muestra como milisegundo_ | +| **consul.raft.commitTime.quantile**
(gauge) | \[Prometheus\] El cuantil de tiempo que se tarda en consignar una nueva entrada al log de raft en el líder
_Se muestra como milisegundo_ | +| **consul.raft.commitTime.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma del tiempo que se tarda en consignar una nueva entrada al log de raft en el líder
_Se muestra como milisegundo_ | +| **consul.raft.leader.dispatchLog.95percentile**
(gauge) | \[DogStatsD\] El tiempo p95 que tarda el líder en escribir entradas de log en el disco
_Se muestra en milisegundos_ | +| **consul.raft.leader.dispatchLog.avg**
(gauge) | \[DogStatsD\] El tiempo medio que tarda el líder en escribir entradas de log en el disco
_Se muestra en milisegundos_ | +| **consul.raft.leader.dispatchLog.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de raft.leader.dispatchLog| +| **consul.raft.leader.dispatchLog.max**
(gauge) | \[DogStatsD\] El tiempo máximo que tarda el líder en escribir entradas de log en el disco
_Se muestra como milisegundo_ | +| **consul.raft.leader.dispatchLog.median**
(gauge) | \[DogStatsD\] El tiempo medio que tarda el líder en escribir entradas de log en el disco
_Se muestra en milisegundos_ | +| **consul.raft.leader.dispatchLog.quantile**
(gauge) | \[Prometheus\] El cuantil de tiempo que tarda el líder en escribir entradas de log en el disco
_Se muestra como milisegundo_ | +| **consul.raft.leader.dispatchLog.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma del tiempo que tarda el líder en escribir entradas de log en el disco
_Se muestra como milisegundo_ | +| **consul.raft.leader.lastContact.95percentile**
(gauge) | \[DogStatsD\] El tiempo p95 transcurrido desde la última vez que el líder pudo comprobar su contrato con los seguidores
_Se muestra en milisegundos_ | +| **consul.raft.leader.lastContact.avg**
(gauge) | \[DogStatsD\] Tiempo medio transcurrido desde la última vez que el líder pudo comprobar su contrato con los seguidores
_Se muestra en milisegundos_ | +| **consul.raft.leader.lastContact.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de raft.leader.lastContact| +| **consul.raft.leader.lastContact.max**
(gauge) | \[DogStatsD\] Tiempo máximo transcurrido desde la última vez que el líder pudo comprobar su contrato con los seguidores
_Se muestra en milisegundos_ | +| **consul.raft.leader.lastContact.median**
(gauge) | \[DogStatsD\] La mediana del tiempo transcurrido desde que el líder pudo comprobar por última vez su contrato con los seguidores
_Se muestra en milisegundos_ | +| **consul.raft.leader.lastContact.quantile**
(gauge) | \[Prometheus\] El cuantil de tiempo transcurrido desde la última vez que el líder pudo comprobar su contrato con los seguidores
_Se muestra como milisegundo_ | +| **consul.raft.leader.lastContact.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma del tiempo transcurrido desde la última vez que el líder pudo comprobar su contrato con los seguidores
_Se muestra en milisegundos_ | +| **consul.raft.replication.appendEntries.logs**
(count) | \[DogStatsD\] \[Prometheus\] Mide el número de logs replicados a un agente, para acercarlo a los logs del líder.
_Se muestra como entrada_ | +| **consul.raft.replication.appendEntries.rpc.count**
(count) | \[DogStatsD\] \[Prometheus\] El tiempo que tarda el RFC de append entries en replicar las entradas de log de un agent líder en su(s) agent(s) seguidor(es)
_Se muestra en milisegundos_ | +| **consul.raft.replication.appendEntries.rpc.quantile**
(gauge) | \[Prometheus\] El cuantil que tarda el RFC de append entries en replicar las entradas de log de un agent líder en su(s) agent(s) seguidor(es)
_Se muestra en milisegundos_ | +| **consul.raft.replication.appendEntries.rpc.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma el tiempo que tarda el RFC de append entries en replicar las entradas de log de un agent líder en su(s) agent(s) seguidor(es)
_Se muestra como milisegundo_ | +| **consul.raft.replication.heartbeat.count**
(count) | \[DogStatsD\] \[Prometheus\] Cuenta el tiempo que se tarda en invocar appendEntries en un par.
_Se muestra como milisegundo_ | +| **consul.raft.replication.heartbeat.quantile**
(gauge) | \[Prometheus\] El cuantil del tiempo necesario para invocar appendEntries en un par.
_Se muestra como milisegundo_ | +| **consul.raft.replication.heartbeat.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma del tiempo empleado en invocar appendEntries en un par.
_Se muestra como milisegundo_ | +| **consul.raft.state.candidate**
(count) | \[DogStatsD\] \[Prometheus\]El número de elecciones de líderes iniciados
_Se muestra como evento_ | +| **consul.raft.state.leader**
(count) | \[DogStatsD\] \[Prometheus\] El número de elecciones de líderes completadas
_Se muestra como evento_ | +| **consul.runtime.gc_pause_ns.95percentile**
(gauge) | \[DogStatsD\] El p95 para el número de nanosegundos consumidos por las pausas de recolección de elementos no usados (GC) desde que se inició Consul.
_Se muestra como nanosegundo_ | +| **consul.runtime.gc_pause_ns.avg**
(gauge) | \[DogStatsD\] Promedio del número de nanosegundos consumidos por las pausas de recolección de elementos no usados (GC) desde que se inició Consul.
_Se muestra como nanosegundo_ | +| **consul.runtime.gc_pause_ns.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de consul.runtime.gc_pause_ns| +| **consul.runtime.gc_pause_ns.max**
(gauge) | \[DogStatsD\] Máximo número de nanosegundos consumidos por pausas de recolección de elementos no usados (GC) desde que se inició Consul.
_Se muestra como nanosegundos_ | +| **consul.runtime.gc_pause_ns.median**
(gauge) | \[DogStatsD\] La mediana del número de nanosegundos consumidos por las pausas de recolección de elementos no usados (GC) desde que se inició Consul.
_Se muestra como nanosegundos_ | +| **consul.runtime.gc_pause_ns.quantile**
(gauge) | \[Prometheus\] El cuantil de nanosegundos consumidos por las pausas de recolección de elementos no usados (GC) desde que se inició Consul.
_Se muestra como nanosegundos_ | +| **consul.runtime.gc_pause_ns.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma de nanosegundos consumidos por las pausas de recolección de elementos no usados (GC) desde que se inició Consul.
_Se muestra como nanosegundo_ | +| **consul.serf.coordinate.adjustment_ms.95percentile**
(gauge) | \[DogStatsD\] El p95 en milisegundos para el ajuste de coordenadas del nodo
_Se muestra como milisegundo_ | +| **consul.serf.coordinate.adjustment_ms.avg**
(gauge) | \[DogStatsD\] La media en milisegundos para el ajuste de coordenadas del nodo
_Se muestra como milisegundo_ | +| **consul.serf.coordinate.adjustment_ms.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de consul.serf.coordinate.adjustment_ms| +| **consul.serf.coordinate.adjustment_ms.max**
(gauge) | \[DogStatsD\] El máximo en milisegundos para el ajuste de coordenadas del nodo
_Se muestra como milisegundo_ | +| **consul.serf.coordinate.adjustment_ms.median**
(gauge) | \[DogStatsD\] La mediana en milisegundos para el ajuste de coordenadas del nodo
_Se muestra como milisegundo_ | +| **consul.serf.coordinate.adjustment_ms.quantile**
(gauge) | \[Prometheus\] El cuantil en milisegundos para el ajuste de coordenadas del nodo
_Se muestra como milisegundo_ | +| **consul.serf.coordinate.adjustment_ms.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma en milisegundos para el ajuste de coordenadas del nodo
_Se muestra como milisegundo_ | +| **consul.serf.events**
(count) | \[DogStatsD\] \[Prometheus\] Esto se incrementa cuando un agent de Consul procesa un evento serf
_Se muestra como evento_ | +| **consul.serf.member.failed**
(count) | \[DogStatsD\] \[Prometheus\] Se incrementa cuando un agent de Consul se marca como eliminado. Esto puede ser un indicador de agents sobrecargados, problemas de red o errores de configuración donde los agents no pueden conectarse entre sí en los puertos requeridos.| +| **consul.serf.member.flap**
(count) | \[DogStatsD\] \[Prometheus\] Número de veces que un agent de Consul es marcado como eliminado y luego se recupera rápidamente.| +| **consul.serf.member.join**
(count) | \[DogStatsD\] \[Prometheus\] Se incrementa cuando un agent de Consul procesa un evento de unión
_Se muestra como evento_ | +| **consul.serf.member.left**
(count) | \[DogStatsD\] \[Prometheus\] Se incrementa cuando un agent de Consul abandona el clúster.| +| **consul.serf.member.update**
(count) | \[DogStatsD\] \[Prometheus\] Esto se incrementa cuando un agent de Consul se actualiza.| +| **consul.serf.msgs.received.95percentile**
(gauge) | \[DogStatsD\] El p95 para el número de mensajes serf recibidos
_Se muestra como mensaje_ | +| **consul.serf.msgs.received.avg**
(gauge) | \[DogStatsD\] La media del número de mensajes serf recibidos
_Se muestra como mensaje_ | +| **consul.serf.msgs.received.count**
(count) | \[DogStatsD\] \[Prometheus\] El recuento de mensajes serf recibido| +| **consul.serf.msgs.received.max**
(gauge) | \[DogStatsD\] El máximo de mensajes serf recibidos
_Se muestra como mensaje_ | +| **consul.serf.msgs.received.median**
(gauge) | \[DogStatsD\] La mediana del número de mensajes serf recibidos
_Se muestra como mensaje_ | +| **consul.serf.msgs.received.quantile**
(gauge) | \[Prometheus\] El cuantil para el número de mensajes serf recibido
_Se muestra como mensaje_ | +| **consul.serf.msgs.received.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma para el número de mensajes serf recibidos
_Se muestra como mensaje_ | +| **consul.serf.msgs.sent.95percentile**
(gauge) | \[DogStatsD\] El p95 para el número de mensajes serf enviados
_Se muestra como mensaje_ | +| **consul.serf.msgs.sent.avg**
(gauge) | \[DogStatsD\] La media del número de mensajes serf enviados
_Se muestra como mensaje_ | +| **consul.serf.msgs.sent.count**
(count) | \[DogStatsD\] \[Prometheus\] El recuento de mensajes serf enviados| +| **consul.serf.msgs.sent.max**
(gauge) | \[DogStatsD\] El máximo para el número de mensajes serf enviados
_Se muestra como mensaje_ | +| **consul.serf.msgs.sent.median**
(gauge) | \[DogStatsD\] La mediana del número de mensajes serf enviados
_Se muestra como mensaje_ | +| **consul.serf.msgs.sent.quantile**
(gauge) | \[Prometheus\] El cuantil para el número de mensajes serf enviados
_Se muestra como mensaje_ | +| **consul.serf.msgs.sent.sum**
(count) | \[DogStatsD\] \[Prometheus\] La suma del número de mensajes serf enviados
_Se muestra como mensaje_ | +| **consul.serf.queue.event.95percentile**
(gauge) | \[DogStatsD\] El p95 para el tamaño de la cola de eventos serf| +| **consul.serf.queue.event.avg**
(gauge) | \[DogStatsD\] El tamaño medio de la cola de eventos serf| +| **consul.serf.queue.event.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de elementos en la cola de eventos serf.| +| **consul.serf.queue.event.max**
(gauge) | \[DogStatsD\] El tamaño máximo de la cola de eventos serf.| +| **consul.serf.queue.event.median**
(gauge) | \[DogStatsD\] El tamaño medio de la cola de eventos serf| +| **consul.serf.queue.event.quantile**
(gauge) | \[Prometheus\] El cuantil para el tamaño de la cola de eventos serf.| +| **consul.serf.queue.intent.95percentile**
(gauge) | \[DogStatsD\] El p95 para el tamaño de la cola de intento de serf| +| **consul.serf.queue.intent.avg**
(gauge) | \[DogStatsD\] Tamaño medio de la cola de intentos de serf| +| **consul.serf.queue.intent.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de elementos en la cola de intentos de serf.| +| **consul.serf.queue.intent.max**
(gauge) | \[DogStatsD\] Tamaño máximo de la cola de intentos de serf| +| **consul.serf.queue.intent.median**
(gauge) | \[DogStatsD\] El tamaño medio de la cola de intento de serf| +| **consul.serf.queue.intent.quantile**
(gauge) | \[Prometheus\] El cuantil para el tamaño de la cola de intentos de serf.| +| **consul.serf.queue.query.95percentile**
(gauge) | \[DogStatsD\] El p95 para el tamaño de la cola de consulta de serf| +| **consul.serf.queue.query.avg**
(gauge) | \[DogStatsD\] El tamaño medio de la cola de consultas de serf| +| **consul.serf.queue.query.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de elementos en la cola de consulta de serf| +| **consul.serf.queue.query.max**
(gauge) | \[DogStatsD\] El tamaño máximo de la cola de consulta de serf.| +| **consul.serf.queue.query.median**
(gauge) | \[DogStatsD\] El tamaño medio de la cola de consultas de serf| +| **consul.serf.queue.query.quantile**
(gauge) | \[Prometheus\] El cuantil para el tamaño de la cola de consulta de serf| +| **consul.serf.snapshot.appendline.95percentile**
(gauge) | \[DogStatsD\] El p95 del tiempo que tarda el agent de Consul en añadir una entrada en el log existente.
_Se muestra como milisegundo_ | +| **consul.serf.snapshot.appendline.avg**
(gauge) | \[DogStatsD\] Promedio del tiempo que tarda el agent de Consul en añadir una entrada al log existente.
_Se muestra en milisegundos_ | +| **consul.serf.snapshot.appendline.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de consul.serf.snapshot.appendline| +| **consul.serf.snapshot.appendline.max**
(gauge) | \[DogStatsD\] El tiempo máximo que tarda el agent de Consul en añadir una entrada al log existente.
_Se muestra en milisegundos_ | +| **consul.serf.snapshot.appendline.median**
(gauge) | \[DogStatsD\] La mediana del tiempo que tarda el agent de Consul en añadir una entrada al log existente.
_Se muestra en milisegundos_ | +| **consul.serf.snapshot.appendline.quantile**
(gauge) | \[Prometheus\] El cuantil del tiempo que tarda el agent de Consul en añadir una entrada en el log existente.
_Se muestra como milisegundo_ | +| **consul.serf.snapshot.compact.95percentile**
(gauge) | \[DogStatsD\] El p95 del tiempo que tarda el agent de Consul en compactar un log. Esta operación solo se produce cuando el snapshot se hace lo suficientemente grande como para justificar la compactación.
_Se muestra como milisegundo_ | +| **consul.serf.snapshot.compact.avg**
(gauge) | \[DogStatsD\] Promedio del tiempo que tarda el agent de Consul en compactar un log. Esta operación solo se produce cuando el snapshot es lo suficientemente grande como para justificar la compactación.
_Se muestra en milisegundos_ | +| **consul.serf.snapshot.compact.count**
(count) | \[DogStatsD\] \[Prometheus\] El número de muestras de consul.serf.snapshot.compact| +| **consul.serf.snapshot.compact.max**
(gauge) | \[DogStatsD\] El tiempo máximo que tarda el agent de Consul en compactar un log. Esta operación solo se produce cuando el snapshot es lo suficientemente grande como para justificar la compactación.
_Se muestra como milisegundos_ | +| **consul.serf.snapshot.compact.median**
(gauge) | \[DogStatsD\] La mediana del tiempo que tarda el agent de Consul en compactar un log. Esta operación solo se produce cuando el snapshot es lo suficientemente grande como para justificar la compactación.
_Se muestra como milisegundos_ | +| **consul.serf.snapshot.compact.quantile**
(gauge) | \[Prometheus\] El cuantil del tiempo que tarda el agent de Consul en compactar un log. Esta operación solo se produce cuando el snapshot se hace lo suficientemente grande como para justificar la compactación.
_Se muestra como milisegundos_ | + +Consulta el [socumento de telemetría de Consul](https://www.consul.io/docs/agent/telemetry.html) para una descripción de las métricas que el Agent de Consul envía a DogStatsD. + +Consulta el [documento de coordenadas de red de Consul](https://www.consul.io/docs/internals/coordinates.html) para más detalles sobre cómo se calculan las métricas de latencia de red. ### Eventos @@ -330,36 +418,43 @@ Consulta el [documento de coordenadas de red de Consul][5] para obtener detalles El Datadog Agent emite un evento cuando el clúster de Consul elige un nuevo líder y lo etiqueta con `prev_consul_leader`, `curr_consul_leader` y `consul_datacenter`. ### Checks de servicio -{{< get-service-checks-from-git "consul" >}} +**consul.check** + +Devuelve OK si el servicio está activo, WARNING si hay algún problema y CRITICAL cuando está caído. + +_Estados: ok, warning, critical, unknown_ + +**consul.up** + +Devuelve OK si el servidor consul está activo, CRITICAL en caso contrario. + +_Estados: ok, critical_ + +**consul.can_connect** + +Devuelve OK si el Agent puede realizar solicitudes HTTP a consul, CRITICAL en caso contrario. + +_Estados: ok, critical_ + +**consul.prometheus.health** + +Devuelve `CRITICAL` si el check no puede acceder al endpoint de métricas; en caso contrario, devuelve `OK`. + +_Estados: ok, critical_ ## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][6]. +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). ## Referencias adicionales -Más enlaces, artículos y documentación útiles: - -- [Monitorización de HCP Consul con Datadog][7] -- [Monitorizar el estado y el rendimiento de Consul con Datadog][8] -- [Consul en Datadog][9] -- [Métricas clave para monitorizar Consul][10] -- [Herramientas de monitorización de Consul][11] -- [Cómo monitorizar Consul con Datadog][12] -- [Datadog NPM ya es compatible con la red Consul][13] - - -[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/consul/images/consul-dash.png -[2]: https://app.datadoghq.com/account/settings/agent/latest -[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[4]: https://www.consul.io/docs/agent/telemetry.html -[5]: https://www.consul.io/docs/internals/coordinates.html -[6]: https://docs.datadoghq.com/es/help/ -[7]: https://docs.datadoghq.com/es/integrations/guide/hcp-consul -[8]: https://www.datadoghq.com/blog/monitor-consul-health-and-performance-with-datadog -[9]: https://engineering.datadoghq.com/consul-at-datadog -[10]: https://www.datadoghq.com/blog/consul-metrics/ -[11]: https://www.datadoghq.com/blog/consul-monitoring-tools/ -[12]: https://www.datadoghq.com/blog/consul-datadog/ -[13]: https://www.datadoghq.com/blog/monitor-consul-with-datadog-npm/ \ No newline at end of file +Documentación útil adicional, enlaces y artículos: + +- [Monitorización de HCP Consulta con Datadog](https://docs.datadoghq.com/integrations/guide/hcp-consul) +- [Monitorización del estado y rendimiento de Consul con Datadog](https://www.datadoghq.com/blog/monitor-consul-health-and-performance-with-datadog) +- [Consul en Datadog](https://engineering.datadoghq.com/consul-at-datadog) +- [Métricas clave para la monitorización de Consul](https://www.datadoghq.com/blog/consul-metrics/) +- [Herramientas de monitorización de Consul](https://www.datadoghq.com/blog/consul-monitoring-tools/) +- [Cómo monitorizar Consul con Datadog](https://www.datadoghq.com/blog/consul-datadog/) +- [Datadog CNM ahora admite la red de Consul](https://www.datadoghq.com/blog/monitor-consul-with-datadog-npm/) \ No newline at end of file diff --git a/content/es/integrations/coredns.md b/content/es/integrations/coredns.md index 4d6ece5ba0702..35a3bd61d5119 100644 --- a/content/es/integrations/coredns.md +++ b/content/es/integrations/coredns.md @@ -1,37 +1,5 @@ --- app_id: coredns -app_uuid: b613759e-89ca-4d98-a2c1-4d465c42e413 -assets: - dashboards: - CoreDNS: assets/dashboards/coredns.json - CoreDNS [V2]: assets/dashboards/coredns_v2.json - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - metrics: - check: - - coredns.request_count - - coredns.request_count.count - - coredns.build_info - metadata_path: metadata.csv - prefix: coredns. - process_signatures: - - coredns - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10038 - source_type_name: CoreDNS - monitors: - Cache hits count is low: assets/monitors/coredns_cache_hits_low.json - Request duration is high: assets/monitors/coredns_request_duration_high.json -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - almacenamiento en caché - contenedores @@ -39,76 +7,52 @@ categories: - recopilación de logs - la red custom_kind: integración -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/coredns/README.md -display_on_public_website: true -draft: false -git_integration_title: coredns -integration_id: coredns -integration_title: CoreDNS -integration_version: 5.1.0 -is_public: true -manifest_version: 2.0.0 -name: coredns -public_title: CoreDNS -short_description: CoreDNS recopila métricas de DNS en Kubernetes. +description: CoreDNS recopila métricas de DNS en Kubernetes. +further_reading: +- link: https://www.datadoghq.com/blog/coredns-metrics/ + tag: blog + text: Métricas clave para la monitorización de CoreDNS +- link: https://www.datadoghq.com/blog/coredns-monitoring-tools/ + tag: blog + text: Herramientas para recopilar métricas y logs de CoreDNS +- link: https://www.datadoghq.com/blog/monitoring-coredns-with-datadog/ + tag: blog + text: Cómo monitorizar CoreDNS con Datadog +integration_version: 6.0.0 +media: [] supported_os: - Linux -tile: - changelog: CHANGELOG.md - classifier_tags: - - Categoría::Almacenamiento en caché - - Categoría::Contenedores - - Categoría::Kubernetes - - Categoría::Recopilación de logs - - Categoría::Red - - Sistema operativo compatible::Linux - - Oferta::Integración - configuration: README.md#Configuración - description: CoreDNS recopila métricas de DNS en Kubernetes. - media: [] - overview: README.md#Información general - resources: - - resource_type: Blog - url: https://www.datadoghq.com/blog/coredns-metrics/ - - resource_type: Blog - url: https://www.datadoghq.com/blog/coredns-monitoring-tools/ - - resource_type: Blog - url: https://www.datadoghq.com/blog/monitoring-coredns-with-datadog/ - support: README.md#Soporte - title: CoreDNS +title: CoreDNS --- - - - - ## Información general Obtén métricas de CoreDNS en tiempo real para visualizar y monitorizar fallos DNS y aciertos o fallos de caché. ## Configuración +A partir de la versión 1.11.0, esta integración basada en OpenMetrics tiene un modo más reciente (que se activa configurando `openmetrics_endpoint` para que apunte al endpoint de destino) y un modo heredado (que se activa configurando `prometheus_url` en su lugar). Para obtener todas las características más actualizadas, Datadog recomienda activar el modo más reciente. Para obtener más información, consulta [Versiones más recientes y heredadas para integraciones basadas en OpenMetrics](https://docs.datadoghq.com/integrations/guide/versions-for-openmetrics-based-integrations). -A partir de la versión 1.11.0, esta integración basada en OpenMetrics cuenta con un modo más reciente (que se activa configurando `openmetrics_endpoint` para que apunte al endpoint de destino) y un modo heredado (que se activa configurando `prometheus_url`). Para obtener todas las funciones más actualizadas, Datadog recomienda activar el modo más reciente. Para obtener más información, consulta [Versiones más recientes y heredadas de integraciones basadas en OpenMetrics][1]. - -El último modo del check de CoreDNS requiere Python 3, envía métricas de `.bucket` y también envía muestras del histograma `.sum` y `.count` como tipo de recuento monotónico. Antes, estas métricas se enviaban como tipo `gauge` en el modo heredado. Para ver la lista de métricas disponibles en cada modo, consulta el [archivo`metadata.csv`][2]. +El modo más reciente del check de CoreDNS requiere Python 3 y envía las métricas `.bucket` y envía las muestras de histograma `.sum` y `.count` como tipo de recuento monotónico. Estas métricas se enviaban anteriormente como tipo `gauge` en el modo heredado. Consulta el archivo [`metadata.csv` ](https://github.com/DataDog/integrations-core/blob/master/coredns/metadata.csv) para obtener una lista de las métricas disponibles en cada modo. -Para los hosts que no puedan utilizar Python 3, o si previamente has implementado este modo de integración, consulta el [ejemplo de configuración][3] del modo `legacy`. Para los usuarios de Autodiscovery que dependen del archivo `coredns.d/auto_conf.yaml`, este habilita por defecto la opción `prometheus_url` del modo `legacy` del check. Consulta el [coredns.d/auto_conf.yaml de ejemplo][4], para ver las opciones de configuración por defecto, y el [coredns.d/conf.yaml.example de ejemplo][5], para ver todas las opciones de configuración disponibles. +Para hosts que no puedan utilizar Python 3, o si ya has implementado previamente este modo de integración, consulta el [ejemplo de configuración] del modo `legacy` (https://github.com/DataDog/integrations-core/blob/7.32.x/coredns/datadog_checks/coredns/data/conf.yaml.example). Para los usuarios de Autodiscovery que confían en el archivo `coredns.d/auto_conf.yaml`, este archivo habilita por defecto la opción `prometheus_url` para el modo `legacy` del check. Consulta el ejemplo [coredns.d/auto_conf.yaml](https://github.com/DataDog/integrations-core/blob/master/coredns/datadog_checks/coredns/data/auto_conf.yaml) para conocer las opciones de configuración predeterminadas y el [coredns.d/conf.yaml.example de ejemplo](https://github.com/DataDog/integrations-core/blob/master/coredns/datadog_checks/coredns/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. ### Instalación -El check de CoreDNS está incluido en el paquete del [Datadog Agent][6], por lo que no necesitas instalar nada más en tus servidores. +El check de CoreDNS está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest), por lo que no necesitas instalar nada más en tus servidores. ### Configuración + {{< tabs >}} + {{% tab "Docker" %}} + #### Docker Para configurar este check para un Agent que se ejecuta en un contenedor: ##### Recopilación de métricas -Configura [plantillas de integraciones de Autodiscovery][1] como etiquetas (labels) Docker en el contenedor de tu aplicación: +Establece las [plantillas de integración de Autodiscovery](http://docs.datadoghq.com/agent/docker/integrations/?tab=docker) como etiquetas de Docker en tu contenedor de aplicaciones: ```yaml LABEL "com.datadoghq.ad.check_names"='["coredns"]' @@ -124,24 +68,22 @@ LABEL "com.datadoghq.ad.instances"='[{"prometheus_url":"http://%%host%%:9153/met **Notas**: -- El archivo `coredns.d/auto_conf.yaml` enviado activa la opción `prometheus_url` por defecto del modo heredado. +- El archivo `coredns.d/auto_conf.yaml` enviado activa la opción `prometheus_url` por defecto para el modo heredado. - La etiqueta (tag) `dns-pod` realiza un seguimiento de la IP del pod DNS de destino. Las otras etiquetas (tags) están relacionadas con el Datadog Agent que sondea la información utilizando la detección de servicios. - Las anotaciones de detección de servicios deben realizarse en el pod. En caso de despliegue, añade las anotaciones a los metadatos de las especificaciones de la plantilla. No las añadas en el nivel de especificación externo. #### Recopilación de logs -La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de Docker][2]. +La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [recopilación de logs de Docker](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation). -Luego, configura [integraciones de logs][3] como etiquetas Docker: +A continuación, establece [Integraciones de log](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como etiquetas de Docker: ```yaml LABEL "com.datadoghq.ad.logs"='[{"source":"coredns","service":""}]' ``` -[1]: http://docs.datadoghq.com/agent/docker/integrations/?tab=docker -[2]: https://docs.datadoghq.com/es/agent/docker/log/?tab=containerinstallation -[3]: https://docs.datadoghq.com/es/agent/docker/log/?tab=containerinstallation#log-integrations {{% /tab %}} + {{% tab "Kubernetes" %}} #### Kubernetes @@ -150,9 +92,9 @@ Para Configurar este check para un Agent que se ejecuta en Kubernetes: ##### Recopilación de métricas -Configura [plantillas de integraciones Autodiscovery][1] como anotaciones de pod en tu contenedor de aplicación. Las plantillas también se pueden configurar con [un archivo, un configmap o un almacén de clave-valor][2]. +Configura [Plantillas de integraciones de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes) como anotaciones de pod en tu contenedor de aplicaciones. Opcionalmente, puedes configurar las plantillas con [un archivo, un mapa de configuración o un almacén de clave-valor](https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes#configuration). -**Anotaciones v1** (para el Datadog Agent v7.36 o anterior) +**Anotaciones v1** (para Datadog Agent \< v7.36) ```yaml apiVersion: v1 @@ -205,7 +147,7 @@ spec: Para activar el modo heredado de este check basado en OpenMetrics, sustituye `openmetrics_endpoint` por `prometheus_url`: -**Anotaciones v1** (para el Datadog Agent v7.36 o anterior) +**Anotaciones v1** (para Datadog Agent \< v7.36) ```yaml ad.datadoghq.com/coredns.instances: | @@ -230,15 +172,15 @@ Para activar el modo heredado de este check basado en OpenMetrics, sustituye `op **Notas**: -- El archivo `coredns.d/auto_conf.yaml` enviado activa la opción `prometheus_url` por defecto del modo heredado. +- El archivo `coredns.d/auto_conf.yaml` enviado activa la opción `prometheus_url` por defecto para el modo heredado. - La etiqueta (tag) `dns-pod` realiza un seguimiento de la IP del pod DNS de destino. Las otras etiquetas (tags) están relacionadas con el Datadog Agent que sondea la información utilizando la detección de servicios. - Las anotaciones de detección de servicios deben realizarse en el pod. En caso de despliegue, añade las anotaciones a los metadatos de las especificaciones de la plantilla. No las añadas en el nivel de especificación externo. #### Recopilación de logs -La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de Kubernetes][3]. +La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/?tab=daemonset). -Luego, configura las [integraciones de logs][4] como anotaciones de pod. Esto también se puede configurar con [un archivo, un mapa de configuración o un almacén de clave-valor][5]. +A continuación, establece las [integraciones de logs](https://docs.datadoghq.com/agent/kubernetes/log/?tab=kubernetes#examples---datadog-redis-integration) como anotaciones del pod. Alternativamente, puedes configurar esto con un [archivo, mapa de configuración o almacén de clave-valor](https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=file). **Anotaciones v1/v2** @@ -253,12 +195,8 @@ metadata: name: coredns ``` -[1]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/?tab=kubernetes -[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/?tab=kubernetes#configuration -[3]: https://docs.datadoghq.com/es/agent/kubernetes/log/?tab=daemonset -[4]: https://docs.datadoghq.com/es/agent/kubernetes/log/?tab=kubernetes#examples---datadog-redis-integration -[5]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/?tab=file {{% /tab %}} + {{% tab "ECS" %}} #### ECS @@ -267,7 +205,7 @@ Para configurar este check para un Agent que se ejecuta en ECS: ##### Recopilación de métricas -Configura [plantillas de integraciones de Autodiscovery][1] como etiquetas (labels) Docker en el contenedor de tu aplicación: +Establece [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/amazon_ecs/?tab=awscli#process-collection) como etiquetas de Docker en tu contenedor de aplicaciones: ```json { @@ -291,15 +229,15 @@ Para activar el modo heredado de este check basado en OpenMetrics, sustituye `op **Notas**: -- El archivo `coredns.d/auto_conf.yaml` enviado activa la opción `prometheus_url` por defecto del modo heredado. +- El archivo `coredns.d/auto_conf.yaml` enviado activa la opción `prometheus_url` por defecto para el modo heredado. - La etiqueta (tag) `dns-pod` realiza un seguimiento de la IP del pod DNS de destino. Las otras etiquetas (tags) están relacionadas con el Datadog Agent que sondea la información utilizando la detección de servicios. - Las anotaciones de detección de servicios deben realizarse en el pod. En caso de despliegue, añade las anotaciones a los metadatos de las especificaciones de la plantilla. No las añadas en el nivel de especificación externo. ##### Recopilación de logs -La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de ECS][2]. +La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [recopilación de logs de ECS](https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux). -Luego, configura [integraciones de logs][3] como etiquetas Docker: +A continuación, establece [Integraciones de logs](https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux#activate-log-integrations) como etiquetas de Docker: ```yaml { @@ -312,52 +250,161 @@ Luego, configura [integraciones de logs][3] como etiquetas Docker: }] } ``` -[1]: https://docs.datadoghq.com/es/agent/amazon_ecs/?tab=awscli#process-collection -[2]: https://docs.datadoghq.com/es/agent/amazon_ecs/logs/?tab=linux -[3]: https://docs.datadoghq.com/es/agent/amazon_ecs/logs/?tab=linux#activate-log-integrations + {{% /tab %}} + {{< /tabs >}} ### Validación -[Ejecuta el subcomando de `status` del Agent][7] y busca `coredns` en la sección **Checks**. +[Ejecuta el subcomando `status` del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent) y busca `coredns` en la sección Checks. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "coredns" >}} +| | | +| --- | --- | +| **coredns.acl.allowed_requests**
(count) | \[OpenMetrics V1\] Contador de solicitudes DNS permitidas.
_Se muestra como solicitud_ | +| **coredns.acl.allowed_requests.count**
(count) | \[OpenMetrics V2\] Contador de solicitudes DNS permitidas.
_Se muestra como solicitud_ | +| **coredns.acl.blocked_requests**
(count) | \[OpenMetrics V1\] Contador de solicitudes DNS bloqueadas.
_Se muestra como solicitud_ | +| **coredns.acl.blocked_requests.count**
(count) | \[OpenMetrics V2\] Contador de solicitudes DNS bloqueadas.
_Se muestra como solicitud_ | +| **coredns.autopath.success_count**
(count) | \[OpenMetrics V1\] Contador de solicitudes que hicieron autopath.
_Se muestra como solicitud_ | +| **coredns.autopath.success_count.count**
(count) | \[OpenMetrics V2\] Contador de solicitudes que hicieron autopath.
_Se muestra como solicitud_ | +| **coredns.build_info**
(gauge) | \[OpenMetrics V1 y V2\] Una métrica con un valor constante '1' etiquetada por versión, revisión y goversion a partir de la cual se construyó CoreDNS.| +| **coredns.cache_drops_count**
(count) | \[OpenMetrics V1\] Contador de respuestas excluidas de la caché debido a una falta de coincidencia entre el nombre de la pregunta de solicitud/respuesta.
_Se muestra como respuesta_ | +| **coredns.cache_drops_count.count**
(count) | \[OpenMetrics V2\] Contador de respuestas excluidas de la caché debido a que el nombre de la pregunta de solicitud/respuesta no coincide.
_Se muestra como respuesta_ | +| **coredns.cache_hits_count**
(count) | \[OpenMetrics V1\] Contador de accesos a la caché por tipo de caché
_Se muestra como acierto_ | +| **coredns.cache_hits_count.count**
(count) | \[OpenMetrics V2\] Contador de accesos a la caché por tipo de caché
_Se muestra como acierto_ | +| **coredns.cache_misses_count**
(count) | \[OpenMetrics V1\] Contador de fallos de caché.
_Se muestra como fallo_ | +| **coredns.cache_misses_count.count**
(count) | \[OpenMetrics V2\] Contador de fallos de caché.
_Se muestra como fallo_ | +| **coredns.cache_prefetch_count**
(count) | \[OpenMetrics V1\] El número de veces que la caché ha precargado un elemento almacenado.| +| **coredns.cache_prefetch_count.count**
(count) | \[OpenMetrics V2\] El número de veces que la caché ha precargado un elemento almacenado.| +| **coredns.cache_request_count**
(count) | \[OpenMetrics V1\] Contador de solicitudes de caché.
_Se muestra como solicitud_ | +| **coredns.cache_request_count.count**
(count) | \[OpenMetrics V2\] Contador de solicitudes de caché.
_Se muestra como solicitud_ | +| **coredns.cache_size.count**
(gauge) | \[OpenMetrics V1 y V2\]
_Se muestra como entrada_ | +| **coredns.cache_stale_count**
(count) | \[OpenMetrics V1\] Contador de solicitudes servidas desde entradas de caché obsoletas.
_Se muestra como solicitud_ | +| **coredns.cache_stale_count.count**
(count) | \[OpenMetrics V2\] Contador de solicitudes servidas desde entradas de caché obsoletas.
_Se muestra como solicitud_ | +| **coredns.dnssec.cache_hits**
(count) | \[OpenMetrics V1\] Contador de accesos a la caché.
_Se muestra como acierto_ | +| **coredns.dnssec.cache_hits.count**
(count) | \[OpenMetrics V2\] Contador de accesos a la caché.
_Se muestra como acierto_ | +| **coredns.dnssec.cache_misses**
(count) | \[OpenMetrics V1\] Contador de fallos de caché.
_Se muestra como fallo_ | +| **coredns.dnssec.cache_misses.count**
(count) | \[OpenMetrics V2\] Contador de fallos de caché.
_Se muestra como fallo_ | +| **coredns.dnssec.cache_size**
(gauge) | \[OpenMetrics V1 y V2\] Total de elementos en la caché, el tipo es firma.| +| **coredns.forward_healthcheck_broken_count**
(count) | \[OpenMetrics V1\] Contador de cuando todos los flujos ascendentes no están en buen estado
_Se muestra como entrada_ | +| **coredns.forward_healthcheck_broken_count.count**
(count) | \[OpenMetrics V2\] Contador de cuando todos los flujos ascendentes no están en buen estado
_Se muestra como entrada_ | +| **coredns.forward_healthcheck_failure_count**
(count) | \[OpenMetrics V1\] Número de checks de estado fallidos por flujo ascendente
_Se muestra como entrada_ | +| **coredns.forward_healthcheck_failure_count.count**
(count) | \[OpenMetrics V2\] Número de checks de estado fallidos por flujo ascendente
_Se muestra como entrada_ | +| **coredns.forward_max_concurrent_rejects**
(count) | \[OpenMetrics V1\] Contador del número de consultas rechazadas porque las consultas concurrentes estaban al máximo.
_Se muestra como consulta_ | +| **coredns.forward_max_concurrent_rejects.count**
(count) | \[OpenMetrics V2\] Contador del número de consultas rechazadas porque las consultas concurrentes estaban al máximo.
_Se muestra como consulta_ | +| **coredns.forward_request_count**
(count) | \[OpenMetrics V1\] Recuento de consultas por flujo ascendente
_Se muestra como solicitud_ | +| **coredns.forward_request_count.count**
(count) | \[OpenMetrics V2\] Recuento de consultas por flujo ascendente
_Se muestra como solicitud_ | +| **coredns.forward_request_duration.seconds.bucket**
(count) | \[OpenMetrics V2\] Duración por interacción ascendente
_Se muestra en segundos_ | +| **coredns.forward_request_duration.seconds.count**
(count) | \[OpenMetrics V1 y V2\] Duración por interacción ascendente
_Se muestra en segundos_ | +| **coredns.forward_request_duration.seconds.sum**
(count) | \[OpenMetrics V1 y V2\] Duración por interacción ascendente
_Se muestra en segundos_ | +| **coredns.forward_response_rcode_count**
(count) | \[OpenMetrics V1\] Recuento de RCODEs por flujo ascendente
_Se muestra como respuesta_ | +| **coredns.forward_response_rcode_count.count**
(count) | \[OpenMetrics V2\] Recuento de RCODEs por flujo ascendente
_Se muestra como respuesta_ | +| **coredns.forward_sockets_open**
(gauge) | \[OpenMetrics V1 y V2\] Número de sockets abiertos por flujo ascendente
_Se muestra como conexión_ | +| **coredns.go.gc_duration_seconds.count**
(count) | \[OpenMetrics V1 y V2\] Recuento de las duraciones de invocación GC.
_Se muestra como segundo_ | +| **coredns.go.gc_duration_seconds.quantile**
(gauge) | \[OpenMetrics V1 y V2\] Cuantiles de las duraciones de invocación GC.
_Se muestra como segundo_ | +| **coredns.go.gc_duration_seconds.sum**
(count) | \[OpenMetrics V1 y V2\] Suma de las duraciones de invocación GC.
_Se muestra como segundo_ | +| **coredns.go.goroutines**
(gauge) | \[OpenMetrics V1 y V2\] Número de goroutines que existen actualmente.
_Se muestra como subproceso_ | +| **coredns.go.info**
(gauge) | \[OpenMetrics V1 y V2\] Información sobre el entorno Go.| +| **coredns.go.memstats.alloc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes asignados y aún en uso.
_Se muestra como byte_ | +| **coredns.go.memstats.alloc_bytes_total**
(count) | \[OpenMetrics V1\] Número total de bytes asignados aunque se hayan liberado.
_Se muestra como byte_ | +| **coredns.go.memstats.buck_hash_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados por la tabla hash del bucket de perfiles.
_Se muestra como byte_ | +| **coredns.go.memstats.frees_total**
(count) | \[OpenMetrics V1\] Número total de libres.| +| **coredns.go.memstats.frees_total.count**
(count) | \[OpenMetrics V2\] Número total de libres.| +| **coredns.go.memstats.gc_cpu_fraction**
(gauge) | \[OpenMetrics V1 y V2\] CPU ocupada por GC
_Se muestra en porcentaje_ | +| **coredns.go.memstats.gc_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para los metadatos del sistema de recopilación de elementos no usados.
_Se muestra como byte_ | +| **coredns.go.memstats.heap_alloc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Bytes asignados al heap
_Se muestra como byte_ | +| **coredns.go.memstats.heap_idle_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes ociosos en el heap
_Se muestra como byte_ | +| **coredns.go.memstats.heap_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en el heap
_Se muestra como byte_ | +| **coredns.go.memstats.heap_objects**
(gauge) | \[OpenMetrics V1 y V2\] Número de objetos en el heap
_Se muestra como objeto_ | +| **coredns.go.memstats.heap_released_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes liberados al sistema en el último gc
_Se muestra como byte_ | +| **coredns.go.memstats.heap_released_bytes.count**
(count) | \[OpenMetrics V2\] Cuenta de bytes liberados al sistema en el último gc
_Se muestra como byte_ | +| **coredns.go.memstats.heap_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados por el heap
_Se muestra como byte_ | +| **coredns.go.memstats.last_gc_time_seconds**
(gauge) | \[OpenMetrics V1 y V2\] Longitud de la última GC
_Se muestra como segundo_ | +| **coredns.go.memstats.lookups_total**
(count) | \[OpenMetrics V1\] Número de búsquedas
_Se muestra como operación_ | +| **coredns.go.memstats.lookups_total.count**
(count) | \[OpenMetrics V2\] Número de búsquedas
_Se muestra como operación_ | +| **coredns.go.memstats.mallocs_total**
(count) | \[OpenMetrics V1\] Número de mallocs
_Se muestra como operación_ | +| **coredns.go.memstats.mallocs_total.count**
(count) | \[OpenMetrics V2\] Número de mallocs
_Se muestra como operación_ | +| **coredns.go.memstats.mcache_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por las estructuras mcache.
_Se muestra como byte_ | +| **coredns.go.memstats.mcache_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para las estructuras mcache obtenidas del sistema.
_Se muestra como byte_ | +| **coredns.go.memstats.mspan_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por las estructuras mspan.
_Se muestra como byte_ | +| **coredns.go.memstats.mspan_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para las estructuras mspan obtenidas del sistema.
_Se muestra como byte_ | +| **coredns.go.memstats.next_gc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes del heap cuando se realice la próxima recopilación de elementos no usados
_Se muestra como byte_ | +| **coredns.go.memstats.other_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para otras asignaciones del sistema
_Se muestra como byte_ | +| **coredns.go.memstats.stack_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por el asignador de stack tecnológico
_Se muestra como byte_ | +| **coredns.go.memstats.stack_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes obtenidos del sistema para el asignador de stack tecnológico
_Se muestra como byte_ | +| **coredns.go.memstats.sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes obtenidos del sistema
_Se muestra como byte_ | +| **coredns.go.threads**
(gauge) | \[OpenMetrics V1 y V2\] Número de subprosesos de OS creados.
_Se muestra como subproceso_ | +| **coredns.grpc.request_count**
(count) | \[OpenMetrics V1\] Recuento de consultas por flujo ascendente.| +| **coredns.grpc.request_count.count**
(count) | \[OpenMetrics V2\] Recuento de consultas por flujo ascendente.| +| **coredns.grpc.response_rcode_count**
(count) | \[OpenMetrics V1\] Cuenta de RCODEs por flujo ascendente. Aleatoriamente, (esto siempre usa la política aleatoria) se divide a un flujo ascendente.| +| **coredns.grpc.response_rcode_count.count**
(count) | \[OpenMetrics V2\] Cuenta de RCODEs por flujo ascendente. Aleatoriamente, (esto siempre usa la política aleatoria) se divide a un flujo ascendente.| +| **coredns.health_request_duration.bucket**
(count) | \[OpenMetrics V2\] Muestra para el histograma del tiempo (en segundos) que tardó cada solicitud.| +| **coredns.health_request_duration.count**
(count) | \[OpenMetrics V1 y V2\] Recuento para el histograma del tiempo (en segundos) que ha tardado cada solicitud.| +| **coredns.health_request_duration.sum**
(count) | \[OpenMetrics V1 y V2\] Suma para el histograma del tiempo (en segundos) que tardó cada solicitud.| +| **coredns.hosts.entries_count**
(gauge) | \[OpenMetrics V1 y V2\] El número combinado de entradas en hosts y Corefile.| +| **coredns.hosts.reload_timestamp**
(gauge) | \[OpenMetrics V1 y V2\] La marca temporal de la última recarga del archivo hosts.
_Se muestra como segundo_ | +| **coredns.panic_count.count**
(count) | \[OpenMetrics V1 y V2\]
_Se muestra como entrada_ | +| **coredns.plugin_enabled**
(gauge) | \[OpenMetrics V1 y V2\] Una métrica que indica si un complemento está habilitado por servidor y zona.| +| **coredns.process.cpu_seconds_total**
(count) | \[OpenMetrics V1 y V2\] Tiempo total de CPU del usuario y del sistema empleado en segundos.
_Se muestra en segundos_ | +| **coredns.process.cpu_seconds_total.count**
(count) | \[OpenMetrics V2\] Recuento del tiempo de CPU del usuario y del sistema empleado en segundos.
_Se muestra como segundo_ | +| **coredns.process.max_fds**
(gauge) | \[OpenMetrics V1 y V2\] Número máximo de descriptores de archivo abiertos.
_Se muestra como archivo_ | +| **coredns.process.open_fds**
(gauge) | \[OpenMetrics V1 y V2\] Número de descriptores de archivo abiertos.
_Se muestra como archivo_ | +| **coredns.process.resident_memory_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Tamaño de la memoria residente en bytes.
_Se muestra como byte_ | +| **coredns.process.start_time_seconds**
(gauge) | \[OpenMetrics V1 y V2\] Tiempo de inicio del proceso desde unix epoch en segundos.
_Se muestra como segundo_ | +| **coredns.process.virtual_memory_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Tamaño de la memoria virtual en bytes.
_Se muestra como byte_ | +| **coredns.proxy_request_count**
(count) | \[OpenMetrics V1\] Recuento de consultas por flujo ascendente.
_Se muestra como solicitud_ | +| **coredns.proxy_request_count.count**
(count) | \[OpenMetrics V2\] Recuento de consultas por flujo ascendente.
_Se muestra como solicitud_ | +| **coredns.proxy_request_duration.seconds.bucket**
(count) | \[OpenMetrics V2\] Muestra de duración por interacción ascendente
_Se muestra como segundo_ | +| **coredns.proxy_request_duration.seconds.count**
(count) | \[OpenMetrics V1 y V2\] Duración por interacción ascendente
_Se muestra en segundos_ | +| **coredns.proxy_request_duration.seconds.sum**
(count) | \[OpenMetrics V1 y V2\] Duración por interacción ascendente
_Se muestra en segundos_ | +| **coredns.reload.failed_count**
(count) | \[OpenMetrics V1\] Cuenta el número de intentos fallidos de recarga.| +| **coredns.reload.failed_count.count**
(count) | \[OpenMetrics V2\] Cuenta el número de intentos fallidos de recarga.| +| **coredns.request_count**
(count) | \[OpenMetrics V1\] Recuento total de consultas.
_Se muestra como solicitud_ | +| **coredns.request_count.count**
(count) | \[OpenMetrics V2\] Recuento total de consultas.
_Se muestra como solicitud_ | +| **coredns.request_duration.seconds.bucket**
(count) | \[OpenMetrics V2\] Duración de la muestra para procesar cada consulta
_Se muestra como segundo_ | +| **coredns.request_duration.seconds.count**
(count) | \[OpenMetrics V1 y V2\] Duración para procesar cada consulta
_Se muestra como segundo_ | +| **coredns.request_duration.seconds.sum**
(count) | \[OpenMetrics V1 y V2\] Duración para procesar cada consulta
_Se muestra como segundo_ | +| **coredns.request_size.bytes.bucket**
(count) | \[OpenMetrics V2\] Tamaño de la muestra de la solicitud en bytes
_Se muestra como byte_ | +| **coredns.request_size.bytes.count**
(count) | \[OpenMetrics V1 y V2\] Tamaño de la solicitud en bytes
_Se muestra como byte_ | +| **coredns.request_size.bytes.sum**
(count) | \[OpenMetrics V1 y V2\] Tamaño de la solicitud en bytes
_Se muestra como byte_ | +| **coredns.request_type_count**
(count) | \[OpenMetrics V1\] Contador de consultas por zona y tipo| +| **coredns.request_type_count.count**
(count) | \[OpenMetrics V2\] Contador de consultas por zona y tipo| +| **coredns.response_code_count**
(count) | \[OpenMetrics V1\] Número de respuestas por zona y rcode| +| **coredns.response_code_count.count**
(count) | \[OpenMetrics V2\] Número de respuestas por zona y rcode| +| **coredns.response_size.bytes.bucket**
(count) | \[OpenMetrics V2\] Tamaño de la muestra de la solicitud en bytes
_Se muestra como byte_ | +| **coredns.response_size.bytes.count**
(count) | \[OpenMetrics V1 y V2\] Tamaño de la solicitud en bytes
_Se muestra como byte_ | +| **coredns.response_size.bytes.sum**
(count) | \[OpenMetrics V1 y V2\] Tamaño de la solicitud en bytes
_Se muestra como byte_ | +| **coredns.template.failures_count**
(count) | \[OpenMetrics V1\] El número de veces que la plantilla Go falló.
_Se muestra como error_ | +| **coredns.template.failures_count.count**
(count) | \[OpenMetrics V2\] El número de veces que la plantilla Go falló.
_Se muestra como error_ | +| **coredns.template.matches_count**
(count) | \[OpenMetrics V1\] El número total de solicitudes coincidentes por expresión regular.| +| **coredns.template.matches_count.count**
(count) | \[OpenMetrics V2\] El número total de solicitudes coincidentes por expresión regular.| +| **coredns.template.rr_failures_count**
(count) | \[OpenMetrics V1\] El número de veces que el registro de recursos de plantilla no era válido y no pudo ser analizado.
_Se muestra como error_ | +| **coredns.template.rr_failures_count.count**
(count) | \[OpenMetrics V2\] El número de veces que el registro de recursos de plantilla no era válido y no pudo ser analizado.
_Se muestra como error_ | ### Eventos El check de CoreDNS no incluye eventos. ### Checks de servicio -{{< get-service-checks-from-git "coredns" >}} +**coredns.prometheus.health** + +Devuelve `CRITICAL` si el check no puede acceder al endpoint de métricas. En caso contrario, devuelve `OK`. + +_Estados: ok, critical_ ## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](http://docs.datadoghq.com/help). ## Referencias adicionales Documentación útil adicional, enlaces y artículos: -- [Métricas clave para la monitorización CoreDNS][9] -- [Herramientas para la recopilación de métricas y logs de CoreDNS][10] -- [Monitorización de CoreDNS con Datadog][11] - - - -[1]: https://docs.datadoghq.com/es/integrations/guide/versions-for-openmetrics-based-integrations -[2]: https://github.com/DataDog/integrations-core/blob/master/coredns/metadata.csv -[3]: https://github.com/DataDog/integrations-core/blob/7.32.x/coredns/datadog_checks/coredns/data/conf.yaml.example -[4]: https://github.com/DataDog/integrations-core/blob/master/coredns/datadog_checks/coredns/data/auto_conf.yaml -[5]: https://github.com/DataDog/integrations-core/blob/master/coredns/datadog_checks/coredns/data/conf.yaml.example -[6]: https://app.datadoghq.com/account/settings/agent/latest -[7]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[8]: http://docs.datadoghq.com/help -[9]: https://www.datadoghq.com/blog/coredns-metrics/ -[10]: https://www.datadoghq.com/blog/coredns-monitoring-tools/ -[11]: https://www.datadoghq.com/blog/monitoring-coredns-with-datadog/ \ No newline at end of file +- [Métricas clave para la monitorización de CoreDNS](https://www.datadoghq.com/blog/coredns-metrics/) +- [Herramientas para recopilar métricas y logs de CoreDNS](https://www.datadoghq.com/blog/coredns-monitoring-tools/) +- [Cómo monitorizar CoreDNS con Datadog](https://www.datadoghq.com/blog/monitoring-coredns-with-datadog/) \ No newline at end of file diff --git a/content/es/integrations/delinea_secret_server.md b/content/es/integrations/delinea_secret_server.md new file mode 100644 index 0000000000000..d4b1e2757f7e2 --- /dev/null +++ b/content/es/integrations/delinea_secret_server.md @@ -0,0 +1,216 @@ +--- +app_id: delinea-secret-server +app_uuid: 69a8e7df-7ed3-451c-948b-43303a5219e3 +assets: + dashboards: + Delinea Secret Server - Overview: assets/dashboards/delinea_secret_server_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + source_type_id: 41132309 + source_type_name: Delinea Secret Server + logs: + source: delinea-secret-server +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +- seguridad +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/delinea_secret_server/README.md +display_on_public_website: true +draft: false +git_integration_title: delinea_secret_server +integration_id: delinea-secret-server +integration_title: Delinea Secret Server +integration_version: 1.0.0 +is_public: true +manifest_version: 2.0.0 +name: delinea_secret_server +public_title: Delinea Secret Server +short_description: Obtén información sobre los logs de Delinea Secret Server. +supported_os: +- linux +- windows +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Sistema operativo compatible::Linux + - Sistema operativo compatible::Windows + - Sistema operativo compatible::macOS + - Categoría::Recopilación de logs + - Categoría::Seguridad + - Oferta::Integración + - Tipo de datos enviados::Logs + configuration: README.md#Configuración + description: Obtén información sobre los logs de Delinea Secret Server. + media: + - caption: 'Delinea Secret Server: información general 1' + image_url: images/delinea_secret_server_overview_1.png + media_type: imagen + - caption: 'Delinea Secret Server: información general 2' + image_url: images/delinea_secret_server_overview_2.png + media_type: imagen + - caption: 'Delinea Secret Server: información general 3' + image_url: images/delinea_secret_server_overview_3.png + media_type: imagen + - caption: 'Delinea Secret Server: información general 4' + image_url: images/delinea_secret_server_overview_4.png + media_type: imagen + overview: README.md#Información general + support: README.md#Soporte + title: Delinea Secret Server +--- + + +## Información general + +[Delinea Secret Server][1] es una solución de gestión de contraseñas de nivel empresarial diseñada para ayudar a las organizaciones a almacenar, gestionar y controlar de forma segura el acceso a credenciales privilegiadas. Su objetivo es mejorar la seguridad de los datos confidenciales, reducir el riesgo de violación de datos y agilizar el proceso de gestión de contraseñas. + +Esta integración enriquece e ingiere los siguientes logs: + +- **Logs de Secret Server**: representa un evento en el que un usuario realiza una acción (como ver, añadir o modificar) en un secreto almacenado, carpeta, grupo o usuario. Proporciona detalles que incluyen la identidad del usuario, la fuente de la acción y el elemento en el que se realizó la acción. + +Después de recopilar los logs, Delinea Secret Server los canaliza en Datadog para su análisis. Usando el pipeline de logs integrados, estos logs se analizan y se enriquecen, permitiendo la búsqueda y el análisis sin esfuerzo. La integración proporciona información en los logs de Secret Server a través de dashboards predefinidos e incluye reglas de detección de Cloud SIEM predefinidas para la monitorización y la seguridad mejoradas. + +## Configuración + +### Instalación + +Para instalar la integración de Delinea Secret Server, ejecuta el siguiente comando de instalación del Agent y los siguientes pasos. Para más información, consulta la documentación de [Gestión de la integración][2]. + +**Nota**: Este paso no es necesario para el Agent versión >= 7.65.0. + +Comando Linux: + + ```shell + sudo -u dd-agent -- datadog-agent integration install datadog-delinea-secret-server==1.0.0 + ``` + +### Configuración + +#### Recopilación de logs + +1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en el archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Añade este bloque de configuración a tu archivo `delinea_secret_server.d/conf.yaml` para empezar a recopilar tus logs de Delinea Secret Server. + + ```yaml + logs: + - type: tcp/udp + port: + source: delinea-secret-server + service: delinea-secret-server + ``` + + Para las opciones de configuración disponibles, ve el [delinea_secret_server.d/conf.yaml de ejemplo][3]. Elige el protocolo apropiado (TCP o UDP) basado en tu configuración de reenvío de syslogs de Delinea Secret Server. + + **Nota**: No modifiques los valores de servicio y fuente, ya que estos parámetros forman parte integrante del funcionamiento del pipeline. + +3. [Reinicia el Agent][4]. + +#### Configurar el reenvío de mensajes de syslog desde Delinea Secret Server + +1. Inicia sesión en la plataforma **Delinea Secret Server**. +2. Ve a **Settings** > **All Settings** (Configuración > Todos los ajustes). +3. Ve a **Configuration** > **General** > **Application** (Configuración > General > Aplicación). +4. Haz clic en **Edit** (Editar). +5. Marca **Enable Syslog/CEF Log Output** (Activar la salida de logs Syslog/CEF). +6. Rellena los siguientes datos: + + - **Servidor Syslog/CEF**: introduce la dirección del servidor Syslog/CEF. + - **Puerto de Syslog/CEF**: ingresa el puerto del servidor Syslog/CEF. + - **Protocolo Syslog/CEF Protocol**: selecciona TCP o UDP. + - **Franja horaria de Syslog/CEF**: selecciona la franja UTC. + - **Formato fecha/hora Syslog/CEF**: selecciona ISO 8601. + - **Sitio de Syslog/CEF**: selecciona el sitio en el que se ejecutará CEF/Syslogs. + +7. Haz clic en **Save** (Guardar). + +### Validación + +[Ejecuta el subcomando de estado del Agent][5] y busca `delinea_secret_server` en la sección Checks. + +## Datos recopilados + +### Logs + +La integración de Delinea Secret Server recopila los logs de Secret Server. + +### Métricas + +La integración de Delinea Secret Server no incluye ninguna métrica. + +### Eventos + +La integración de Delinea Secret Server no incluye ningún evento. + +### Checks de servicio + +La integración de Delinea Secret Server no incluye ningún check de servicio. + +## Solucionar problemas + +### Permiso denegado durante la vinculación de puertos + +Si ves un error de **Permiso denegado** mientras se vincula al puerto en los logs del Agent, consulta las siguientes instrucciones: + + 1. La vinculación a un número de puerto inferior a 1024 requiere permisos elevados. Concede acceso al puerto mediante el comando `setcap`: + + - Concede acceso al puerto mediante el comando `setcap`: + + ```shell + sudo setcap CAP_NET_BIND_SERVICE=+ep /opt/datadog-agent/bin/agent/agent + ``` + + - Comprueba que la configuración es correcta ejecutando el comando `getcap`: + + ```shell + sudo getcap /opt/datadog-agent/bin/agent/agent + ``` + + Con el resultado esperado: + + ```shell + /opt/datadog-agent/bin/agent/agent = cap_net_bind_service+ep + ``` + + **Nota**: Vuelve a ejecutar este comando `setcap` cada vez que actualices el Agent. + + 2. [Reinicia el Agent][4]. + +### No se recopilan datos + +Asegúrate de que se evita el tráfico del puerto configurado si el firewall está activado. + +### Puerto ya utilizado + +Si aparece el error **Port Ya está en uso**, consulta las siguientes instrucciones. El ejemplo siguiente es para PORT-NO = 514: + +En los sistemas que utilizan Syslog, si el Agent escucha logs de Delinea Secret Server en el puerto 514, puede aparecer el siguiente error en los logs del Agent: `Can't start UDP forwarder on port 514: listen udp :514: bind: address already in use`. + +Por defecto, Syslog escucha en el puerto 514. Para resolver este error, sigue **uno** de los pasos siguientes: + +- Desactiva Syslog. +- Configura el Agent para escuchar en un puerto diferente, disponible. + +¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog][6]. + +[1]: https://delinea.com/products/secret-server +[2]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=linux#install +[3]: https://github.com/DataDog/integrations-core/blob/master/delinea_secret_server/datadog_checks/delinea_secret_server/data/conf.yaml.example +[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[6]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/github.md b/content/es/integrations/github.md index 91ae6a664db89..f5103f0972c38 100644 --- a/content/es/integrations/github.md +++ b/content/es/integrations/github.md @@ -1,245 +1,366 @@ --- -aliases: -- /es/integrations/github_apps +app_id: github categories: -- collaboration +- automation - developer tools -- issue tracking - source control custom_kind: integración -dependencies: [] -description: Conecta GitHub con Datadog para monitorizar confirmaciones y solicitudes - pull que afecten el rendimiento de tus servicios. -doc_link: https://docs.datadoghq.com/integrations/github/ -draft: false +description: GitHub es un servicio de alojamiento web para proyectos de desarrollo + de software that use the Git revision control system. further_reading: -- link: https://www.datadoghq.com/blog/collect-github-audit-logs-alerts-datadog/ - tag: Blog - text: Recopila logs de auditoría de GitHub y alertas de escaneo con Datadog -- link: https://www.datadoghq.com/blog/github-source-code-integration/ - tag: Blog - text: Usa las integraciones de código fuente y GitHub de Datadog para optimizar - la solución de problemas -- link: https://www.datadoghq.com/blog/github-actions-service-catalog/ - tag: Blog - text: Uso GitHub Actions para Service Catalog de Datadog, y tú también deberías - hacerlo -- link: https://docs.datadoghq.com/integrations/guide/source-code-integration/ - tag: Documentación - text: Obtén más información sobre la integración del código fuente de Datadog -- link: https://docs.datadoghq.com/service_catalog/adding_metadata/#store-and-edit-service-definitions-in-github - tag: Documentación - text: Aprende a usar la integración de GitHub en Service Catalog -- link: https://docs.datadoghq.com/serverless/configuration/?tab=serverlessframework#link-errors-to-your-source-code - tag: Documentación - text: Aprende a usar la integración de GitHub en la monitorización serverless -git_integration_title: github -has_logo: true -integration_id: github -integration_title: GitHub -integration_version: '' -is_public: true -manifest_version: '1.0' -name: github -public_title: Integración de GitHub -short_description: Conecta GitHub con Datadog. -team: web-integrations -version: '1.0' +- link: https://www.datadoghq.com/blog/source-code-preview/ + tag: blog + text: Centrarse en el código importante mediante vistas previas del código fuente + en Continuous Profiler +- link: https://www.datadoghq.com/blog/live-debugging/ + tag: blog + text: Solucionar eficazmente los errores de producción con la depuración en directo + de Datadog +- link: https://www.datadoghq.com/blog/datadog-code-analysis/ + tag: blog + text: Enviar código seguro y de alta calidad más rápidamente con Datadog Code Analysis +- link: https://www.datadoghq.com/blog/ai-assistant-workflows-apps/ + tag: blog + text: Crea workflows (UI) / procesos (generic) y aplicaciones en Datadog en cuestión + de minutos con nuestro asistente de inteligencia artificial. +- link: https://www.datadoghq.com/blog/monitor-github-datadog-cloud-siem/ + tag: blog + text: Monitoriza GitHub con Cloud SIEM de Datadog +media: +- caption: Fragmento de código de GitHub en la interfaz de usuario de Datadog + image_url: images/code_snippet.png + media_type: imagen +- caption: Comentarios automatizados en GitHub Pull Request + image_url: images/pr_comment.png + media_type: imagen +- caption: Datadog’s Action Catalog for GitHub + image_url: images/actions.png + media_type: imagen +- caption: Dashboard de información general de GitHub + image_url: images/overview.png + media_type: imagen +title: GitHub --- - - ## Información general -Instala la integración de GitHub para configurar GitHub Apps y GitHub Actions, proteger el acceso a tus repositorios y recopilar telemetría avanzada (como logs de auditoría, informes de vulnerabilidad, escaneo de secretos y estadísticas de repositorios). +La integración de Datadog y GitHub recopila cuatro tipos principales de datos: + +- **Registros de auditoría**: actividades de seguimiento de datos de seguridad y cumplimiento a nivel de empresa en toda la organización, cambios de acceso de los usuarios y parámetros de seguridad a través de Audit Log Streaming. + +- **Eventos de repositorio**: seguimiento en tiempo real de las actividades del repositorio, incluyendo solicitudes pull, incidentes, commits y cambios de rama a través de webhooks. + +- **Información del código fuente**: proporciona acceso al código fuente para potenciar funciones bidireccionales entre Datadog y GitHub, como mostrar fragmentos de código en trazas (traces) de APM, Error Tracking y herramientas de seguridad o habilitar comentarios en solicitudes pull de Code Security y Test Optimization (optimización de tests). + +- **Datos de telemetría**: recopilación automatizada de alertas de análisis de código, alertas de análisis de secretos y métricas de repositorio para realizar un seguimiento de las tendencias de seguridad y los patrones de workflow (UI) / proceso (generic). + +#### GitHub Apps + +La integración de aplicaciones de GitHub te permite conectar tu organización o cuenta personal de GitHub para acceder a la funcionalidad relacionada con el código de source (fuente) y recopilar datos valiosos para ayudarte a monitorizar y proteger tu entorno de GitHub. Gestiona tus aplicaciones de GitHub a través de la [pestaña Configuración](https://docs.datadoghq.com/integrations/guide/source-code-integration/) para empezar. + +Configura la integración de GitHub para configurar [aplicaciones de GitHub](https://docs.github.com/en/apps) que conectan tu organización o cuenta personal de GitHub a Datadog, lo que te permite acceder a la funcionalidad relacionada con el código source (fuente), recopilar datos valiosos y ayudarte a monitorizar y proteger tu entorno de GitHub. + +**Funcionalidad del código fuente**: cuando se instala con los permisos correctos, la integración de GitHub potencia diferentes funciones de código fuente en productos de Datadog para ayudarte a solucionar problemas y tomar acciones en tu código. Algunos ejemplos incluyen: + +- Acelerar las investigaciones en Error Tracking, Continuous Profiler y Code Security utilizando fragmentos de código en línea para contextualizar de dónde procede un problema en tu código. +- Potenciar tus revisiones de código con comentarios automáticos y sugerencias de cambios directamente en tus solicitudes pull desde Code Security y Test Optimization (optimización de tests). +- Tomar acciones en tu código de base con automatizaciones personalizadas creadas con Datadog Actions and Remediations. + +Por ejemplo, una vez instalada la aplicación de GitHub con los permisos pertinentes activados, puedes utilizar Datadog [integración del código source (fuente)](https://docs.datadoghq.com/integrations/guide/source-code-integration/) para consultar fragmentos de código en tus stack traces, obtener comentarios automatizados y sugerencias de cambios a través de los comentarios de pull request de [CI Visibility](https://docs.datadoghq.com/continuous_integration/guides/pull_request_comments/) y [Code Security](https://docs.datadoghq.com/security/code_security/dev_tool_int/github_pull_requests/), y acceder a múltiples definiciones de servicios en GitHub desde [Software Catalog](https://docs.datadoghq.com/service_catalog/adding_metadata/#store-and-edit-definitions-in-github). + +![Información general de las aplicaciones de GitHub](images/github_applications.png) + +Ya puedes integrar tus equipos de GitHub con tus equipos de Datadog: únete a la vista previa: +{{< callout url="https://www.datadoghq.com/product-preview/github-integration-for-teams/" header="Únete a la vista previa">}} +La integración de GitHub para equipos está en vista previa. +{{< /callout >}} + +#### Eventos de repositorio + +Captura eventos de GitHub en Datadog para: + +- Realizar un seguimiento de las nuevas funciones a partir de cambios en el código +- Identificar cuándo los nuevos cambios de código generan alertas en el sistema o fallos de compilación +- Discutir los cambios de código con tu equipo +- Declarar un incidente o exportar un evento a un incidente en curso + +Eventos de consumo relacionados con tus acciones en repositorios y/o ramificaciones específicas incluidos: +| Nombre del evento | Acciones del evento | +| ---------------------------------- | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | +| [Creación de ramificación o tag (etiqueta)](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#create) | | +| [Eliminación de ramificación o tag (etiqueta)](https://docs.github.com/en/webhooks/webhook-events-and-payloads#delete) | | +| [Reglas de protección de ramificaciones](https://docs.github.com/en/webhooks/webhook-events-and-payloads#branch_protection_rule) | Se admiten las siguientes acciones:

- [`created`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=created#branch_protection_rule)
- [`deleted`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#branch_protection_rule)
- [`edited`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#branch_protection_rule) | +| [Comentarios de confirmación](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#commit_comment) | | +| [Alertas de Dependabot](https://docs.github.com/en/webhooks/webhook-events-and-payloads#dependabot_alert) | Se admiten las siguientes acciones:

- [`auto_dismissed`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=auto_dismissed#dependabot_alert)
- [`auto_reopened`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=auto_reopened#dependabot_alert)
- [`created`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=created#dependabot_alert)
- [`dismissed`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=dismissed#dependabot_alert)
- [`fixed`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=fixed#dependabot_alert)
- [`reintroduced`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=reintroduced#dependabot_alert)
- [`reopened`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=reopened#dependabot_alert) | +| [Comentarios de problemas](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#issue_comment) | Se admiten las siguientes acciones:

- [`created`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=created#issue_comment)
- [`deleted`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#issue_comment)
- [`edited`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#issue_comment) | +| [Problemas](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#issues) | Se admiten las siguientes acciones:

- [`assigned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=assigned#issues)
- [`closed`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=closed#issues)
- [`deleted`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#issues)
- [`demilestoned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=demilestoned#issues)
- [`edited`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#issues)
- [`labeled`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=labeled#issues)
- [`locked`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=locked#issues)
- [`milestoned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=milestoned#issues)
- [`opened`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=opened#issues)
- [`pinned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=pinned#issues)
- [`reopened`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=reopened#issues)
- [`transferred`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=transferred#issues)
- [`unassigned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unassigned#issues)
- [`unlabeled`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unlabeled#issues)
- [`unlocked`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unlocked#issues)
- [`unpinned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unpinned#issues) | +| [Comentarios de revisión de solicitud de cambio](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#pull_request_review_comment) | Se admiten las siguientes acciones:

- [`created`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=created#pull_request_review_comment)
- [`deleted`](https://app.datadoghq.com/hhttps://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#pull_request_review_comment)
- [`edited`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#pull_request_review_comment) | +| [Solicitudes de cambios](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#pull_request) | Se admiten las siguientes acciones:

- [`assigned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=assigned#pull_request)
- [`unassigned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unassigned#pull_request)
- [`labeled`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=labeled#pull_request)
- [`unlabeled`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unlabeled#pull_request)
- [`opened`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=opened#pull_request)
- [`edited`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#pull_request)
- [`closed`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=closed#pull_request)
- [`reopened`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=reopened#pull_request)
- [`synchronize`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=synchronize#pull_request)
- [`converted_to_draft`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=converted_to_draft#pull_request)
- [`locked`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=locked#pull_request)
- [`unlocked`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unlocked#pull_request)
- [`enqueued`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=enqueued#pull_request)
- [`dequeued`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=dequeued#pull_request)
- [`milestoned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=milestoned#pull_request)
- [`demilestoned`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=demilestoned#pull_request)
- [`ready_for_review`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=ready_for_review#pull_request)
- [`review_requested`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=review_requested#pull_request)
- [`review_request_removed`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=review_request_removed#pull_request)
- [`auto_merge_enabled`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=auto_merge_enabled#pull_request)
- [`auto_merge_disabled`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=auto_merge_disabled#pull_request) | +| [Inserciones](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#push) | | +| [Repositorios](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#repository) | Se admiten las siguientes acciones:

- [`archived`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=archived#repository)
- [`created`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=created#repository)
- [`deleted`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#repository)
- [`edited`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#repository)
- [`privatized`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=privatized#repository)
- [`publicized`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=publicized#repository)
- [`renamed`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=renamed#repository)
- [`transferred`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=transferred#repository)
- [`unarchived`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unarchived#repository) | +| [Alertas de vulnerabilidad del repositorio](https://docs.github.com/en/webhooks/webhook-events-and-payloads#repository_vulnerability_alert) | Se admiten las siguientes acciones:

- [`create`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=create#repository_vulnerability_alert)
- [`dismiss`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=dismiss#repository_vulnerability_alert)
- [`reopen`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=reopen#repository_vulnerability_alert)
- [`resolve`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=resolve#repository_vulnerability_alert) | +| [Asesoramiento de seguridad](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#security_advisory) | Se admiten las siguientes acciones:

- [`published`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=published#security_advisory)
- [`updated`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=updated#security_advisory)
- [`withdrawn`](https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=withdrawn#security_advisory) | +| [Agregados al equipo](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#team_add) | +| [Cambios en la visibilidad](https://docs.github.com/en/webhooks/webhook-events-and-payloads#public) | + +#### Datos de telemetría + +Recopilación automatizada de datos mediante rastreadores de métricas y logs: + +- Métricas de alerta del análisis de código +- Métricas de alerta del análisis de secretos +- Métricas de repositorio +- Seguimiento del estado de alertas +- Tendencias de flujos de trabajo + +#### Registros de auditoría -{{< img src="integrations/github/repo_configuration.png" alt="La pestaña Configuración del repositorio en el cuadro de integración de GitHub" popup="true" style="width:100%;">}} +Datos de seguridad y cumplimiento a nivel de empresa: -Puedes usar la [integración de código fuente][1] de Datadog a fin de ver fragmentos de código en tus stack traces, vincular stack traces al código fuente en GitHub para tus [funciones de Lambda][2], mostrar resúmenes de resultados de tests de los comentarios de solicitudes pull en [CI Visibility][3] y acceder a diferentes definiciones de servicio en GitHub desde [Service Catalog][4]. +- Audit Log Streaming (recomendado para nuevos clientes) + - Monitorización de la actividad de toda la organización en tiempo real + - Cambios en el acceso de los usuarios + - Modificación de los parámetros de seguridad + - Eventos a nivel de organización +- Rastreador de logs de auditoría legacy (disponible solo para clientes que lo hayan configurado previamente) + - Datos de logs de auditoría históricos + - Eventos de seguridad de la organización -## Configurar +**Nota**: Datadog eligió Audit Log Streaming como método preferido para la recopilación de logs de auditoría. Mientras que los rastreadores de análisis de código y de seguridad siguen siendo partes activas de GitHub Telemetry, el rastreador de logs de auditoría solo está disponible para los clientes que lo hayan instalado previamente. + +## Configuración + +### Configuración + +Cada tipo de datos requiere permisos y pasos de configuración específicos. Consulta la sección de configuración de cada tipo de datos para configurar cada parte de la integración. + +- [Logs de auditoría](#audit-logs) +- [GitHub Apps](#github-apps) +- [Métricas](#metrics) +- [Eventos de repositorio](#repository-events) + +### GitHub Apps
-Sigue estas instrucciones para instalar GitHub Apps y otorgar permisos a Datadog. En función de los permisos otorgados, puedes configurar la integración de código fuente, ver fragmentos de código en las stack traces, ver la telemetría recopilada, como los logs de auditoría, acceder a GitHub Actions en CI Visibility y más. +Dependiendo de la función del producto, puede ser necesaria una configuración adicional, además de la creación de una GitHub App, para habilitar completamente esa función. La creación de una GitHub App para conectar tu cuenta solo concede los permisos de GitHub que estas funciones requieren como requisitos previos. No incurrirás en gastos adicionales por la creación de GitHub Apps y ninguna función asociada a un producto facturable estará habilitada por defecto, aunque concedas los permisos necesarios para dichas funciones.
-### Vincular un repositorio en tu organización o cuenta personal +1. En el [ícono de integración de GitHub](https://app.datadoghq.com/integrations/github/), ve a la pestaña **Configuration** (Configuración). + +1. Haz clic en **Connect GitHub Account** (Conectar cuenta de GitHub) para crear una GitHub App nueva. + +1. En **Configure App** (Configurar aplicación), selecciona **Organization** (Organización) e ingresa un nombre para la organización en GitHub, o selecciona **Personal Account** (Cuenta personal). + +1. Para despliegues de GitHub autoalojadas, selecciona **Running GitHub enterprise server** (Ejecutar servidor empresarial de GitHub) e introduce la URL de tu instancia de servidor empresarial de GitHub (versión 2.22 o superior). Asegúrate de que los servidores de Datadog puedan conectarse con tu instancia de GitHub. Las direcciones IP de los servidores están disponibles en la sección Webhooks de [Rangos de IP](https://docs.datadoghq.com/api/latest/ip-ranges/). + +1. Opcionalmente, si no quieres utilizar la configuración recomendada de Datadog, amplía **Edit GitHub App permissions** (Editar permisos de GitHub App) para ver y personalizar los permisos de GitHub que quieres conceder a Datadog. El resumen contiene estas secciones: + + - **Funciones de Datadog** enumera las funciones generales y específicas del producto en Datadog que requieren permisos específicos de GitHub. Amplía cada función para obtener detalles sobre su funcionalidad y sus requisitos. + + - **Permisos de GitHub** enumera los permisos de GitHub relacionados. Puedes utilizar los desplegables **Access Level** (Nivel de acceso) para cambiar la autorización del acceso a aspectos específicos de tu entorno de GitHub. + + Por defecto, Datadog selecciona los permisos recomendados necesarios para todas las funciones relacionadas con el código fuente. Cambiar los permisos afectará a la funcionalidad de las funciones. La sección **Datadog Features** (Funciones de Datadog) identifica cualquier función no disponible y sus requisitos faltantes. + +!["Permisos faltantes de Github"](images/missing_permissions.png) + +6. Haz clic en **Create App in GitHub** (Crear aplicación en GitHub). Si es necesario, se te pedirá que te autentiques en GitHub. +1. En GitHub, introduce un nombre para tu GitHub App y haz clic en **Create GitHub App** (Crear GitHub App). +1. Elige si quieres instalar la GitHub App para **All repositories** (Todos los repositorios) o **Only select repositories** (Solo los repositorios seleccionados) y, a continuación, haz clic en **Install & Authorize** (Instalar y autorizar). + +Cuando termines de instalar la aplicación de GitHub, volverás al punto donde lo dejaste en Datadog. Para activar fragmentos de código en línea en APM, considera [configurar la integración del código source (fuente)](https://docs.datadoghq.com/integrations/guide/source-code-integration/). + +#### Actualizar una GitHub App existente + +Si una GitHub App instalada no tiene los permisos o webhooks necesarios para una función, Datadog indica los requisitos que faltan en la pestaña **Configuration** (Configuración) de la página de la integración. Esta alerta también aparece en otras áreas de Datadog en las que puedes activar y utilizar funciones con tecnología GitHub, como Test Optimization. + +Para actualizar tu GitHub App con los requisitos que faltan de la página de la integración: + +1. Haz clic en **Review Missing Requirements** (Revisar los requisitos que faltan). +1. Selecciona las funciones de Datadog deseadas. La lista solo incluye las funciones a las que les faltan requisitos. +1. A medida que selecciones cada función, ten en cuenta los **Repository Permissions** (Permisos de repositorio), los **Organization Permissions** (Permisos de organización) o los **Webhooks** específicos que se indican en el siguiente paso de las instrucciones. +1. Haz clic en **Go to GitHub App Settings** (Ir a los parámetros de GitHub App) y autentícate con GitHub. +1. En GitHub, actualiza los permisos y webhooks necesarios. Revisa las instrucciones en Datadog, si es necesario. +1. Asegúrate de hacer clic en **Save changes** (Guardar cambios), en la parte inferior de la página en GitHub. +1. Datadog intentará verificar que hayas realizado los cambios correctamente. Vuelve a Datadog para confirmar que la verificación se aprobó con una marca de verificación verde. Si sólo necesitas actualizar los webhooks, puedes cerrar las instrucciones y detenerte aquí. + +**_Si actualizaste los permisos_** -Si eres administrador en tu organización de GitHub, puedes configurar GitHub Apps. +1. Haz clic en **Accept New Permissions** (Aceptar nuevos permisos) para volver a GitHub y aceptar los cambios en los permisos. -1. En el [cuadro de integración de GitHub][5], dirígete a la pestaña **Repo Configuration** (Configuración del repositorio). -2. Haz clic en **Link GitHub Account** (Vincular cuenta de GitHub) para crear una GitHub App nueva. -3. En **Configure** (Configurar), selecciona **Organization** (Organización) e ingresa un nombre para la organización, o selecciona **Personal Account** (Cuenta personal). +1. En GitHub, haz clic en **Review request** (Revisar solicitud) y acepta los nuevos permisos. - De manera opcional, especifica la URL de tu instancia de GitHub Enterprise Server (versión 2.22 o posterior) y asegúrate de que los servidores de Datadog puedan conectarse a tu instancia de Enterprise. Las direcciones IP de los servidores se encuentran disponibles en la sección Webhooks de [Rangos de IP][6]. +1. Datadog intentará verificar que tus nuevos permisos hayan sido aceptados con éxito. Vuelve a Datadog para confirmar que la verificación se aprobó con una marca de verificación verde y, a continuación, cierra las instrucciones. -4. En **Edit Permissions** (Editar permisos), habilita los permisos de lectura de Datadog para problemas, solicitudes pull y contenidos. Debes seleccionar al menos un permiso. -5. Haz clic en **Create App in GitHub** (Crear aplicación en GitHub), luego se te solicitará que ingreses un nombre de GitHub App en GitHub. -6. Ingresa un nombre en el campo nombre de GitHub App y haz clic en **Create GitHub App** (Crear GitHub App). -7. En la pestaña **Configuration** (Configuración), haz clic en **Install GitHub App** (Instalar GitHub App) e **Install & Authorize** (Instalar y autorizar). + ![Permisos de cambio](images/change_permissions.png) -Tu GitHub App se muestra en el cuadro de integración. Para habilitar fragmentos de código en línea en las stack traces, consulta la [Configuración de la integración de código fuente][1]. +#### Notebooks -### Notebooks +Si has concedido a tu aplicación de GitHub permisos de lectura para incidencias y solicitudes de cambios, las incidencias y solicitudes de cambios de GitHub generan automáticamente una ventana emergente de previsualización con detalles que incluyen el historial de confirmaciones, el autor y la fecha en [Notebooks](https://app.datadoghq.com/notebook). -Si has concedido permisos de lectura para problemas y solicitudes pull a tu GitHub App, estos generarán de manera automática un cuadro flotante de vista previa con detalles que incluyen el historial de confirmaciones, el autor y la fecha en [Notebooks][7]. +1. Ve a **Notebooks** > **New Notebook** (Notebooks > Notebook nuevo). +1. Añade una celda **Text** (Textp) y menciona una incidente o una solicitud pull en GitHub en el campo **Editar** (Editar). Por ejemplo: `https://github.com/project/repository/pull/#`. +1. Haz clic en **Done** (Listo). Aparecerá el icono de GitHub junto al incidente o la solicitud pull vinculada. +1. Si es necesario, haz clic en **Connect to Preview** (Conectar a Vista Previa) y **Authorize** (Autorizar). +1. Coloca el cursor sobre la solicitud pull o problema vinculado para ver la vista previa de la descripción. -{{< img src="integrations/guide/github_apps/notebooks-links-to-git.png" alt="Enlaces a Git" style="width:90%;">}} +![Notebooks](images/notebook.png) -1. Dirígete a **Notebooks** > **New Notebook** (Notebook nuevo). -2. Añade una celda de **texto** y menciona un problema o solicitud pull en GitHub en el campo **Edit** (Editar), por ejemplo: `https://github.com/project/repository/pull/#`. -3. Haz clic en **Done** (Listo) y, a continuación, aparecerá el icono de GitHub junto al problema o solicitud pull vinculados. -4. Haz clic en **Connect to Preview** (Conectar a la vista previa) y **Authorize** (Autorizar). -5. Coloca el cursor sobre la solicitud pull o problema vinculado para ver la vista previa de la descripción. +#### Conecta GitHub Teams a Datadog Teams + +Para vincular GitHub Teams a [Datadog Teams ](https://docs.datadoghq.com/account_management/teams/), tu aplicación de GitHub debe tener el permiso _Miembros leen_. En el [ícono de integración de GitHub](https://app.datadoghq.com/integrations/github/), haz clic en **Review Missing Requirements** (Revisar los requisitos que faltan) y selecciona **Link GitHub Teams** (Vincular GitHub Teams) para ver cómo actualizar tu aplicación de GitHub con los permisos necesarios. + +Cuando tu aplicación de GitHub tenga el permiso _Miembros leen_, puedes vincular tu equipo de Datadog a un equipo de GitHub: + +1. En Datadog, ve a **Organization Settings** (Configuración de la organización) > **Teams**. +1. Selecciona el equipo Datadog que desees vincular. +1. En la page (página) del equipo, haz clic en **Settings** (Configuración). +1. Selecciona **GitHub Connection** (Connection (conexión) con GitHub). +1. Selecciona el equipo de GitHub que desees vincular. + +La connection (conexión) de GitHub Teams a Datadog Teams mejora las siguientes funciones: + +- [Code Security](https://docs.datadoghq.com/security/code_security/): Datadog puede [asociar automáticamente las vulnerabilidades detectadas con Teams](https://docs.datadoghq.com/getting_started/code_security/?tab=staticcodeanalysissast#link-results-to-teams) +- [Error Tracking](https://docs.datadoghq.com/error_tracking/explorer/): Automatiza la asignación de problemas a Teans con [Issue Team Ownership](https://docs.datadoghq.com/error_tracking/issue_team_ownership/) ### Logs de auditoría -**Requisito**: Se requiere una cuenta de GitHub Enterprise para recopilar logs de auditoría. +**Requirement** (Requisito): Se requiere una cuenta de GitHub Enterprise para recopilar logs de auditoría. -Los logs de auditoría abarcan todas las actividades y eventos de una organización de GitHub. Tras la instalación de una aplicación, permite que los permisos de **administración de la organización** tengan acceso de lectura. Esto permite que la aplicación comience a recopilar el flujo de auditoría de GitHub como logs en nombre de la organización de GitHub. +Los logs de auditoría abarcan todas las actividades y eventos de una organización de GitHub. Sigue las instrucciones de [configuración de streaming a Datadog](https://docs.github.com/en/enterprise-cloud@latest/admin/monitoring-activity-in-your-enterprise/reviewing-audit-logs-for-your-enterprise/streaming-the-audit-log-for-your-enterprise#setting-up-streaming-to-datadog) en la documentación de GitHub para reenviar tus logs de auditoría a Datadog. Para obtener más información sobre los logs de auditoría, consulta la documentación de GitHub para [acciones de logs de auditoría](https://docs.github.com/en/organizations/keeping-your-organization-secure/managing-security-settings-for-your-organization/reviewing-the-audit-log-for-your-organization#audit-log-actions). -Sigue las instrucciones en la [Configuración de la transmisión a Datadog][8] en la documentación de GitHub para reenviar tus logs de auditoría a Datadog. A fin de obtener más información sobre los logs de auditoría, consulta la documentación de GitHub para [Acciones de log de auditoría][9]. +### Datos de telemetría -## Datos recopilados +1. Configura una aplicación siguiendo las instrucciones de la sección [GitHub Apps](#github-apps). +1. Selecciona los permisos respectivos para el acceso de lectura durante la instalación de la aplicación. +1. Ve a la pestaña **Telemetry** (Telemetría) en el cuadro de Datadog. +1. Activar **Code Scan Alert** (Alerta de análisis de código) o **Secret Scan Alerts** (Alerta de análisis de secretos). + ![Datos telemétricos](images/telemetry_data.png) -### Métricas +**Para excluir las métricas Análisis de códigos o Análisis de secretos:_** -La integración de GitHub recopila métricas de alertas de escaneo de código y de secretos. Estas métricas proporcionan información general sobre el estado de alerta de la organización al categorizar su estado, repositorio y tipo de secreto. También proporcionan información a largo plazo sobre las tendencias de alerta y su progreso general. +1. Busca la organización correspondiente en la pestaña **Telemetry** (Telemetría) del cuadro de la integración. +1. Haz clic en el conmutador de las secciones correspondientes. +1. Haz clic en **Update Account** (Actualizar cuenta). -A fin de empezar a recopilar estas métricas, selecciona los permisos correspondientes para el acceso de lectura al instalar la aplicación. Para inhabilitar las métricas de escaneo de código o de secretos, busca la organización correspondiente en la pestaña **Telemetery** (Telemetría) en el cuadro de integración, haz clic en el botón de alternancia de las secciones respectivas y haz clic en **Update Account** (Actualizar cuenta). +### Eventos de repositorio -### Eventos +**Prerequisite** (Requisito previo): debes ser un administrador de Github de tu repositorio. -
-Sigue estas instrucciones para configurar webhooks en GitHub y Datadog, lo que permite que los eventos aparezcan en el Events Explorer. -
+#### En GitHub + +1. Haz clic en la página **Settings** (Parámetros) de tu proyecto de GitHub. + +1. Haz clic en **Webhooks** en la sección **Code, vplanning automation** (Código, planificación de la automatización). + +1. Haz clic en **Add Webhook** (Añadir webhook). + +1. Añade la siguiente URL en el campo **Payload URL** (URL de carga útil): + `https://{{< region-param key="dd_full_site" code="true" >}}/intake/webhook/github?api_key=`. No olvides sustituir `` por [tu clave de la API de Datadog ](https://app.datadoghq.com/organization-settings/api-keys). Esto también se puede generar en el ícono. + +1. Selecciona `application/json` en el menú desplegable **Content type** (Tipo de contenido). + +1. De manera opcional, añade un secreto en el campo **Secret** (Secreto). + +1. Asegúrate de que la casilla `Active` está seleccionada. + +1. Haz clic en **Add Webhook** (Añadir webhook). + + !["Configuración de Github Webhook](images/gh_webhook_config.png) + +1. En la sección **Which events would you like to trigger this webhook?** (¿Qué eventos deseas que activen este webhook?), haz clic en **Let me select individual events** (Déjame seleccionar eventos individuales). Selecciona eventos de entre las siguientes opciones compatibles para enviar [eventos](https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads) a Datadog: + +- creación de rama o etiqueta +- eliminación de rama o etiqueta +- reglas de protección de ramas +- comentarios de commits +- commits +- alertas de dependabot +- comentarios del incidente +- incidentes +- afiliación \**Only for Organizations** (Solo para organizaciones) +- comentarios de revisión de solicitudes pull +- solicitudes pull +- envíos +- repositorios +- alertas de vulnerabilidad de repositorios +- consultoría de seguridad +- agregado de equipos +- cambios de visibilidad -#### Añadir un webhook en GitHub +**Nota** Si seleccionas un evento que no figura en la lista anterior, Datadog no lo recibirá. -1. En tu proyecto de GitHub, dirígete a **Settings** (Configuración) > **Webhooks**. -2. Haz clic en **Add webhook** (Añadir webhook). -3. Añade la siguiente URL en el campo **Payload URL** (URL de carga útil): `https://{{< region-param key="dd_full_site" code="true" >}}/intake/webhook/github?api_key=`. No olvides reemplazar `` con [tu clave de API de Datadog][10]. -4. Selecciona `application/json` en el menú desplegable **Content type** (Tipo de contenido). -5. De manera opcional, añade un secreto en el campo **Secret** (Secreto). -6. En la sección **Which events would you like to trigger this webhook?** (¿Qué eventos te gustaría que activen este webhook?), haz clic en **Let me select individual events.** (Permíteme seleccionar eventos individuales.) y selecciona una de las siguientes opciones compatibles para enviar [eventos][11] a Datadog: +#### Configurar la integración de eventos de Github - | Nombre del evento | Acciones del evento | - |---|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| - | [Creación de rama o etiqueta (tag)][12] | | - | [Comentarios de confirmación][13] | | - | [Comentarios del problema][14] | Se admiten las siguientes acciones:

- [`created`][15]
- [`deleted`][16]
- [`edited`][17] | - | [Problemas][18] | Se admiten las siguientes acciones:

- [`assigned`][19]
- [`closed`][20]
- [`deleted`][21]
- [`demilestoned`][22]
- [`edited`][23]
- [`labeled`][24]
- [`locked`][25]
- [`milestoned`][26]
- [`opened`][27]
- [`pinned`][28]
- [`reopened`][29]
- [`transferred`][30]
- [`unassigned`][31]
- [`unlabeled`][32]
- [`unlocked`][33]
- [`unpinned`][34] | - | [Comentarios de revisión de la solicitud pull][35] | Se admiten las siguientes acciones:

- [`created`][36]
- [`deleted`][37]
- [`edited`][38] | - | [Solicitudes pull][39] | Se admiten las siguientes acciones:

- [`assigned`][40]
- [`unassigned`][41]
- [`labeled`][42]
- [`unlabeled`][43]
- [`opened`][44]
- [`edited`][45]
- [`closed`][46]
- [`reopened`][47]
- [`synchronize`][48]
- [`converted_to_draft`][49]
- [`locked`][50]
- [`unlocked`][51]
- [`enqueued`][52]
- [`dequeued`][53]
- [`milestoned`][54]
- [`demilestoned`][55]
- [`ready_for_review`][56]
- [`review_requested`][57]
- [`review_request_removed`][58]
- [`auto_merge_enabled`][59]
- [`auto_merge_disabled`][60] | - | [Pushes][61] | | - | [Repositorios][62] | Se admiten las siguientes acciones:

- [`archived`][63]
- [`created`][64]
- [`deleted`][65]
- [`edited`][66]
- [`privatized`][67]
- [`publicized`][68]
- [`renamed`][69]
- [`transferred`][70]
- [`unarchived`][71] | - | [Aviso de seguridad][72] | | - | [Adiciones del equipo][73] | | +Después de configurar el webhook en GitHub, configura qué repositorios y eventos monitorizar en Datadog. -7. Selecciona **Active** (Activo) para recibir detalles del evento cuando se active el enlace. -8. Haz clic en **Add webhook** (Añadir webhook) para guardar el webhook. +1. Ve al [ícono de integración de GitHub](https://app.datadoghq.com/integrations/github/) en Datadog. -#### Añadir un webhook en Datadog +1. Haz clic en la pestaña **Events** (Eventos). -1. En el [cuadro de integración de GitHub][5], dirígete a la pestaña **Webhooks**. -2. Especifica los repositorios y las ramas que quieres monitorizar para cada repositorio. Para añadir todos los repositorios de un usuario u organización, usa comodines (`*`). Puedes usar comodines en los nombres de las ramas. Por ejemplo, `dev-*` incluye todas las ramas que comienzan con `dev-`. +1. En la sección **Repository Configuration** (Configuración del repositorio): - Para reunir todos los eventos relacionados con la rama `master` del repositorio de GitHub `DataDog/documentation`, puedes ingresar `DataDog/documentation` en el campo **Repository** (Repositorio) y `master` en el campo **Branches** (Ramas). + - Introduce el nombre o los nombres de los repositorios que desees monitorizar. + - Formato: `organization/repository` (por ejemplo, `Datadog/documentation`) + - Para varios repositorios: + - Utiliza comodines: `Datadog/*` monitoriza todos los repositorios de la organización de Datadog. + - Enumera repositorios específicos: `Datadog/documentation`, `Datadog/integrations-core`. - Si quieres recopilar todos los eventos relacionados con **todas** las ramas `master` de la organización de Datadog, ingresa `DataDog/*` en el campo **Repository** (Repositorio) y `master` en el campo **Branches** (Ramas). - Nota: Cuando se usa un comodín para el nombre de repositorio, se debe especificar el usuario o la organización. Por ejemplo, «*» no es un nombre de repositorio válido, pero «DataDog/*» sí lo es. +1. En la sección **Branch Configuration** (Configuración de la rama): -3. Haz clic en las casillas de verificación de **Commits** (Confirmaciones) e **Issues** (Problemas) para recibir alertas sobre estos eventos. -4. Haz clic en **Update Configuration** (Actualizar configuración) para guardar la configuración del webhook. + - Introduce el nombre o los nombres de las ramas que quieres monitorizar. + - Ejemplos: + - Una sola rama: `main` + - Varias ramas: `main`, `develop` + - Utiliza comodines: `feature/*` monitoriza todas las ramas de funciones. + - Patrón común: `dev-*` monitoriza todas las ramas de desarrollo. -Una vez que hayas añadido webhooks en la pestaña **Webhooks** en el cuadro de integración, los eventos en los repositorios de GitHub que especificaste anteriormente empiezan a aparecer en el [Events Explorer][74]. Para obtener más información, consulta la [documentación del Events Explorer][75]. +1. En la sección **Event Types** (Tipos de eventos): -Para filtrar eventos provenientes de GitHub, selecciona **Github** en el menú de la faceta **Source** (Fuente) en **Core** (Núcleo), o ingresa `source:github` en la consulta de búsqueda. La gráfica de barras de los eventos se actualiza de manera automática a medida que editas la consulta de búsqueda. + - Selecciona **Commits** para realizar un seguimiento de los cambios en el código. + - Selecciona **Issues** (Incidentes) para monitorizar actividad de incidentes. + - Ambos pueden seleccionarse para un control exhaustivo + +1. Haz clic en **Update Configuration** (Actualizar configuración) para guardar la configuración. + +Después de la configuración, puedes ver los eventos de tu repositorio en [Explorer de eventos](https://app.datadoghq.com/event/explorer/): + +- Filtra eventos utilizando `source (fuente):github`. +- Utiliza el menú de facetas fuente en Core para filtrar los eventos de GitHub. +- El flujo de eventos se actualiza en tiempo real a medida que se producen nuevos eventos. + +**Nota**: Los eventos pueden tardar unos minutos en empezar a aparecer luego de la configuración inicial. + +### Datos recopilados + +Recopila datos procesables derivados de logs de auditoría, análisis de código, análisis de secretos y métricas de repositorio de GitHub. Estos datos de telemetría permitirán a tus equipos de ingeniería comprender las tendencias de los workflows / procesos (generic) y eventos de seguridad. Esta integración también recopila eventos de repositorios. + +- Visualiza y realiza un seguimiento de la actividad de los repositorios, de los eventos de auditoría y de tu estado de alerta general. +- Configura monitores en repositorios específicos para asegurarte de que tu equipo realiza un seguimiento de todas las nuevas alertas de análisis de código y dirígelas directamente a Slack o Jira para tomar medidas inmediatas. +- Protege tu organización de GitHub de las amenazas utilizando [Cloud SIEM de Datadog](https://docs.datadoghq.com/continuous_integration/guides/pull_request_comments/) para detectar señales que puedan indicar actividades sospechosas. + +Para empezar a ingerir estos datos, sigue las instrucciones de la [pestaña Telemetría](https://docs.datadoghq.com/security/code_security/dev_tool_int/github_pull_requests/) después de instalar la aplicación de GitHub de Datadog. + +### Métricas + +Esta integración recopila las siguientes métricas: + +- Alertas de análisis de código: Recopila métricas relacionadas con los distintos tipos de alertas de análisis de código y realiza un seguimiento de sus tendencias a lo largo del tiempo. + +- Alertas de análisis de secretos: Recopila métricas a medida que se detectan alertas de análisis de secretos y monitoriza cómo se resuelven. + +Estas métricas proporcionan una información general del estado de las alertas de la organización clasificando su estado, repositorio y tipo de secreto. También proporcionan información a largo plazo sobre las tendencias de las alertas y su progreso general. ### Checks de servicio La integración de GitHub no incluye checks de servicio. -## Resolución de problemas - -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][76]. - -## Leer más - -{{< partial name="whats-next/whats-next.html" >}} - -[1]: https://docs.datadoghq.com/es/integrations/guide/source-code-integration/ -[2]: https://docs.datadoghq.com/es/serverless/configuration/?tab=serverlessframework#link-errors-to-your-source-code -[3]: https://docs.datadoghq.com/es/continuous_integration/guides/pull_request_comments/ -[4]: https://docs.datadoghq.com/es/service_catalog/adding_metadata/#store-and-edit-service-definitions-in-github -[5]: https://app.datadoghq.com/integrations/github/ -[6]: https://docs.datadoghq.com/es/api/latest/ip-ranges/ -[7]: https://app.datadoghq.com/notebook -[8]: https://docs.github.com/en/enterprise-cloud@latest/admin/monitoring-activity-in-your-enterprise/reviewing-audit-logs-for-your-enterprise/streaming-the-audit-log-for-your-enterprise#setting-up-streaming-to-datadog -[9]: https://docs.github.com/en/organizations/keeping-your-organization-secure/managing-security-settings-for-your-organization/reviewing-the-audit-log-for-your-organization#audit-log-actions -[10]: https://app.datadoghq.com/organization-settings/api-keys -[11]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads -[12]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#create -[13]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#commit_comment -[14]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#issue_comment -[15]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=created#issue_comment -[16]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#issue_comment -[17]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#issue_comment -[18]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#issues -[19]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=assigned#issues -[20]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=closed#issues -[21]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#issues -[22]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=demilestoned#issues -[23]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#issues -[24]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=labeled#issues -[25]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=locked#issues -[26]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=milestoned#issues -[27]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=opened#issues -[28]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=pinned#issues -[29]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=reopened#issues -[30]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=transferred#issues -[31]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unassigned#issues -[32]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unlabeled#issues -[33]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unlocked#issues -[34]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unpinned#issues -[35]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#pull_request_review_comment -[36]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=created#pull_request_review_comment -[37]: hhttps://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#pull_request_review_comment -[38]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#pull_request_review_comment -[39]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#pull_request -[40]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=assigned#pull_request -[41]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unassigned#pull_request -[42]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=labeled#pull_request -[43]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unlabeled#pull_request -[44]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=opened#pull_request -[45]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#pull_request -[46]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=closed#pull_request -[47]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=reopened#pull_request -[48]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=synchronize#pull_request -[49]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=converted_to_draft#pull_request -[50]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=locked#pull_request -[51]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unlocked#pull_request -[52]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=enqueued#pull_request -[53]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=dequeued#pull_request -[54]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=milestoned#pull_request -[55]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=demilestoned#pull_request -[56]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=ready_for_review#pull_request -[57]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=review_requested#pull_request -[58]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=review_request_removed#pull_request -[59]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=auto_merge_enabled#pull_request -[60]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=auto_merge_disabled#pull_request -[61]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#push -[62]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#repository -[63]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=archived#repository -[64]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=created#repository -[65]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=deleted#repository -[66]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=edited#repository -[67]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=privatized#repository -[68]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=publicized#repository -[69]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=renamed#repository -[70]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=transferred#repository -[71]: https://docs.github.com/en/webhooks/webhook-events-and-payloads?actionType=unarchived#repository -[72]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#security_advisory -[73]: https://docs.github.com/en/webhooks-and-events/webhooks/webhook-events-and-payloads#team_add -[74]: https://app.datadoghq.com/event/explorer/ -[75]: https://docs.datadoghq.com/es/events/explorer/ -[76]: https://docs.datadoghq.com/es/help/ +### Eventos + +Esta integración utiliza webhooks para recopilar eventos del repositorio, que puedes ver en [Explorer de eventos](https://app.datadoghq.com/event/explorer/). + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog](https://docs.datadoghq.com/help/). + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/integrations/github_costs.md b/content/es/integrations/github_costs.md new file mode 100644 index 0000000000000..a94095ede77fd --- /dev/null +++ b/content/es/integrations/github_costs.md @@ -0,0 +1,121 @@ +--- +app_id: github-costs +app_uuid: fb5e121a-6cdc-4a2a-b85a-850134c50693 +assets: + dashboards: + GitHub-Costs-Overview: assets/dashboards/GitHub-Costs-Overview_dashboard.json + integration: + auto_install: false + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 38026450 + source_type_name: GitHub Costs +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- gestión de costes +- colaboración +- herramientas de desarrollo +- control de fuentes +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: github_costs +integration_id: github-costs +integration_title: GitHub Costs +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: github_costs +public_title: GitHub Costs +short_description: Integra GitHub Costs con Datadog Cloud Cost para optimizar e informar + sobre los costes de uso de repositorios y empresas. +supported_os: +- linux +- Windows +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Offering::Integration + - Categoría::Gestión de costes + - Category::Collaboration + - Categoría::Herramientas de desarrollo + - Category::Source Control + configuration: README.md#Setup + description: Integra GitHub Costs con Datadog Cloud Cost para optimizar e informar + sobre los costes de uso de repositorios y empresas. + media: + - caption: Dashboard de GitHub Costs + image_url: images/dashboard-redacted.png + media_type: imagen + - caption: Explorador de GitHub Costs + image_url: images/explorer-redacted.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: GitHub Costs +--- + + +## Información general + +La integración de GitHub Costs de Datadog proporciona una visión completa de los gastos de GitHub, desde Actions a Storage a Copilot, en toda la organización. Con esta integración, puedes ver los costes de GitHub junto con otros costes en [Cloud Cost Management][1], filtrar los datos de costes por repositorio y optimizar el gasto en la nube en toda la empresa. + +## Configuración + +Para leer la información de facturación de la empresa desde GitHub, Datadog requiere un token de acceso personal (clásico) con los contextos `manage_billing:enterprise` y `repo`, como se indica en la [documentación de GitHub][2]. También es necesario proporcionar el nombre de la empresa, que se puede encontrar en la [página de parámetros de la empresa][3]. + + +### Instalación + +1. Ve al [cuadro de Github Costs][4] en Datadog. +2. Haz clic en **Add New** (Añadir nuevo). +3. Introduce un nombre de cuenta, tu token de acceso personal y el nombre de tu empresa (en formato `enterprise-name`), así como las etiquetas (tags) correspondientes. +4. Haz clic en el botón de marca de verificación para guardar esta cuenta. + +### Validación + +Una vez configurada la integración, los datos suelen aparecer en [Cloud Cost Management][1] en "GitHub Costs" del nombre del proveedor en un plazo aproximado de 24 horas. Para ver una lista de los datos recopilados, consulta [Integraciones de costes SaaS][5]. + +## Datos recopilados + +### Cloud Cost Management + +La integración de costes de GitHub calcula los costes basándose en precios de lista y datos de uso, e incluye valores de descuento cuando están disponibles. No tiene en cuenta las tarifas negociadas. + +### Métricas + +GitHub Costs no incluye métricas. + +### Recopilación de logs + +GitHub Costs no incluye logs. + +### Eventos + +GitHub Costs no incluye eventos. + +### Checks de servicio + +GitHub Costs no incluye checks de servicios. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog][6]. + +[1]: https://app.datadoghq.com/cost +[2]: https://docs.github.com/en/enterprise-cloud@latest/rest/enterprise-admin/billing?apiVersion=2022-11-28 +[3]: https://github.com/settings/enterprises +[4]: https://app.datadoghq.com/integrations/github-costs +[5]: https://docs.datadoghq.com/es/cloud_cost_management/saas_costs/?tab=githubcosts#data-collected +[6]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/glusterfs.md b/content/es/integrations/glusterfs.md index 06c368142493f..60cbae89bb0f8 100644 --- a/content/es/integrations/glusterfs.md +++ b/content/es/integrations/glusterfs.md @@ -1,91 +1,34 @@ --- app_id: glusterfs -app_uuid: 3c3562fb-8dce-4265-a8de-eacaa30974e1 -assets: - dashboards: - Red Hat Gluster Storage: assets/dashboards/red_hat_gluster_storage.json - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - metrics: - check: glusterfs.cluster.nodes.count - metadata_path: metadata.csv - prefix: glusterfs. - process_signatures: - - glusterd - - gluster - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10145 - source_type_name: GlusterFS - monitors: - Number of offline bricks is high: assets/monitors/brick_status.json - saved_views: - glusterfs_processes: assets/saved_views/glusterfs_processes.json -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - almacenes de datos - recopilación de logs custom_kind: integración -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/glusterfs/README.md -display_on_public_website: true -draft: false -git_integration_title: glusterfs -integration_id: glusterfs -integration_title: Red Hat Gluster Storage -integration_version: 3.0.1 -is_public: true -manifest_version: 2.0.0 -name: glusterfs -public_title: Red Hat Gluster Storage -short_description: Monitoriza métricas de estados de nodo, de volumen y de ladrillo - del clúster GlusterFS. +description: Monitoriza métricas de estados de nodo, de volumen y de ladrillo del + clúster GlusterFS. +integration_version: 3.0.2 +media: [] supported_os: - Linux -tile: - changelog: CHANGELOG.md - classifier_tags: - - Sistema operativo compatible::Linux - - Categoría::Almacenes de datos - - Categoría::Recopilación de logs - - Oferta::Integración - configuration: README.md#Configuración - description: Monitoriza métricas de estados de nodo, de volumen y de ladrillo del - clúster GlusterFS. - media: [] - overview: README.md#Información general - support: README.md#Soporte - title: Red Hat Gluster Storage +title: Red Hat Gluster Storage --- - - - - ## Información general -Este check monitoriza la situación, el volumen y el estado de ladrillos del clúster [Red Hat Gluster Storage][1] a través del Datadog Agent. -Esta integración GlusterFS es compatible con las versiones de código abierto y vendidas por Red Hat de GlusterFS. +Este check monitoriza el estado del clúster de [Red Hat Gluster Storage](https://www.redhat.com/en/technologies/storage/gluster), el volumen y el estado de los bloques a través del Datadog Agent. +Esta integración de GlusterFS es compatible con las versiones de Red Hat de terceros y de código abierto de GlusterFS. ## Configuración -Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones. +Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecute en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de estas instrucciones. ### Instalación -El check de GlusterFS está incluido en el paquete del [Datadog Agent ][3]. +El check de GlusterFS está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest). No es necesaria ninguna instalación adicional en tu servidor. ### Configuración -1. Edita el archivo `glusterfs.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent, para empezar a recopilar los datos de rendimiento de tu GlusterFS. Para conocer todas las opciones de configuración disponibles, consulta el [glusterfs.d/conf.yaml de ejemplo][4]. +1. Edita el archivo `glusterfs.d/conf.yaml`, en la carpeta `conf.d/` en la raíz del directorio de configuración de tu Agent para comenzar a recopilar tus datos de rendimiento de GlusterFS. Consulta el [glusterfs.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/glusterfs/datadog_checks/glusterfs/data/conf.yaml.example de ejemplo) para todas las opciones de configuración disponibles. ```yaml init_config: @@ -110,7 +53,7 @@ No es necesaria ninguna instalación adicional en tu servidor. min_collection_interval: 60 ``` - **NOTA**: Por defecto, [`gstatus`][5] llama internamente al comando `gluster` que requiere ser ejecutado como superusuario. Añade una línea como la siguiente a tu archivo `sudoers`: + **NOTA**: Por defecto, [`gstatus`](https://github.com/gluster/gstatus#install) llama internamente al comando `gluster` que requiere ser ejecutado como superusuario. Añade una línea como la siguiente a tu archivo `sudoers`: ```text dd-agent ALL=(ALL) NOPASSWD:/path/to/your/gstatus @@ -118,66 +61,98 @@ No es necesaria ninguna instalación adicional en tu servidor. Si tu entorno GlusterFS no requiere raíz, define la opción de configuración `use_sudo` como `false`. -2. [Reinicia el Agent][6]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). #### Recopilación de logs +1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`: -1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala en tu archivo `datadog.yaml`: - - ```yaml - logs_enabled: true - ``` + ```yaml + logs_enabled: true + ``` -2. Edita este bloque de configuración en tu archivo `glusterfs.d/conf.yaml` para empezar a recopilar tus logs de GlusterFS: +1. Edita este bloque de configuración en tu archivo `glusterfs.d/conf.yaml` para empezar a recopilar tus logs de GlusterFS: - ```yaml - logs: - - type: file - path: /var/log/glusterfs/glusterd.log - source: glusterfs - - type: file - path: /var/log/glusterfs/cli.log - source: glusterfs - ``` + ```yaml + logs: + - type: file + path: /var/log/glusterfs/glusterd.log + source: glusterfs + - type: file + path: /var/log/glusterfs/cli.log + source: glusterfs + ``` - Cambia el valor del parámetro `path` en función de tu entorno. Para ver todas las opciones de configuración disponibles, consulta el [conf.yaml de ejemplo][4]. +Cambia el valor del parámetro `path` en función de tu entorno. Consulta el [conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/glusterfs/datadog_checks/glusterfs/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. - 3. [Reinicia el Agent][6]. +3. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). -Para obtener más información sobre cómo configurar el Agent para la recopilación de logs en entornos Kubernetes, consulta [Recopilación de logs de Kubernetes][7]. +Para obtener información sobre la configuración del Agent para la recopilación de logs en entornos de Kubernetes, consulta [Recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/). ### Validación -[Ejecuta el subcomando de estado del Agent][8] y busca `glusterfs` en la sección **Checks**. +[Ejecuta el subcomando de estado del Agent(https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `glusterfs` en la sección Checks. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "glusterfs" >}} +| | | +| --- | --- | +| **glusterfs.brick.block_size**
(gauge) | Tamaño de bloque del bloque
_Se muestra como byte_ | +| **glusterfs.brick.inodes.free**
(gauge) | Inodos libres en el bloque
_Se muestra como byte_ | +| **glusterfs.brick.inodes.total**
(gauge) | Total de inodos en el bloque
_Se muestra como byte_ | +| **glusterfs.brick.inodes.used**
(gauge) | Inode utilizado en el bloque
_Se muestra como byte_ | +| **glusterfs.brick.online**
(gauge) | Número de bloques en línea
_Se muestra como unidad_ | +| **glusterfs.brick.size.free**
(gauge) | Tamaño del bloque libre
_Se muestra como byte_ | +| **glusterfs.brick.size.total**
(gauge) | Tamaño total del bloque
_Se muestra como byte_ | +| **glusterfs.brick.size.used**
(gauge) | Bytes actuales utilizados en el bloque
_Se muestra como byte_ | +| **glusterfs.cluster.nodes.active**
(gauge) | Nodos activos actuales
_Se muestra como nodo_ | +| **glusterfs.cluster.nodes.count**
(gauge) | Número total de nodos en el clúster
_Se muestra como nodo_ | +| **glusterfs.cluster.volumes.count**
(gauge) | Número de volúmenes en el clúster
_Se muestra como unidad_ | +| **glusterfs.cluster.volumes.started**
(gauge) | Número de volúmenes iniciados en el clúster
_Se muestra como unidad_ | +| **glusterfs.subvol.disperse**
(gauge) | Recuento disperso del subvolumen
_Se muestra como unidad_ | +| **glusterfs.subvol.disperse_redundancy**
(gauge) | Redundancia dispersa del subvolumen
_Se muestra como unidad_ | +| **glusterfs.subvol.replica**
(gauge) | Réplicas en subvolumen
_Se muestra como unidad_ | +| **glusterfs.volume.bricks.count**
(gauge) | Número de bloques en el volumen
_Se muestra como unidad_ | +| **glusterfs.volume.disperse**
(gauge) | Número de dispersos en el volumen
_Se muestra como unidad_ | +| **glusterfs.volume.disperse_redundancy**
(gauge) | Número de redundancia dispersa en el volumen
_Se muestra como unidad_ | +| **glusterfs.volume.distribute**
(gauge) | Número de distribuidos
_Se muestra como unidad_ | +| **glusterfs.volume.inodes.free**
(gauge) | Inodos libres en el volumen
_Se muestra como byte_ | +| **glusterfs.volume.inodes.total**
(gauge) | Tamaño total de inodos en el volumen
_Se muestra como byte_ | +| **glusterfs.volume.inodes.used**
(gauge) | Bytes usados de inodos en el volumen
_Se muestra como byte_ | +| **glusterfs.volume.online**
(gauge) | Número de volúmenes en línea
_Se muestra como unidad_ | +| **glusterfs.volume.replica**
(gauge) | Réplicas en volúmenes
_Se muestra como unidad_ | +| **glusterfs.volume.size.free**
(gauge) | Bytes libres en el volumen
_Se muestra como byte_ | +| **glusterfs.volume.size.total**
(gauge) | Bytes totales en el volumen
_Se muestra como byte_ | +| **glusterfs.volume.size.used**
(gauge) | Bytes utilizados en el volumen
_Se muestra como byte_ | +| **glusterfs.volume.snapshot.count**
(gauge) | Número de snapshots del volumen
_Se muestra como byte_ | +| **glusterfs.volume.used.percent**
(gauge) | Porcentaje de volumen utilizado
_Se muestra en porcentaje_ | ### Eventos GlusterFS no incluye eventos. ### Checks de servicio -{{< get-service-checks-from-git "glusterfs" >}} +**glusterfs.brick.health** -## Solucionar problemas +Devuelve `CRITICAL` si el subvolumen es 'degraded'. Devuelve `OK` si es 'up'. + +_Estados: ok, critical, warning_ + +**glusterfs.volume.health** + +Devuelve `CRITICAL` si el volumen es 'degraded'. Devuelve `OK` si es 'up'. -¿Necesitas ayuda? Contacta con el [equipo de asistencia de Datadog][11]. +_Estados: ok, critical, warning_ +**glusterfs.cluster.health** + +Devuelve `CRITICAL` si el volumen es 'degraded'. Devuelve `OK` en caso contrario. + +_Estados: ok, critical, warning_ + +## Solucionar problemas -[1]: https://www.redhat.com/en/technologies/storage/gluster -[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ -[3]: https://app.datadoghq.com/account/settings/agent/latest -[4]: https://github.com/DataDog/integrations-core/blob/master/glusterfs/datadog_checks/glusterfs/data/conf.yaml.example -[5]: https://github.com/gluster/gstatus#install -[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[7]: https://docs.datadoghq.com/es/agent/kubernetes/log/ -[8]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[9]: https://github.com/DataDog/integrations-core/blob/master/glusterfs/metadata.csv -[10]: https://github.com/DataDog/integrations-core/blob/master/glusterfs/assets/service_checks.json -[11]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/google_cloud_bigquery.md b/content/es/integrations/google_cloud_bigquery.md new file mode 100644 index 0000000000000..6a6ae8ef885ce --- /dev/null +++ b/content/es/integrations/google_cloud_bigquery.md @@ -0,0 +1,122 @@ +--- +app_id: google-cloud-bigquery +app_uuid: 7b7d322f-c14a-4378-994c-ed9982c94864 +assets: + dashboards: + bigquery: assets/dashboards/bigquery.json + integration: + auto_install: true + events: + creates_events: false + metrics: + check: gcp.bigquery.query.count + metadata_path: metadata.csv + prefix: gcp.bigquery. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 188 + source_type_name: Google BigQuery +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- nube +- google cloud +- almacenes de datos +- recopilación de logs +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: google_cloud_bigquery +integration_id: google-cloud-bigquery +integration_title: Google BigQuery +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: google_cloud_bigquery +public_title: Google BigQuery +short_description: BigQuery es el almacén de datos empresariales de bajo coste, de + nivel de petabyte y totalmente gestionado de Google para los análisis. +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Categoría::Nube + - Categoría::Google Cloud + - Categoría::Almacenes de datos + - Category::Log Collection + - Offering::Integration + configuration: README.md#Setup + description: BigQuery es el almacén de datos empresariales de bajo coste, de nivel + de petabyte y totalmente gestionado de Google para los análisis. + media: [] + overview: README.md#Overview + support: README.md#Support + title: Google BigQuery +--- + + + +{{< callout url="https://www.datadoghq.com/product-preview/bigquery-monitoring/" header="Únete a la vista previa" >}} + La monitorización ampliada de BigQuery está en vista previa. Utiliza este formulario para inscribirte y empezar a obtener información sobre el rendimiento de tus consultas. +{{< /callout >}} + + +## Información general + +La integración de Datadog con Google BigQuery proporciona una monitorización de tus cargas de trabajo de análisis de datos. + +Al conectar BigQuery con Datadog (mediante la integración con Google Cloud Platform), obtendrás información en tiempo real sobre el rendimiento de las consultas, el consumo de recursos y los generadores de costes. + +Esta integración te permite realizar un seguimiento de métricas críticas, como los tiempos de finalización de trabajos, el uso de ranuras y los bytes procesados, lo que te permite identificar latencias elevadas durante la ejecución de trabajos de BigQuery. + +## Configuración + +### Instalación + +Si aún no lo has hecho, configura la [integración Google Cloud Platform][1]. No es necesario realizar ningún otro paso de instalación. + +### Monitorización ampliada de BigQuery + +La monitorización ampliada de BigQuery proporciona una visibilidad granular de tus entornos BigQuery. + +Consulta la [documentación de la integración Google Cloud][2] para obtener instrucciones de configuración detalladas. + +### Recopilación de logs + +Los logs de Google BigQuery se recopilan con Google Cloud Logging y se envían a una tarea de Dataflow a través de un tema Cloud Pub/Sub. Si aún no lo has hecho, [configura la generación de logs con la plantilla Dataflow de Datadog][3]. + +Una vez hecho esto, exporta tus logs de Google BigQuery desde Google Cloud Logging al tema Pub/Sub: + +1. Ve a la [página de Google Cloud Logging][4] y filtra los logs de Google BigQuery. +2. Haz clic en **Create Export** (Crear exportación) y asigna un nombre al sumidero. +3. Elige "Cloud Pub/Sub" como destino y selecciona el tema Pub/Sub creado para tal fin. **Nota**: El tema Pub/Sub puede encontrarse en un proyecto diferente. +4. Haz clic en **Create** (Crear) y espera a que aparezca el mensaje de confirmación. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "google_cloud_bigquery" >}} + + +### Eventos + +La integración Google BigQuery no incluye eventos. + +### Checks de servicio + +La integración Google BigQuery no incluye checks de servicios. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog][6]. + +[1]: https://docs.datadoghq.com/es/integrations/google_cloud_platform/ +[2]: https://docs.datadoghq.com/es/integrations/google_cloud_platform/#expanded-bigquery-monitoring +[3]: https://docs.datadoghq.com/es/integrations/google_cloud_platform/#log-collection +[4]: https://console.cloud.google.com/logs/viewer +[5]: https://github.com/DataDog/dogweb/blob/prod/integration/google_cloud_big_query/google_cloud_big_query_metadata.csv +[6]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/hivemq.md b/content/es/integrations/hivemq.md index 2b52bbf567b4b..8a473ed85244a 100644 --- a/content/es/integrations/hivemq.md +++ b/content/es/integrations/hivemq.md @@ -1,92 +1,42 @@ --- app_id: hivemq -app_uuid: ba1769d1-c71b-4cf1-8169-8ce3b66629dd -assets: - dashboards: - HiveMQ: assets/dashboards/hivemq.json - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - metrics: - check: hivemq.messages.queued.count - metadata_path: metadata.csv - prefix: hivemq. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10101 - source_type_name: HiveMQ -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - iot (internet de las cosas) - recopilación de logs - colas de mensajes custom_kind: integración -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/hivemq/README.md -display_on_public_website: true -draft: false -git_integration_title: hivemq -integration_id: hivemq -integration_title: HiveMQ +description: Monitoriza tus clústeres HiveMQ. +further_reading: +- link: https://www.datadoghq.com/blog/hivemq-opentelemetry-monitor-iot-applications/ + tag: blog + text: Uso de HiveMQ y OpenTelemetry para monitorizar aplicaciones IoT en Datadog integration_version: 2.1.0 -is_public: true -manifest_version: 2.0.0 -name: hivemq -public_title: HiveMQ -short_description: Monitoriza tus clústeres HiveMQ. +media: [] supported_os: - Linux - Windows - macOS -tile: - changelog: CHANGELOG.md - classifier_tags: - - Categoría::IoT - - Categoría::Recopilación de logs - - Categoría::Colas de mensajes - - Sistema operativo compatible::Linux - - Sistema operativo compatible::Windows - - Sistema operativo compatible::macOS - - Oferta::Integración - configuration: README.md#Configuración - description: Monitoriza tus clústeres HiveMQ. - media: [] - overview: README.md#Información general - resources: - - resource_type: Blog - url: https://www.datadoghq.com/blog/hivemq-opentelemetry-monitor-iot-applications/ - support: README.md#Soporte - title: HiveMQ +title: HiveMQ --- - - - - ## Información general -[HiveMQ][1] es una plataforma de mensajería basada en MQTT, diseñada para el movimiento rápido, eficiente y fiable -de datos hacia y desde dispositivos IoT conectados. Es un broker compatible con MQTT v3.1, v3.1.1 y v5.0. +[HiveMQ](https://www.hivemq.com/hivemq/) es una plataforma de mensajería basada en MQTT diseñada para el movimiento rápido, eficiente y fiable +de datos hacia y desde dispositivos IoT conectados. Es un broker compatible con MQTT 3.1, 3.1.1 y 5.0. ## Configuración ### Instalación -El check de HiveMQ está incluido en el paquete del [Datadog Agent][2]. +El check de HiveMQ se incluye en el paquete de [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest). No es necesaria ninguna instalación adicional en tu servidor. ### Configuración {{< tabs >}} + {{% tab "Host" %}} -#### Host +#### host Para configurar este check para un Agent que se ejecuta en un host: @@ -94,24 +44,24 @@ Para configurar este check para un Agent que se ejecuta en un host: 1. Edita el archivo `hivemq.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración del Agent para empezar a recopilar tus datos de rendimiento de HiveMQ. - Para conocer todas las opciones de configuración disponibles, consulta el [hivemq.d/conf.yaml de ejemplo][1]. + Consulta el [hivemq.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/hivemq/datadog_checks/hivemq/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. - Este check tiene un límite de 350 métricas por instancia. El número de métricas devueltas se indica en [la página de estado][2]. + Este check tiene un límite de 350 métricas por instancia. El número de métricas devueltas se indica en [la página](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information). Puedes especificar las métricas que te interesan editando la configuración a continuación. - Para saber cómo personalizar las métricas que se van a recopilar,, consulta la [documentación de checks de JMX][3] para obtener instrucciones más detalladas. - Si necesitas monitorizar más métricas, ponte en contacto con el [servicio de asistencia de Datadog][4]. + Para saber cómo personalizar las métricas a recopilar, consulta la [documentación de checks de JMX](https://docs.datadoghq.com/integrations/java) para obtener instrucciones más detalladas. + Si necesitas monitorizar más métricas, ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help). -2. [Reinicia el Agent][5]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent) ##### Recopilación de logs -1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala en tu archivo `datadog.yaml`: +1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`: ```yaml logs_enabled: true ``` -2. Añade el siguiente bloque de configuración a tu archivo `hivemq.d/conf.yaml`. Cambia los valores de los parámetros `path` y `service` en función de tu entorno. Consulta el [hivemq.d/conf.yaml de ejemplo][1] para conocer todas las opciones de configuración disponibles. +1. Añade el siguiente bloque de configuración a tu archivo `hivemq.d/conf.yaml`. Cambia los valores de los parámetros `path` y `service` en función de tu entorno. Consulta el [hivemq.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/hivemq/datadog_checks/hivemq/data/conf.yaml.example) para ver todas las opciones de configuración disponibles. ```yaml logs: @@ -125,25 +75,21 @@ Para configurar este check para un Agent que se ejecuta en un host: pattern: \d{4}\.\d{2}\.\d{2} ``` -3. [Reinicia el Agent][5]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). -[1]: https://github.com/DataDog/integrations-core/blob/master/hivemq/datadog_checks/hivemq/data/conf.yaml.example -[2]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[3]: https://docs.datadoghq.com/es/integrations/java -[4]: https://docs.datadoghq.com/es/help -[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent {{% /tab %}} -{{% tab "Contenedorizado" %}} + +{{% tab "Containerized" %}} #### En contenedores ##### Recopilación de métricas -Para obtener información sobre entornos en contenedores, consulta la guía [Autodiscovery con JMX][1]. +Para entornos en contenedores, consulta la guía [Autodiscovery with JMX](https://docs.datadoghq.com/agent/guide/autodiscovery-with-jmx/?tab=containerizedagent). ##### Recopilación de logs -La recopilación de Logs se encuentra deshabilitada por defecto en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de Docker][2]. +La recopilación de logs está desactivada por defecto en Datadog Agent. Para activarla, consultz [recopilación de logs de Docker](https://docs.datadoghq.com/agent/docker/log/). | Parámetro | Valor | | -------------- | -------------------------------------------------- | @@ -151,7 +97,7 @@ La recopilación de Logs se encuentra deshabilitada por defecto en el Datadog Ag ### Validación -[Ejecuta el subcomando de estado del Agent][3] y busca `hivemq` en la sección **JMXFetch**: +[Ejecuta el subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `hivemq` en la sección **JMXFetch**: ```text ======== @@ -167,34 +113,284 @@ JMXFetch status : OK ``` -[1]: https://docs.datadoghq.com/es/agent/guide/autodiscovery-with-jmx/?tab=containerizedagent -[2]: https://docs.datadoghq.com/es/agent/docker/log/ -[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information {{% /tab %}} + {{< /tabs >}} ## Datos recopilados ### Métricas -{{< get-metrics-from-git "hivemq" >}} +| | | +| --- | --- | +| **hivemq.cache.payload_persistence.average_load_penalty**
(gauge) | Estadística de caché que captura la penalización de carga media de la caché de persistencia de carga útil.| +| **hivemq.cache.payload_persistence.eviction_count**
(gauge) | Estadística de caché que captura el recuento de desalojos de la caché de persistencia de carga útil| +| **hivemq.cache.payload_persistence.hit_count**
(gauge) | Estadística de caché que captura el recuento de aciertos de la caché de persistencia de carga útil
_Se muestra como acierto_ | +| **hivemq.cache.payload_persistence.hit_rate**
(gauge) | Estadística de caché que captura la tasa de aciertos de la caché de persistencia de carga útil.| +| **hivemq.cache.payload_persistence.load_count**
(gauge) | Estadística de caché que captura el recuento de carga de la caché de persistencia de carga útil.| +| **hivemq.cache.payload_persistence.load_exception_count**
(gauge) | Estadística de caché que captura el recuento de excepciones de carga de la caché de persistencia de carga útil.| +| **hivemq.cache.payload_persistence.load_exception_rate**
(gauge) | Estadística de caché que captura la tasa de excepciones de carga de la caché de persistencia de carga útil.| +| **hivemq.cache.payload_persistence.load_success_count**
(gauge) | Estadística de caché que captura el recuento de éxitos de carga de la caché de persistencia de carga útil.| +| **hivemq.cache.payload_persistence.miss_count**
(gauge) | Estadística de caché que captura el recuento de fallos de la caché de persistencia de carga útil| +| **hivemq.cache.payload_persistence.miss_rate**
(gauge) | Estadística de caché que captura la tasa de fallos de la caché de persistencia de carga útil.| +| **hivemq.cache.payload_persistence.request_count**
(gauge) | Estadística de caché que captura el recuento de solicitud de la caché de persistencia de carga útil.| +| **hivemq.cache.payload_persistence.total_load_time**
(gauge) | Estadística de caché que captura el tiempo de carga total de la caché de persistencia de carga útil.| +| **hivemq.cache.shared_subscription.average_load_penalty**
(gauge) | Estadística de caché que captura la penalización de carga media de la caché de suscripción compartida| +| **hivemq.cache.shared_subscription.eviction_count**
(gauge) | Estadística de caché que captura el recuento de desalojos de la caché de suscripción compartida| +| **hivemq.cache.shared_subscription.hit_count**
(gauge) | Estadística de caché que captura el recuento de aciertos de la caché de suscripción compartida| +| **hivemq.cache.shared_subscription.hit_rate**
(gauge) | Estadística de caché que captura la tasa de aciertos de la caché de suscripción compartida| +| **hivemq.cache.shared_subscription.load_count**
(gauge) | Estadística de caché que captura el recuento de carga de la caché de suscripción compartida| +| **hivemq.cache.shared_subscription.load_exception_count**
(gauge) | Estadística de caché que captura el recuento de excepciones de carga de la caché de suscripción compartida| +| **hivemq.cache.shared_subscription.load_exception_rate**
(gauge) | Estadística de caché que captura la tasa de excepciones de carga de la caché de suscripción compartida| +| **hivemq.cache.shared_subscription.load_success_count**
(gauge) | Estadística de caché que captura el recuento de éxitos de carga de la caché de suscripción compartida| +| **hivemq.cache.shared_subscription.miss_count**
(gauge) | Estadística de caché que captura el recuento de fallos de la caché de suscripción compartida| +| **hivemq.cache.shared_subscription.miss_rate**
(gauge) | Estadística de caché que captura la tasa de fallos de la caché de suscripción compartida| +| **hivemq.cache.shared_subscription.request_count**
(gauge) | Estadística de caché que captura el recuento de solicitudes de la caché de suscripción compartida| +| **hivemq.cache.shared_subscription.total_load_time**
(gauge) | Estadística de caché que captura el tiempo de carga total de la caché de suscripción compartida| +| **hivemq.cluster.name_request.retry.count**
(count) | Cuenta el número de reintentos hasta que se resuelve el nombre de un nodo a través de su dirección.| +| **hivemq.cpu_cores.licensed**
(gauge) | Contiene la cantidad máxima de núcleos de cpu permitidos por la licencia| +| **hivemq.cpu_cores.used**
(gauge) | Mantiene la cantidad actual de núcleos de cpu utilizados| +| **hivemq.extension.managed_executor.running**
(count) | Mide el recuento actual de trabajos en ejecución en el ManagedExtensionExecutor| +| **hivemq.extension.managed_executor.scheduled.overrun**
(count) | Mide el recuento actual de trabajos en el ManagedExtensionExecutor excedidos| +| **hivemq.extension.managed_executor.scheduled.percent_of_period.50th_percentile**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService| +| **hivemq.extension.managed_executor.scheduled.percent_of_period.75th_percentile**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService| +| **hivemq.extension.managed_executor.scheduled.percent_of_period.95th_percentile**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService| +| **hivemq.extension.managed_executor.scheduled.percent_of_period.98th_percentile**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService| +| **hivemq.extension.managed_executor.scheduled.percent_of_period.999th_percentile**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService| +| **hivemq.extension.managed_executor.scheduled.percent_of_period.99th_percentile**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService| +| **hivemq.extension.managed_executor.scheduled.percent_of_period.count**
(count) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService| +| **hivemq.extension.managed_executor.scheduled.percent_of_period.max**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService| +| **hivemq.extension.managed_executor.scheduled.percent_of_period.mean**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService| +| **hivemq.extension.managed_executor.scheduled.percent_of_period.min**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService| +| **hivemq.extension.managed_executor.scheduled.percent_of_period.snapshot_size**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService| +| **hivemq.extension.managed_executor.scheduled.percent_of_period.std_dev**
(gauge) | Mide el porcentaje del periodo programado que han durado los trabajos de ManagedExtensionExecutorService| +| **hivemq.extension.services.publish_service_publishes**
(count) | Cuenta la cantidad de mensajes de publicación enviados por el servicio de publicación.| +| **hivemq.extension.services.publish_service_publishes_to_client**
(count) | Cuenta la cantidad de mensajes de publicación enviados por el servicio de publicación a un cliente específico.| +| **hivemq.extension.services.rate_limit_exceeded.count**
(count) | Cuenta la cantidad de veces que se ha superado el límite de la tasa de servicio de extensión.| +| **hivemq.keep_alive.disconnect.count**
(count) | Cuenta cada conexión cerrada porque el cliente no envió el mensaje PINGREQ durante el intervalo keep-alive.| +| **hivemq.messages.dropped.count**
(count) | Cuenta todos los mensajes perdidos.| +| **hivemq.messages.dropped.internal_error.count**
(count) | Cuenta los mensajes PUBLISH que han sido descartados, debido a un error interno.| +| **hivemq.messages.dropped.message_too_large.count**
(count) | Cuenta los mensajes PUBLISH que se han descartado porque el tamaño del mensaje era demasiado grande para el cliente.| +| **hivemq.messages.dropped.mqtt_packet_too_large.count**
(count) | Cuenta los mensajes MQTT (excepto PUBLISH) que han sido descartados, porque el tamaño del mensaje era demasiado grande para el cliente.| +| **hivemq.messages.dropped.not_writable.count**
(count) | Cuenta los mensajes PUBLISH que han sido descartados, porque el socket para el cliente no era escribible (solo QoS 0).| +| **hivemq.messages.dropped.publish_inbound_intercepted.count**
(count) | Cuenta los mensajes PUBLISH que se han descartado porque un interceptor de entrada de publicación ha impedido la entrega posterior.| +| **hivemq.messages.dropped.qos_0_memory_exceeded.count**
(count) | Cuenta los mensajes PUBLISH que han sido descartados, porque se ha excedido el límite de memoria global para mensajes QoS 0.| +| **hivemq.messages.dropped.queue_full.count**
(count) | Cuenta los mensajes PUBLISH que se han descartado porque la cola de mensajes de un cliente de sesión persistente desconectado estaba llena.| +| **hivemq.messages.expired_messages**
(count) | Cuenta todos los mensajes caducados| +| **hivemq.messages.incoming.auth.count**
(count) | Cuenta cada mensaje MQTT AUTH entrante| +| **hivemq.messages.incoming.connect.count**
(count) | Cuenta cada mensaje MQTT CONNECT entrante| +| **hivemq.messages.incoming.connect.mqtt3.count**
(count) | Cuenta cada mensaje MQTT 3 CONNECT entrante| +| **hivemq.messages.incoming.connect.mqtt5.count**
(count) | Cuenta cada mensaje MQTT 5 CONNECT entrante| +| **hivemq.messages.incoming.disconnect.count**
(count) | Cuenta cada mensaje MQTT DISCONNECT entrante| +| **hivemq.messages.incoming.pingreq.count**
(count) | Cuenta cada mensaje MQTT PINGREQ entrante| +| **hivemq.messages.incoming.puback.count**
(count) | Cuenta cada mensaje MQTT PUBACK entrante| +| **hivemq.messages.incoming.pubcomp.count**
(count) | Cuenta cada mensaje MQTT PUBCOMP entrante| +| **hivemq.messages.incoming.publish.bytes.50th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.publish.bytes.75th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.publish.bytes.95th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.publish.bytes.98th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.publish.bytes.999th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.publish.bytes.99th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.publish.bytes.count**
(count) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.publish.bytes.max**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.publish.bytes.mean**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.publish.bytes.min**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.publish.bytes.snapshot_size**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.publish.bytes.std_dev**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.publish.count**
(count) | Cuenta cada mensaje MQTT PUBLISH entrante| +| **hivemq.messages.incoming.pubrec.count**
(count) | Cuenta cada mensaje MQTT PUBREC entrante| +| **hivemq.messages.incoming.pubrel.count**
(count) | Cuenta cada mensaje MQTT PUBREL entrante| +| **hivemq.messages.incoming.subscribe.count**
(count) | Cuenta cada mensaje MQTT SUBSCRIBE entrante| +| **hivemq.messages.incoming.total.bytes.50th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.total.bytes.75th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.total.bytes.95th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.total.bytes.98th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.total.bytes.999th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.total.bytes.99th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.total.bytes.count**
(count) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.total.bytes.max**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.total.bytes.mean**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.total.bytes.min**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.total.bytes.snapshot_size**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.total.bytes.std_dev**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT entrantes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.incoming.total.count**
(count) | Cuenta cada mensaje MQTT entrante| +| **hivemq.messages.incoming.unsubscribe.count**
(count) | Cuenta cada mensaje MQTT UNSUBSCRIBE entrante| +| **hivemq.messages.outgoing.auth.count**
(count) | Cuenta cada mensaje MQTT AUTH saliente| +| **hivemq.messages.outgoing.connack.count**
(count) | Cuenta cada mensaje MQTT CONNACK saliente| +| **hivemq.messages.outgoing.disconnect.count**
(count) | Cuenta cada mensaje MQTT DISCONNECT saliente| +| **hivemq.messages.outgoing.pingresp.count**
(count) | Cuenta cada mensaje MQTT PINGRESP saliente| +| **hivemq.messages.outgoing.puback.count**
(count) | Cuenta cada mensaje MQTT PUBACK saliente| +| **hivemq.messages.outgoing.pubcomp.count**
(count) | Cuenta cada mensaje MQTT PUBCOMP saliente| +| **hivemq.messages.outgoing.publish.bytes.50th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.publish.bytes.75th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.publish.bytes.95th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.publish.bytes.98th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.publish.bytes.999th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.publish.bytes.99th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.publish.bytes.count**
(count) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.publish.bytes.max**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.publish.bytes.mean**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.publish.bytes.min**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.publish.bytes.snapshot_size**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.publish.bytes.std_dev**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.publish.count**
(count) | Cuenta cada mensaje MQTT PUBLISH saliente| +| **hivemq.messages.outgoing.pubrec.count**
(count) | Cuenta cada mensaje MQTT PUBREC saliente| +| **hivemq.messages.outgoing.pubrel.count**
(count) | Cuenta cada mensaje MQTT PUBREL saliente| +| **hivemq.messages.outgoing.suback.count**
(count) | Cuenta cada mensaje MQTT SUBACK saliente| +| **hivemq.messages.outgoing.total.bytes.50th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.total.bytes.75th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.total.bytes.95th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.total.bytes.98th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.total.bytes.999th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.total.bytes.99th_percentile**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.total.bytes.count**
(count) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.total.bytes.max**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.total.bytes.mean**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.total.bytes.min**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.total.bytes.snapshot_size**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.total.bytes.std_dev**
(gauge) | Mide la distribución del tamaño de los mensajes MQTT salientes (incluidos los encabezados de los paquetes MQTT).| +| **hivemq.messages.outgoing.total.count**
(count) | Cuenta cada mensaje MQTT saliente| +| **hivemq.messages.outgoing.unsuback.count**
(count) | Cuenta cada mensaje MQTT UNSUBACK saliente| +| **hivemq.messages.pending.qos_0.count**
(gauge) | El número actual de mensajes qos 0 pendientes| +| **hivemq.messages.pending.total.count**
(gauge) | El número actual del total de mensajes pendientes| +| **hivemq.messages.queued.count**
(gauge) | Número actual de mensajes en cola| +| **hivemq.messages.retained.current**
(gauge) | La cantidad actual de mensajes retenidos| +| **hivemq.messages.retained.mean.50th_percentile**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.| +| **hivemq.messages.retained.mean.75th_percentile**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.| +| **hivemq.messages.retained.mean.95th_percentile**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.| +| **hivemq.messages.retained.mean.98th_percentile**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.| +| **hivemq.messages.retained.mean.999th_percentile**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.| +| **hivemq.messages.retained.mean.99th_percentile**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.| +| **hivemq.messages.retained.mean.count**
(count) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.| +| **hivemq.messages.retained.mean.max**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.| +| **hivemq.messages.retained.mean.mean**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.| +| **hivemq.messages.retained.mean.min**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.| +| **hivemq.messages.retained.mean.snapshot_size**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.| +| **hivemq.messages.retained.mean.std_dev**
(gauge) | Métricas sobre el tamaño medio de la carga útil de los mensajes retenidos en bytes.| +| **hivemq.messages.retained.pending.total.count**
(gauge) | El número actual del total de mensajes retenidos pendientes| +| **hivemq.messages.retained.queued.count**
(gauge) | El número actual de mensajes retenidos en cola| +| **hivemq.networking.bytes.read.current**
(gauge) | La cantidad actual (últimos 5 segundos) de bytes leídos| +| **hivemq.networking.bytes.read.total**
(gauge) | La cantidad total de bytes leídos| +| **hivemq.networking.bytes.write.current**
(gauge) | La cantidad actual (últimos 5 segundos) de bytes escritos| +| **hivemq.networking.bytes.write.total**
(gauge) | Cantidad total de bytes escritos| +| **hivemq.networking.connections.current**
(gauge) | Número total actual de conexiones MQTT activas| +| **hivemq.networking.connections.mean.50th_percentile**
(gauge) | Número total medio de conexiones MQTT activas| +| **hivemq.networking.connections.mean.75th_percentile**
(gauge) | Número total medio de conexiones MQTT activas| +| **hivemq.networking.connections.mean.95th_percentile**
(gauge) | Número total medio de conexiones MQTT activas| +| **hivemq.networking.connections.mean.98th_percentile**
(gauge) | Número total medio de conexiones MQTT activas| +| **hivemq.networking.connections.mean.999th_percentile**
(gauge) | Número total medio de conexiones MQTT activas| +| **hivemq.networking.connections.mean.99th_percentile**
(gauge) | Número total medio de conexiones MQTT activas| +| **hivemq.networking.connections.mean.count**
(count) | Número total medio de conexiones MQTT activas| +| **hivemq.networking.connections.mean.max**
(gauge) | Número total medio de conexiones MQTT activas| +| **hivemq.networking.connections.mean.mean**
(gauge) | Número total medio de conexiones MQTT activas| +| **hivemq.networking.connections.mean.min**
(gauge) | Número total medio de conexiones MQTT activas| +| **hivemq.networking.connections.mean.snapshot_size**
(gauge) | Número total medio de conexiones MQTT activas| +| **hivemq.networking.connections.mean.std_dev**
(gauge) | Número total medio de conexiones MQTT activas| +| **hivemq.networking.connections_closed.graceful.count**
(count) | Cuenta los clientes que se desconectaron después de enviar un mensaje DISCONNECT| +| **hivemq.networking.connections_closed.total.count**
(count) | Cuenta todos los clientes que se desconectaron de HiveMQ (= apagado ordenado + apagado forzado)| +| **hivemq.networking.connections_closed.ungraceful.count**
(count) | Cuenta los clientes que se desconectaron sin enviar un mensaje DISCONNECT| +| **hivemq.overload_protection.clients.average_credits**
(gauge) | Mantiene la cantidad media de créditos disponibles entre todos los clientes| +| **hivemq.overload_protection.clients.backpressure_active**
(gauge) | Contiene la cantidad actual de clientes a los que se aplica contrapresión mediante la protección contra sobrecarga.| +| **hivemq.overload_protection.clients.using_credits**
(gauge) | Mantiene la cantidad actual de clientes que tienen menos de la cantidad total de créditos| +| **hivemq.overload_protection.credits.per_tick**
(gauge) | Mantiene la cantidad actual de créditos que recibe un cliente por tick| +| **hivemq.overload_protection.level**
(gauge) | Mantiene el nivel actual de protección contra sobrecargas| +| **hivemq.payload_persistence.cleanup_executor.running**
(count) | Cuenta las tareas que se están ejecutando actualmente en el programador a cargo de la limpieza de la carga útil de persistencia| +| **hivemq.payload_persistence.cleanup_executor.scheduled.overrun**
(count) | Cuenta las tareas periódicas que se ejecutaron más tiempo del permitido en el programador encargado de la limpieza de la carga útil de persistencia.| +| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.50th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.| +| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.75th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.| +| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.95th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.| +| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.98th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.| +| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.999th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.| +| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.99th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.| +| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.count**
(count) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.| +| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.max**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.| +| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.mean**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.| +| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.min**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.| +| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.snapshot_size**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.| +| **hivemq.payload_persistence.cleanup_executor.scheduled.percent_of_period.std_dev**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizaron las tareas periódicas mientras ejecutaban la limpieza de la carga útil de persistencia.| +| **hivemq.persistence.executor.client_session.tasks**
(gauge) | Cantidad actual de tareas de E/S de disco que están en cola por la persistencia de la sesión de cliente.| +| **hivemq.persistence.executor.noempty_queues**
(gauge) | Cantidad actual de colas de tareas de escritor único que no están vacías| +| **hivemq.persistence.executor.outgoing_message_flow.tasks**
(gauge) | Cantidad actual de tareas de E/S de disco que están en cola por la persistencia del flujo de mensajes salientes.| +| **hivemq.persistence.executor.queue_misses**
(count) | Recuento actual de bucles que todos los subprocesos de escritor único han realizado sin ejecutar una tarea.| +| **hivemq.persistence.executor.queued_messages.tasks**
(gauge) | Cantidad actual de tareas de E/S de disco que están en cola por la persistencia de mensajes en cola.| +| **hivemq.persistence.executor.request_event_bus.tasks**
(gauge) | Cantidad actual de tareas en cola por el bus de eventos de solicitud| +| **hivemq.persistence.executor.retained_messages.tasks**
(gauge) | Cantidad actual de tareas de E/S de disco que están en cola por la persistencia de mensajes retenidos.| +| **hivemq.persistence.executor.running.threads**
(gauge) | Cantidad actual de subprocesos que están ejecutando tareas de E/S de disco| +| **hivemq.persistence.executor.subscription.tasks**
(gauge) | Cantidad actual de tareas de E/S de disco en cola por la persistencia de suscripción| +| **hivemq.persistence.executor.total.tasks**
(gauge) | Cantidad actual de tareas de E/S de disco en cola por todos los ejecutores de persistencia| +| **hivemq.persistence.payload_entries.count**
(gauge) | Contiene la cantidad actual de cargas útiles almacenadas en la persistencia de cargas útiles| +| **hivemq.persistence.removable_entries.count**
(gauge) | Contiene la cantidad actual de cargas útiles almacenadas en la persistencia de cargas útiles, que pueden eliminarse mediante la limpieza.| +| **hivemq.persistence_executor.running**
(count) | Cuenta las tareas que se están ejecutando actualmente en el ejecutor de persistencia| +| **hivemq.persistence_scheduled_executor.running**
(count) | Cuenta las tareas que se están ejecutando actualmente en el programador responsable de la persistencia| +| **hivemq.persistence_scheduled_executor.scheduled.overrun**
(count) | Cuenta las tareas periódicas que se han ejecutado más tiempo del permitido en el programador responsable de la persistencia.| +| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.50th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia| +| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.75th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia| +| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.95th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia| +| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.98th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia| +| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.999th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia| +| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.99th_percentile**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia| +| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.count**
(count) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia| +| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.max**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia| +| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.mean**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia| +| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.min**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia| +| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.snapshot_size**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia| +| **hivemq.persistence_scheduled_executor.scheduled.percent_of_period.std_dev**
(gauge) | Métricas sobre cuánto porcentaje de su marco temporal permitido utilizan las tareas periódicas en el programador responsable de la persistencia| +| **hivemq.publish.without_matching_subscribers**
(count) | Cuenta la cantidad de mensajes de publicación recibidos, sin suscriptores coincidentes| +| **hivemq.qos_0_memory.exceeded.per_client**
(gauge) | Mantiene la cantidad actual de clientes que excedieron su memoria de mensajes QoS 0| +| **hivemq.qos_0_memory.max**
(gauge) | Contiene la cantidad máxima de bytes que los mensajes QoS 0 pueden utilizar en memoria| +| **hivemq.qos_0_memory.used**
(gauge) | Mantiene la cantidad actual de bytes que los mensajes QoS 0 utilizan en memoria| +| **hivemq.sessions.overall.current**
(gauge) | Mide el recuento actual de sesiones almacenadas. Estas sesiones incluyen todas las sesiones, incluidos los clientes en línea y fuera de línea| +| **hivemq.sessions.persistent.active**
(count) | Mide el recuento actual de sesiones persistentes activas (= clientes MQTT en línea que están conectados con cleanSession=false).| +| **hivemq.single_writer_executor.running**
(count) | Cuenta las tareas que se están ejecutando actualmente en el programador responsable de un solo escritor| +| **hivemq.subscriptions.overall.current**
(count) | Mide el recuento actual de suscripciones en el broker| +| **hivemq.system.max_file_descriptor**
(gauge) | Cantidad máxima permitida de descriptores de archivo vistos por la JVM| +| **hivemq.system.open_file_descriptor**
(gauge) | Cantidad de descriptores de archivo abiertos vistos por la JVM| +| **hivemq.system.os.file_descriptors.max**
(gauge) | Cantidad máxima permitida de descriptores de archivo| +| **hivemq.system.os.file_descriptors.open**
(gauge) | Cantidad de descriptores de archivo actualmente abiertos| +| **hivemq.system.os.global.memory.available**
(gauge) | La cantidad de memoria física disponible actualmente, en bytes| +| **hivemq.system.os.global.memory.swap.total**
(gauge) | El tamaño actual de los archivos de paginación/swap, en bytes.| +| **hivemq.system.os.global.memory.swap.used**
(gauge) | La memoria actual asignada a los archivos de paginación/swap, en bytes.| +| **hivemq.system.os.global.memory.total**
(gauge) | La cantidad de memoria física real, en bytes| +| **hivemq.system.os.global.uptime**
(gauge) | Tiempo de actividad del sistema operativo en segundos| +| **hivemq.system.os.process.disk.bytes_read**
(gauge) | Número de bytes que el proceso de HiveMQ ha leído del disco| +| **hivemq.system.os.process.disk.bytes_written**
(gauge) | Número de bytes que el proceso de HiveMQ ha escrito en el disco| +| **hivemq.system.os.process.memory.resident_set_size**
(gauge) | Tamaño del conjunto residente (RSS) en bytes. Se utiliza para mostrar cuánta memoria está asignada al proceso de HiveMQ y está en la RAM. No incluye la memoria que se intercambia. Incluye la memoria de las bibliotecas compartidas siempre que las páginas de esas bibliotecas estén realmente en memoria. Incluye toda la memoria de stack tecnológico y heap.| +| **hivemq.system.os.process.memory.virtual**
(gauge) | Tamaño de memoria virtual (VSZ) en bytes. Incluye toda la memoria a la que puede acceder el proceso de HiveMQ, incluida la memoria intercambiada y la memoria de las bibliotecas compartidas.| +| **hivemq.system.os.process.threads.count**
(gauge) | Número de subprocesos del proceso de HiveMQ visto por el SO| +| **hivemq.system.os.process.time_spent.kernel**
(gauge) | Cantidad de milisegundos que el proceso de HiveMQ se ha ejecutado en modo kernel/sistema visto por el sistema operativo.| +| **hivemq.system.os.process.time_spent.user**
(gauge) | Cantidad de milisegundos que el proceso de HiveMQ se ha ejecutado en modo usuario visto por el sistema operativo.| +| **hivemq.system.physical_memory.free**
(gauge) | Cantidad actual de memoria física libre en bytes| +| **hivemq.system.physical_memory.total**
(gauge) | Cantidad total de memoria física (bytes) disponible| +| **hivemq.system.process_cpu.load**
(gauge) | Uso actual de la CPU para el proceso de JVM (0.0 inactivo - 1.0 uso total de la CPU)| +| **hivemq.system.process_cpu.time**
(gauge) | Cantidad total de tiempo de CPU que el proceso de JVM ha utilizado hasta este punto (en nanosegundos)| +| **hivemq.system.swap_space.free**
(gauge) | Cantidad actual de espacio swap libre en bytes| +| **hivemq.system.swap_space.total**
(gauge) | Cantidad total de espacio swap disponible en bytes| +| **hivemq.system.system_cpu.load**
(gauge) | Uso actual de la CPU para todo el sistema (0.0 inactivo - 1.0 uso total de la CPU)| +| **hivemq.topic_alias.count.total**
(gauge) | Contiene la cantidad actual de alias de temas| +| **hivemq.topic_alias.memory.usage**
(gauge) | Contiene la cantidad actual de bytes que los alias temáticos utilizan en memoria| ### Checks de servicio -{{< get-service-checks-from-git "hivemq" >}} +**hivemq.can_connect** -## Solucionar problemas +Devuelve `CRITICAL` si el Agent no puede conectarse a HiveMQ, `WARNING` si no se recopilan métricas y `OK` en caso contrario. -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. +_Estados: ok, critical, warning_ -## Referencias adicionales +### Eventos -Más enlaces, artículos y documentación útiles: +HiveMQ no incluye ningún evento. -- [Uso de HiveMQ y OpenTelemetry para la monitorización de aplicaciones IoT en Datadog][4] +### Checks de servicio + +Consulta [service_checks.json](https://github.com/DataDog/integrations-core/blob/master/hivemq/assets/service_checks.json) para obtener una lista de los checks de servicio proporcionados por esta integración. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help). + +## Referencias adicionales +Documentación útil adicional, enlaces y artículos: -[1]: https://www.hivemq.com/hivemq/ -[2]: https://app.datadoghq.com/account/settings/agent/latest -[3]: https://docs.datadoghq.com/es/help -[4]: https://www.datadoghq.com/blog/hivemq-opentelemetry-monitor-iot-applications/ \ No newline at end of file +- [Utiliza HiveMQ y OpenTelemetry para monitorizar aplicaciones IoT en Datadog](https://www.datadoghq.com/blog/hivemq-opentelemetry-monitor-iot-applications/) \ No newline at end of file diff --git a/content/es/integrations/ilert.md b/content/es/integrations/ilert.md index ac58d23e1817b..2b8392f4f1114 100644 --- a/content/es/integrations/ilert.md +++ b/content/es/integrations/ilert.md @@ -1,85 +1,34 @@ --- app_id: ilert -app_uuid: 12731389-915a-4fb7-baec-3319f87dfc7f -assets: - integration: - auto_install: true - configuration: {} - events: - creates_events: true - metrics: - check: [] - metadata_path: metadata.csv - prefix: ilert. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10154 - source_type_name: iLert -author: - homepage: https://github.com/DataDog/integrations-extras - name: ilert - sales_email: support@ilert.com - support_email: support@ilert.com categories: - events - colaboración - rum - rastreo de problemas - notificaciones -custom_kind: integration -dependencies: -- https://github.com/DataDog/integrations-extras/blob/master/ilert/README.md -display_on_public_website: true -draft: false -git_integration_title: ilert -integration_id: ilert -integration_title: ilert -integration_version: '' -is_public: true -manifest_version: 2.0.0 -name: ilert -public_title: ilert -short_description: Recibe notificaciones de las alertas de Datadog y adopte medidas - con ilert. +custom_kind: integración +description: Recibe notificaciones de las alertas de Datadog y adopte medidas con + ilert. +integration_version: 1.0.0 +media: +- caption: lista de alertas de ilert + image_url: images/ilert-alert-list.png + media_type: imagen supported_os: - linux - windows - macos -tile: - changelog: CHANGELOG.md - classifier_tags: - - Categoría::Alertas - - Categoría::Colaboración - - Categoría::Incidentes - - Categoría::Rastreo de problemas - - Categoría::Notificaciones - - SO compatible::Linux - - SO compatible::Windows - - SO compatible::macOS - - Oferta::Integración - configuration: README.md#Configuración - description: Recibe notificaciones de las alertas de Datadog y adopte medidas con - ilert. - media: - - caption: lista de alertas de ilert - image_url: images/ilert-alert-list.png - media_type: imagen - overview: README.md#Información general - support: README.md#Soporte - title: ilert +title: ilert --- - - ## Información general -La integración de [ilert][1] envía alertas de Datadog a ilert y toma medidas de manera fluida sobre estas alertas dentro de la plataforma ilert. -ilert es una plataforma de gestión de incidentes que permite a los equipos cubrir todas las etapas del ciclo de un incidente. ilert ofrece alertas confiables y procesables, enrutamiento de llamadas, horarios de disponibilidad flexibles, páginas de estado, varias características de ChatOps, asistencia de IA en las comunicaciones de incidentes y creación de autopsias. Con ilert, los equipos de DevOps aumentan el tiempo de actividad y responden los incidentes con mayor rapidez. +La integración de [ilert](https://www.ilert.com/?utm_medium=organic&utm_source=integration&utm_campaign=datadog) envía alertas de Datadog a ilert y ayuda a los DevOps y SREs a tomar medidas inmediatas para evitar tiempos de inactividad o interrupciones operativas. ilert es la plataforma de gestión de incidentes basada en la IA que permite a Teams cubrir todas las fases del ciclo de incidente. Con ilert, Teams responde a los incidentes más rápidamente y reduce su tiempo medio de resolución. Integra ilert para hacer lo siguiente: -- activar y resolver incidentes de Datadog; -- abordar los incidentes y establecer políticas de derivación a medida que se producen; -- establecer un recordatorio diario de quién está de guardia. +- Desencadenar y resolver incidencias de Datadog +- Abordar las incidencias y establecer políticas de escalada a medida que se producen +- Establecer un recordatorio diario de quién está de guardia ## Configuración @@ -89,32 +38,33 @@ Integra ilert para hacer lo siguiente: 1. Ve a la pestaña **Alert Sources** (Orígenes de alertas) y haz clic en el botón "Create new alert source" (Crear nuevo origen de alertas). -2. Busca "**Datadog**", selecciona el cuadro de **Datadog** y haz clic en **Next** (Siguiente). +1. Busca "**Datadog**", selecciona el cuadro de **Datadog** y haz clic en **Next** (Siguiente). - ![Nuevo origen de alertas de ilert][2] + ![Nueva fuente de alerta de ilert](https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-alert-source-new.png) -3. Asígnale un nombre. +1. Asígnale un nombre. - ![Nuevo origen de alertas de ilert 2][3] + ![Nueva fuente de alerta de ilert 2](https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-alert-source-new-2.png) -4. Selecciona la política de derivación que desees. +1. Selecciona la política de derivación que desees. - ![Nuevo origen de alertas de ilert 3][4] + ![Nueva fuente de alerta de ilert 3](https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-alert-source-new-3.png) -5. En la página siguiente, se genera una **Webhook URL** (URL de webhook). Necesitarás esta URL para la configuración de la integración en Datadog. +1. En la página siguiente, se genera una **Webhook URL** (URL de webhook). Necesitarás esta URL para la configuración de la integración en Datadog. - ![Vista del origen de alertas de ilert][5] + ![Vista de fuente de alerta de ilert](https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-alert-source-view.png) ### Datadog #### Añadir un webhook de ilert como canal de alertas -1. Desde la página **Datadog Integrations** (Integraciones de Datadog), [**instala la integración de Webhooks**][6]. -2. En el cuadro de la integración de Webhooks, añade un nuevo webhook: +1. Desde la página de integraciones de Datadog, [**instala la integración de webhooks**](https://app.datadoghq.com/integrations/webhooks). + +1. En el cuadro de la integración de Webhooks, añade un nuevo webhook: - ![Nuevo webhook de Datadog][7] + ![Nuevo webhook de Datadog](https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-webhook-new.png) -3. Ingresa un nombre, la **URL del webhook de Datadog** generada anteriormente a partir del origen de alertas de ilert y la **carga útil de la plantilla**: +1. Ingresa un nombre, la **URL del webhook de Datadog** generada anteriormente a partir del origen de alertas de ilert y la **carga útil de la plantilla**: ```json { @@ -134,9 +84,9 @@ Integra ilert para hacer lo siguiente: } ``` - ![Vista del webhook de Datadog][8] + ![Vista del webhook de Datadog](https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-webhook-view.png) -4. Haz clic en **Save** (Guardar). +1. Haz clic en **Save** (Guardar). ## Datos recopilados @@ -154,14 +104,4 @@ La integración de ilert no incluye checks de servicios. ## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][9]. - -[1]: https://www.ilert.com/?utm_medium=organic&utm_source=integration&utm_campaign=datadog -[2]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-alert-source-new.png -[3]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-alert-source-new-2.png -[4]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-alert-source-new-3.png -[5]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-alert-source-view.png -[6]: https://app.datadoghq.com/integrations/webhooks -[7]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-webhook-new.png -[8]: https://raw.githubusercontent.com/DataDog/integrations-extras/master/ilert/images/datadog-webhook-view.png -[9]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/insightfinder.md b/content/es/integrations/insightfinder.md index 35c7434587ef1..6da20c4236676 100644 --- a/content/es/integrations/insightfinder.md +++ b/content/es/integrations/insightfinder.md @@ -1,77 +1,23 @@ --- app_id: insightfinder -app_uuid: 144b8c72-b842-4257-9815-93aa63ad2da1 -assets: - dashboards: - InsightFinder Dashboard: assets/dashboards/ifdashboard.json - integration: - auto_install: true - configuration: {} - events: - creates_events: false - metrics: - check: [] - metadata_path: metadata.csv - prefix: insightfinder. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10253 - source_type_name: InsightFinder -author: - homepage: https://github.com/DataDog/integrations-extras - name: InsightFinder - sales_email: support@insightfinder.com - support_email: support@insightfinder.com categories: - events - automatización - rum - notificaciones - ia/ml -custom_kind: integration -dependencies: -- https://github.com/DataDog/integrations-extras/blob/master/insightfinder/README.md -display_on_public_website: true -draft: false -git_integration_title: insightfinder -integration_id: insightfinder -integration_title: InsightFinder -integration_version: '' -is_public: true -manifest_version: 2.0.0 -name: insightfinder -public_title: InsightFinder -short_description: Integra los datos de Datadog para su análisis con InsightFinder. +custom_kind: integración +description: Integra los datos de Datadog para su análisis con InsightFinder. +media: [] supported_os: - linux - windows - macos -tile: - changelog: CHANGELOG.md - classifier_tags: - - Categoría::Alertas - - Categoría::Automatización - - Categoría::Incidentes - - Categoría::Notificaciones - - Categoría::IA/ML - - SO compatible::Linux - - SO compatible::Windows - - SO compatible::macOS - - Oferta::Integración - configuration: README.md#Configuración - description: Integra los datos de Datadog para su análisis con InsightFinder. - media: [] - overview: README.md#Información general - support: README.md#Soporte - title: InsightFinder +title: InsightFinder --- - - - - ## Información general -[InsightFinder][1] AIOps identifica los problemas de sistemas y aplicaciones antes de que afecten a los usuarios. Gracias a la tecnología no supervisada de machine learning, InsightFinder aprende continuamente de eventos, logs, métricas y cambios para detectar anomalías, predecir incidentes y corregir errores. +AIOps de [InsightFinder](https://insightfinder.com/) identifica los problemas de sistemas y aplicaciones antes de que afecten a los usuarios. Gracias al machine learning no supervisado, InsightFinder aprende continuamente de los eventos, logs, métricas y cambios para detectar anomalías, predecir incidentes y corregir las interrupciones. Esta integración bidireccional brinda capacidades avanzadas de AIOps. InsightFinder recibe datos de Datadog a través de las API estándar y detecta anomalías en los eventos antes de que tu negocio se vea afectado. Las alertas de estos eventos anómalos pueden enviarse a Datadog para notificar a tu equipo. @@ -79,16 +25,8 @@ Esta integración bidireccional brinda capacidades avanzadas de AIOps. InsightFi ### Instalación -Para configurar la integración y enviar datos a InsightFinder, consulta la [Integración de InsightFinder y Datadog][2]. Debes contar con una [clave de API y de aplicación][3] de Datadog. - - -## Compatibilidad - -Ponte en contacto con el [servicio de asistencia de Datadog][4] o envía un correo electrónico al [servicio de asistencia de InsightFinder][5]. +Para configurar la integración y enviar datos a InsightFinder, consulta la [integración de InsightFinder y Datadog](https://insightfinder.com/datadog-integration/). Necesitas una [clave de API y clave de aplicación] de Datadog(https://docs.datadoghq.com/account_management/api-app-keys/). +## Soporte -[1]: https://insightfinder.com/ -[2]: https://insightfinder.com/datadog-integration/ -[3]: https://docs.datadoghq.com/es/account_management/api-app-keys/ -[4]: https://docs.datadoghq.com/es/help/ -[5]: mailto:support@insightfinder.com \ No newline at end of file +Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/) o envía un correo electrónico al [soporte de InsightFinder](mailto:support@insightfinder.com). \ No newline at end of file diff --git a/content/es/integrations/iocs_dmi4apm.md b/content/es/integrations/iocs_dmi4apm.md new file mode 100644 index 0000000000000..799ce6b016042 --- /dev/null +++ b/content/es/integrations/iocs_dmi4apm.md @@ -0,0 +1,135 @@ +--- +algolia: + subcategory: Integraciones de Marketplace +app_id: iocs-dmi4apm +app_uuid: 29b4a34d-e40d-4975-ba55-4fc019685959 +assets: + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: iocs_dmi4apm.ioconnect.dmi4apm.agent + metadata_path: metadata.csv + prefix: iocs_dmi4apm. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 9762172 + source_type_name: iocs_dmi4apm +author: + homepage: https://www.novacloud.io/ + name: Nova + sales_email: products.sales@novacloud.io + support_email: support_ddp@novacloud.io + vendor_id: ioconnect +categories: +- nube +- marketplace +- herramientas de desarrollo +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: iocs_dmi4apm +integration_id: iocs-dmi4apm +integration_title: Mule® para APM +integration_version: '' +is_public: true +legal_terms: + eula: assets/eula.pdf +manifest_version: 2.0.0 +name: iocs_dmi4apm +pricing: +- billing_type: tag_count + includes_assets: false + metric: datadog.marketplace.ioconnect.dmi4apm.agent + product_id: dmi4apm + short_description: Precio por cada host + tag: hosts + unit_label: host + unit_price: 50 +public_title: Integración de Mule® para APM +short_description: Integración de Datadog y MuleSoft para la monitorización del rendimiento + de las aplicaciones +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Cloud + - Category::Marketplace + - Category::Developer Tools + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Traces + configuration: README.md#Setup + description: Integración de Datadog y MuleSoft para la monitorización del rendimiento + de las aplicaciones + media: + - caption: 'DMI4APM: Logs de traces (trazas)' + image_url: images/dmi_apm_logs.png + media_type: imagen + - caption: 'DMI4APM: Detalles de traces (trazas)' + image_url: images/dmi_apm_trace.png + media_type: imagen + - caption: 'DMI4APM: Lista de traces (trazas)' + image_url: images/dmi_apm_traces.png + media_type: imagen + - caption: 'DMI4APM: Span (tramo) distribuido' + image_url: images/dmi_distributed_span.png + media_type: imagen + - caption: 'DMI4APM: Trace (traza) de span (tramo) distribuido' + image_url: images/dmi_distributed_trace.png + media_type: imagen + - caption: 'DMI4APM: Lista de spans (tramos)' + image_url: images/dmi_distributed.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Integración de Mule® para APM + uninstallation: README.md#Uninstallation +--- + + + + +## Información general +MuleSoft es una empresa de software especializada en soluciones de integración y gestión de API. Su principal producto, Anypoint Platform, es una plataforma de integración que permite a los desarrolladores conectar aplicaciones, datos y dispositivos en entornos on-premises y en la nube. + +Esta integración captura traces (trazas) de APM de las aplicaciones MuleSoft y proporciona información sobre el rendimiento y los problemas de las aplicaciones. Las traces (trazas) de APM permiten a los desarrolladores y equipos de operaciones obtener una visibilidad profunda del rendimiento de esta integración e identificar cuellos de botella, errores y degradación del rendimiento en tiempo real. + +### **Instrumenta tus aplicaciones Mule con nuestro Datadog Mule 4 Connector** + + +Utiliza el conector de Datadog para Mule 4 con Datadog APM para obtener visibilidad con los dashboards de rendimiento predefinidos. + +Mide el rendimiento de las operaciones en tus flujos de forma tan granular como sea necesario con spans (tramos). + +También, correlaciona los logs generados dentro de una transacción en una única trace (traza) para acotar cualquier optimización del rendimiento o contexto de solución de problemas. + + +## Asistencia técnica +Tómate un momento para conocer el proceso de configuración de la integración de Datadog y Mule® para APM aquí: [Requisitos previos e instalación][7] y la [documentación del conector][8]. + +Para solicitar asistencia o funciones, ponte en contacto con el servicio de asistencia técnica de Nova a través de los siguientes canales: + +- Ventas: [products.sales@novacloud.io][2] +- Asistencia técnica: [support_ddp@novacloud.io][6] + +[1]: https://app.datadoghq.com/account/settings#agent/overview +[2]: mailto:products.sales@novacloud.io +[3]: https://docs.datadoghq.com/es/agent/autodiscovery/integrations +[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#restart-the-agent +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/?tab=agentv6v7#agent-information +[6]: mailto:support_ddp@novacloud.io +[7]: https://docs.ioconnectservices.com/dmi4apm/apm-datadog-integration +[8]: https://docs.ioconnectservices.com/dmi4apm/apm-global-elements + +--- +Esta aplicación está disponible a través de Datadog Marketplace y cuenta con el apoyo de un socio tecnológico de Datadog. Para utilizarla, adquiere esta aplicación en el Marketplace. \ No newline at end of file diff --git a/content/es/integrations/jetbrains_ides.md b/content/es/integrations/jetbrains_ides.md new file mode 100644 index 0000000000000..02cfdd8b83ec6 --- /dev/null +++ b/content/es/integrations/jetbrains_ides.md @@ -0,0 +1,101 @@ +--- +app_id: jetbrains-ides +app_uuid: f27e2abf-7827-46f8-bddb-266a0c1acd9f +assets: {} +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- herramientas de desarrollo +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: jetbrains_ides +integration_id: jetbrains-ides +integration_title: IDE JetBrains +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: jetbrains_ides +public_title: IDE JetBrains +short_description: Complemento Datadog para IntelliJ IDEA, GoLand, PyCharm, WebStorm + y PhpStorm +supported_os: +- linux +- Windows +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Sistema operativo compatible::Linux + - Sistema operativo compatible::Windows + - Sistema operativo compatible::macOS + - Categoría::Herramientas de desarrollo + - Oferta::Integración + configuration: README.md#Configuración + description: Complemento Datadog para IntelliJ IDEA, GoLand, PyCharm, WebStorm y + PhpStorm + media: + - caption: Información sobre Error Tracking en IntelliJ IDEA + image_url: images/overview.png + media_type: imagen + overview: README.md#Información general + resources: + - resource_type: otros + url: https://plugins.jetbrains.com/plugin/19495-datadog + support: README.md#Soporte + title: IDE JetBrains +--- + + + + +## Información general + +El [complemento Datadog para JetBrains IDE][1] está disponible para IntelliJ IDEA, GoLand, PyCharm, WebStorm y PhpStorm. Te ayuda a mejorar tu software proporcionando información a nivel de código directamente en el IDE, basada en datos de observabilidad en tiempo real de: + +- Logs +- Elaboración de perfiles +- Seguimiento de errores +- CI Visibility +- App and API Protection +- Análisis estático + +## Configuración + +### Instalación + +Desde tu JetBrains IDE: + +1. Ve a **Settings > Plugins** (Configuración > Complementos). +2. Busca `Datadog`. +3. Haz clic en **Install** (Instalar) para descargar e instalar el plugin en tu entorno de desarrollo integrado. +4. Si recibes un aviso de que Datadog es un plugin de terceros, haz clic en **Accept** (Aceptar). +5. Reinicia el IDE. +6. Cuando se te pida que inicies sesión en Datadog, haz clic en el botón **Log-in** (Iniciar sesión). Tu navegador se abrirá en la página de inicio de sesión en Datadog. + +### Configuración + +Selecciona los servicios Datadog correspondientes a tu proyecto en la configuración del complemento. + +La configuración del complemento se encuentra dentro de la configuración del IDE, en **Datadog**. + +### Ver en entorno de desarrollo integrado + +La función **View in IDE** (Ver en IDE) proporciona un enlace desde la plataforma Datadog directamente a tus archivos de origen. + +### Referencias adicionales + +- [Complemento Datadog en el Marketplace de JetBrains][2] + +## Asistencia + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3] o abre un [incidente en GitHub][4]. + +[1]: https://docs.datadoghq.com/es/developers/ide_integrations/idea/ +[2]: https://plugins.jetbrains.com/plugin/19495-datadog +[3]: https://docs.datadoghq.com/es/help/ +[4]: https://github.com/DataDog/datadog-for-intellij-platform \ No newline at end of file diff --git a/content/es/integrations/kitepipe_atomwatch.md b/content/es/integrations/kitepipe_atomwatch.md new file mode 100644 index 0000000000000..727d881b7e1ef --- /dev/null +++ b/content/es/integrations/kitepipe_atomwatch.md @@ -0,0 +1,201 @@ +--- +algolia: + subcategory: Integraciones de Marketplace +app_id: kitepipe-atomwatch +app_uuid: c9c6ace5-9793-48da-a4be-7bbd4c3e9b06 +assets: + dashboards: + AtomWatch Boomi Cluster Monitoring: assets/dashboards/boomi_cluster_monitoring2.json + AtomWatch Boomi Compute Monitoring: assets/dashboards/boomi_compute_monitoring2.json + AtomWatch Boomi Workload Monitoring: assets/dashboards/boomi_workload_monitoring2.json + AtomWatch Overview: assets/dashboards/atomwatch_overview.json + Boomi JMX Monitoring - Forked: assets/dashboards/jmx_forked.json + Boomi JMX Monitoring - Management JVM: assets/dashboards/jmx_management_jvm.json + Boomi JMX Monitoring - Non-Forked: assets/dashboards/jmx_nonforked.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: true + metrics: + check: kitepipe.atomwatch.integration_completed + metadata_path: metadata.csv + prefix: kitepipe.atomwatch. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10355 + source_type_name: AtomWatch + monitors: + API Gateway node CPU usage is high: assets/monitors/api_gw_node_cpu.json + API Gateway node Disk usage is high: assets/monitors/api_gw_node_disk.json + API Gateway node memory usage is high: assets/monitors/api_gw_node_ram.json + AtomWatch is down: assets/monitores/atomwatch_down.json + Boomi "View File" is missing: assets/monitors/cluster_view_file_missing.json + Boomi "view file" is too old: assets/monitors/cluster_view_file_too_old.json + Boomi "view file" reports a problem: assets/monitors/cluster_view_file_problem.json + Boomi API calls from more than one node: assets/monitors/multiple_node_api_calls.json + Boomi Molecule node is at high CPU usage: assets/monitors/molecule_node_cpu.json + Boomi Molecule node is running out of disk space: assets/monitors/molecule_node_disk.json + Boomi runtime is reported as offline: assets/monitors/boomi_online_status.json + Cannot call the Boomi Platform API: assets/monitors/failed_boomi_platform_api_call.json + Execution duration is anomalous: assets/monitors/execution_duration_anomaly.json + JVM Runtime low memory: assets/monitors/jmx_low_mem.json + JVM Runtime out of memory: assets/monitors/jmx_out_of_mem.json + Molecule node memory usage is high: assets/monitors/molecule_node_ram.json +author: + homepage: https://www.kitepipe.com + name: Kitepipe + sales_email: AtomWatch.Sales@kitepipe.com + support_email: AtomWatch.Support@kitepipe.com + vendor_id: kitepipe +categories: +- alertas +- aws +- event management +- recopilación de logs +- marketplace +- notificaciones +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: kitepipe_atomwatch +integration_id: kitepipe-atomwatch +integration_title: Kitepipe AtomWatch +integration_version: '' +is_public: true +legal_terms: + eula: assets/eula.pdf +manifest_version: 2.0.0 +name: kitepipe_atomwatch +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.kitepipe.atomwatch + product_id: atomwatch + short_description: Precio unitario por Boomi Atom o Molecule Node + tag: billing_key + unit_label: Boomi Atom or Molecule Node + unit_price: 200 +public_title: Kitepipe AtomWatch +short_description: Monitoriza los procesos y la infraestructura de Boomi +supported_os: +- linux +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Category::Alerting + - Category::AWS + - Category::Event Management + - Category::Log Collection + - Category::Marketplace + - Category::Notifications + - Submitted Data Type::Metrics + - Submitted Data Type::Logs + - Submitted Data Type::Events + - Offering::Integration + configuration: README.md#Setup + description: Monitoriza los procesos y la infraestructura de Boomi + media: + - caption: Los informes mejorados del proceso te permiten retroceder más de 30 días + y filtrar por más campos, con comodines. + image_url: images/enhanced_process_reporting.png + media_type: imagen + - caption: Consulta procesos de larga duración de un vistazo y recibe alertas con + detección de anomalías. + image_url: images/execution_duration_anomalies.png + media_type: imagen + - caption: Amplia monitorización de infraestructuras, incluidas la CPU, RAM, disco, + red. + image_url: images/infrastructure_monitoring.png + media_type: imagen + - caption: Monitorización del clúster que supera las recomendaciones publicadas + de Boomi. + image_url: images/cluster_monitoring.png + media_type: imagen + - caption: Toplists y gráficos de procesos de Boomi con errores. + image_url: images/error_monitoring.png + media_type: imagen + - caption: Compatible con la monitorización de JMX. + image_url: images/jmx_monitoring.png + media_type: imagen + overview: README.md#Overview + resources: + - resource_type: documentación + url: https://atomwatch.refined.site/space/CS/11108353 + - resource_type: Blog + url: https://www.datadoghq.com/blog/kitepipe-datadog-marketplace/ + support: README.md#Support + title: Kitepipe AtomWatch + uninstallation: README.md#Uninstallation +--- + + + + +## Información general + +AtomWatch de Kitepipe es una integración basada en el Agent que recopila métricas de procesos, nodos del clúster e infraestructuras relacionadas de Boomi para informar a clientes de Datadog y de Boomi sobre el estado de la integración. + +AtomWatch versión 1.2 contiene 7 dashboards, 17 métricas personalizadas y 16 monitores que informan sobre las estadísticas de ejecución de Boomi, el estado del clúster, la monitorización de JMX y el estado de la infraestructura. Estas métricas están disponibles para los clientes de Datadog y de Boomi para el análisis de tendencias de tiempo extendido (sobre el estándar de 30 días de la disponibilidad de informes de procesos de Boomi). + +Los clientes de Datadog que adquieran AtomWatch deben gestionar el Boomi Java Runtime en una configuración de Atom o de Molecule. Kitepipe incluye una sesión de configuración de una hora con la prueba gratuita inicial de 14 días. + +### Acerca de Kitepipe + +Kitepipe es un socio de implementación de Boomi Platinum y es el principal equipo de desarrollo de integración de Boomi en América del Norte. Kitepipe se fundó en 2011 en respuesta a la necesidad de un equipo de servicios centrado en Boomi que pudiera cumplir todas las promesas de esta potente plataforma de integración. + +En la actualidad, el equipo de Kitepipe de desarrolladores on-shore certificados de Boomi ayuda a docenas de clientes de Boomi a conseguir rápidamente el valor de negocios con la plataforma líder de la industria para la integración de Boomi. + +El servicio AtomWatch de Datadog es una nueva oferta de Kitepipe centrada en servicios gestionados por Boomi en AWS. Kitepipe es el líder en una serie de áreas de integración, verticales y dominios, incluidas migraciones a AWS de procesos de Boomi, Boomi gestionado en AWS, soluciones verticales de Biotech creadas en Boomi, NetSuite, SAP, Coupa, Workday y HRIS, Data Mart/BI y más endpoints. + +### Recopilación de logs + +Esta integración realiza llamadas de API a Boomi Platform en tu nombre, recupera registros de ejecución y los envía a Datadog como logs. También monitoriza opcionalmente ejecuciones en progreso y telemetría de JVM a través de JMX, envía esta información a Datadog como logs. Puedes ver qué procesos de Boomi se están ejecutando en cuál JVM, junto con métricas asociadas, como el uso de memoria, la recolección de basura, el count de conversaciones y más. + +### Eventos + +Esta integración recupera registros de AuditLog de la API Boomi y los envía a Datadog como eventos. Los eventos son visibles en forma filtrada en el dashboard de monitorización de la carga de trabajo de Boomi o en el [Explorer de eventos][1]. Puedes crear tus propios monitores para inspeccionar los registros de AuditLog sin filtrar. + +### Métricas + +Esta integración envía métricas. Puedes explorar una lista de métricas en la pestaña **Data Collected** (Datos recopilados). + +## Asistencia + +Para solicitar asistencia o funciones, ponte en contacto con AtomWatch a través del siguiente canal: + +- Correo electrónico: [AtomWatch.Support@kitepipe.com][11] + +El horario de asistencia de Kitepipe para AtomWatch es de 9 de la mañana a 3 de la tarde en las zonas horarias de EE. UU. y Canadá. Las solicitudes de solución de problemas de AtomWatch se responderán en un plazo de 24 a 48 horas desde la recepción de la notificación en el alias de correo electrónico de AtomWatch. + +Para obtener los mejores resultados de respuesta, incluye el nombre del cliente, la configuración de Boomi y una breve descripción del evento o la cuestión que se debe solucionar. Kitepipe pone a tu disposición programas de asistencia mejorados previa solicitud. + +### Referencias adicionales + +Más enlaces, artículos y documentación útiles: + +- [Documentación de AtomWatch][9] +- [Monitoriza tus integraciones de Boomi con la oferta de Kitepipe en Datadog Marketplace][12] +- [Activación de JMX en Boomi][13] + +[1]: https://app.datadoghq.com/event/explorer +[2]: https://help.boomi.com/bundle/atomsphere_platform/page/int-Adding_API_tokens.html +[3]: https://help.boomi.com/bundle/integration/page/t-atm-Attaching_a_role_to_an_Environment.html +[4]: https://app.datadoghq.com/logs +[5]: https://app.datadoghq.com/account/settings#agent/overview +[6]: https://help.boomi.com/bundle/integration/page/r-atm-Startup_Properties_panel.html +[7]: https://help.boomi.com/bundle/integration/page/r-atm-Cluster_Status_panel.html +[8]: https://help.boomi.com/bundle/api_management/page/api-API_Gateway_settings.html +[9]: https://atomwatch.kitepipe.com/space/CS/11108353 +[10]: https://www.kitepipe.com/ +[11]: mailto:AtomWatch.Support@kitepipe.com +[12]: https://www.datadoghq.com/blog/kitepipe-datadog-marketplace/ +[13]: https://help.boomi.com/docs/Atomsphere/Integration/Integration%20management/t-atm-Enabling_remote_JMX_on_an_Atom_1a1625d0-330d-43c6-a765-42502d7768ec + +--- +Esta aplicación está disponible a través de Datadog Marketplace y cuenta con el apoyo de un socio tecnológico de Datadog. Para utilizarla, adquiere esta aplicación en el Marketplace. \ No newline at end of file diff --git a/content/es/integrations/linux_audit_logs.md b/content/es/integrations/linux_audit_logs.md new file mode 100644 index 0000000000000..56e501c2bdbdc --- /dev/null +++ b/content/es/integrations/linux_audit_logs.md @@ -0,0 +1,207 @@ +--- +app_id: linux-audit-logs +app_uuid: 276c2367-72a9-4f50-95d6-998e4b2ca0df +assets: + dashboards: + Linux Audit Logs - Overview: assets/dashboards/linux_audit_logs_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + source_type_id: 42347665 + source_type_name: Logs de auditoría de Linux + logs: + source: linux-audit-logs +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +- seguridad +- red +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/linux_audit_logs/README.md +display_on_public_website: true +draft: false +git_integration_title: logs_auditoría_linux +integration_id: linux-audit-logs +integration_title: Logs de auditoría de Linux +integration_version: 1.0.0 +is_public: true +manifest_version: 2.0.0 +name: logs_auditoría_linux +public_title: Logs de auditoría de Linux +short_description: Obtén información sobre logs de auditoría de Linux. +supported_os: +- linux +tile: + changelog: CHANGELOG.md + classifier_tags: + - Sistema operativo compatible::Linux + - Categoría::Recopilación de logs + - Categoría::Seguridad + - Categoría::Red + - Oferta::Integración + - Tipo de datos enviados::Logs + configuration: README.md#Configuración + description: Obtén información sobre logs de auditoría de Linux. + media: + - caption: Logs de auditoría de Linux - Información general + image_url: images/linux_audit_logs_overview_1.png + media_type: imagen + - caption: Logs de auditoría de Linux - Información general + image_url: images/linux_audit_logs_overview_2.png + media_type: imagen + - caption: Logs de auditoría de Linux - Información general + image_url: images/linux_audit_logs_overview_3.png + media_type: imagen + - caption: Logs de auditoría de Linux - Información general + image_url: images/linux_audit_logs_overview_4.png + media_type: imagen + overview: README.md#Información general + support: README.md#Soporte + title: Logs de auditoría de Linux +--- + + +## Información general + +Los [logs de auditoría de Linux][1] registran información detallada sobre eventos del sistema, actividades de usuarios y acciones relacionadas con la seguridad. Son esenciales para controlar la integridad del sistema, detectar accesos no autorizados y garantizar el cumplimiento de las políticas y normativas de seguridad. + +Esta integración proporciona un enriquecimiento y una visualización de varios tipos de logs, incluidos: +- Configuraciones y estado del **Control de acceso obligatorio (MAC)** +- **Políticas de MAC** +- **Roles**: asignación, supresión y cambio de roles de usuarios +- **Auditorías**: cambios de configuración y eventos daemon de auditoría (como cancelaciones o cambios de configuración) +- **Autenticación de usuarios**: eventos de autenticación de usuarios +- **Cuentas de usuario**: modificaciones de credenciales de cuentas de usuarios +- **Usuarios y grupos**: activades de gestión de usuarios y grupos +- **Usuarios de SELinux**: errores de usuarios de SELinux +- **Access Vector Cache (AVC)**: logs de Access Vector Cache (AVC) + +Es compatible con estos logs en los sistemas operativos **Red Hat**, **Ubuntu** y **CentOS** de Linux. + +Esta integración recopila logs de auditoría de Linux y los envía a Datadog para su análisis. Proporciona información visual a través de los dashboards y el Explorador de logs predefinidos, y ayuda a monitorizar y a responder a las amenazas de seguridad mediante reglas de detección de Cloud SIEM listas para usar. + +* [Explorador de logs][2] +* [Cloud SIEM][3] + +## Configuración + +### Instalación + +Para instalar la integración de logs de auditoriía de Linux, ejecuta el siguiente comando de instalación del Agent. Para obtener más información, consulta [Gestión de integraciones][4]. + +**Nota**: Este paso no es necesario para versiones >= 7.66.0. del Agent. + +Para Linux, ejecuta: + ```shell + sudo -u dd-agent -- datadog-agent integration install datadog-linux-audit-logs==1.0.0 + ``` + +### Configuración + +#### Instalar el daemon de auditoría (`auditd`) + +1. Instala `auditd` en Linux: + - **Debian/Ubuntu:** + + ```shell + sudo apt-get update + sudo apt-get install auditd + ``` + + - **CentOS/RHEL:** + + ```shell + sudo yum install audit + ``` + +2. Inicia el daemon de auditoría: + + ```shell + sudo systemctl start auditd + ``` + +3. Activa el daemon de auditoría para que se inicie durante el arranque: + ```shell + sudo systemctl enable auditd + ``` + +4. Comprueba el estado del daemon de auditoría: + ```shell + sudo systemctl status auditd + ``` + +#### Configurar el daemon de auditoría (`auditd`) + +1. Concede al usuario `dd-agent` permiso de lectura de los archivos de los de auditoría rotados: + ```shell + sudo grep -q "^log_group=" /etc/audit/auditd.conf && sudo sed -i 's/^log_group=.*/log_group=dd-agent/' /etc/audit/auditd.conf || echo "log_group=dd-agent" | sudo tee -a /etc/audit/auditd.conf + ``` + +2. Reinicia el daemon de auditoría: + ```shell + sudo systemctl restart auditd + ``` + +### Validación + +[Ejecuta el subcomando de estado del Agent][5] y busca `linux_audit_logs` en la sección Checks. + +## Datos recopilados + +### Métricas + +La integración de logs de auditoría de Linux no incluye métricas. + +### Recopilación de logs + +1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en el archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Concede al usuario `dd-agent` acceso de lectura al archivo `audit.log`: + + ```shell + sudo chown -R dd-agent:dd-agent /var/log/audit/audit.log + ``` + +3. Añade este bloque de configuración a tu archivo `linux_audit_logs.d/conf.yaml` para empezar a recopilar logs de auditoría de Linux: + + Consulta el [ejemplo linux_audit_logs.d/conf.yaml][6] para conocer las opciones de configuración disponibles. + + ```yaml + logs: + - type: file + path: /var/log/audit/audit.log + service: linux-audit-logs + source: linux-audit-logs + ``` + **Nota**: No modifiques los valores `service` y `source`, ya que son esenciales para el correcto procesamiento de pipelines de logs. + +4. [Reinicia el Agent][7]. + +### Eventos + +La integración de logs de auditoría de Linux no incluye eventos. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + +[1]: https://linux.org/ +[2]: https://docs.datadoghq.com/es/logs/explorer/ +[3]: https://www.datadoghq.com/product/cloud-siem/ +[4]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=linux#install +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[6]: https://github.com/DataDog/integrations-core/blob/master/linux_audit_logs/datadog_checks/linux_audit_logs/data/conf.yaml.example +[7]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[8]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/microsoft_sysmon.md b/content/es/integrations/microsoft_sysmon.md new file mode 100644 index 0000000000000..cc89a010bbfd9 --- /dev/null +++ b/content/es/integrations/microsoft_sysmon.md @@ -0,0 +1,197 @@ +--- +app_id: microsoft-sysmon +app_uuid: 76dd5a2d-68d8-4acf-b066-ba00c1524694 +assets: + dashboards: + Microsoft Sysmon - Overview: assets/dashboards/microsoft_sysmon_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + source_type_id: 42258945 + source_type_name: Microsoft Sysmon + logs: + source: microsoft-sysmon +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +- seguridad +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/microsoft_sysmon/README.md +display_on_public_website: true +draft: false +git_integration_title: microsoft_sysmon +integration_id: microsoft-sysmon +integration_title: Microsoft Sysmon +integration_version: 1.0.0 +is_public: true +manifest_version: 2.0.0 +name: microsoft_sysmon +public_title: Microsoft Sysmon +short_description: Obtén información sobre eventos de actividad del sistema en Windows. +supported_os: +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Sistema operativo compatible::Windows + - Categoría::Recopilación de logs + - Categoría::Seguridad + - Oferta::Integración + - Tipo de datos enviados::Logs + configuration: README.md#Configuración + description: Obtén información sobre eventos de actividad del sistema en Windows. + media: + - caption: Microsoft Sysmon - Información general 1 + image_url: images/microsoft_sysmon_overview_1.png + media_type: imagen + - caption: Microsoft Sysmon - Información general 2 + image_url: images/microsoft_sysmon_overview_2.png + media_type: imagen + - caption: Microsoft Sysmon - Información general 3 + image_url: images/microsoft_sysmon_overview_3.png + media_type: imagen + - caption: Microsoft Sysmon - Información general 4 + image_url: images/microsoft_sysmon_overview_4.png + media_type: imagen + - caption: Microsoft Sysmon - Información general 5 + image_url: images/microsoft_sysmon_overview_5.png + media_type: imagen + - caption: Microsoft Sysmon - Información general 6 + image_url: images/microsoft_sysmon_overview_6.png + media_type: imagen + - caption: Microsoft Sysmon - Información general 7 + image_url: images/microsoft_sysmon_overview_7.png + media_type: imagen + - caption: Microsoft Sysmon - Información general 8 + image_url: images/microsoft_sysmon_overview_8.png + media_type: imagen + overview: README.md#Información general + support: README.md#Soporte + title: Microsoft Sysmon +--- + + + + +## Información general + +[Microsoft Sysmon][1] es un servicio de sistema y un controlador de dispositivos de Windows que proporciona una generación de logs detallada de la actividad del sistema, incluida la creación de procesos, las conexiones de red, las modificaciones de archivos y los cambios en el registro. + +Esta integración enriquece e ingiere [logs de eventos Sysmon][2]. Utiliza el dashboard predefinido para obtener una vista clara de los eventos de Sysmon y ayudar a los equipos de seguridad a monitorizar la actividad del sistema. + +## Configuración + +### Instalación + +Para instalar la integración de Microsoft Sysmon, ejecuta el siguiente comando de instalación del Agent y los pasos que se indican a continuación. Para obtener más información, consulta la documentación [Gestión de integraciones][3]. + +**Nota**: Este paso no es necesario para versiones >= 7.66.0. del Agent. + +Ejecuta powershell.exe como administrador y ejecuta el siguiente comando: + ```powershell + & "$env:ProgramFiles\Datadog\Datadog Agent\bin\agent.exe" integration install datadog-microsoft_sysmon==1.0.0 + ``` + +### Configuración + +#### Configurar la recopilación de logs + +1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Habilítalo en el archivo `datadog.yaml` con: + + ```yaml + logs_enabled: true + ``` + +2. Añade este bloque de configuración a tu archivo `microsoft_sysmon.d/conf.yaml` para empezar a recopilar logs de Microsoft Sysmon: + + ```yaml + logs: + - type: windows_event + channel_path: "Microsoft-Windows-Sysmon/Operational" + source: microsoft-sysmon + service: microsoft-sysmon + sourcecategory: windowsevent + ``` + +3. [Reinicia el Agent][4]. + +#### Configurar Sysmon + +Sigue estos pasos para instalar Sysmon: +1. Descarga el archivo zip desde la [página de descargas de Sysmon][1]. Extrae el contenido del archivo zip. +2. Crea un archivo XML para configurar Sysmon. Por ejemplo, si quieres monitorizar procesos creados por aplicaciones desde carpetas AppData, el archivo de configuración tendrá el aspecto que se muestra a continuación. Puedes añadir más filtros de eventos bajo la etiqueta (tag) `EventFiltering` XML para otros eventos de la misma manera. + + ```xml + + + + C:\Users\*\AppData\Local\Temp\ + C:\Users\*\AppData\Roaming\ + + + + ``` + +3. Ejecuta el comando como administrador desde la carpeta extraída: + + ```powershell + .\Sysmon -i [] + ``` + +**Nota:** Sysmon es altamente configurable utilizando el archivo de configuración (XML) que te permite: +- Controlar qué eventos monitorizar +- Filtrar eventos en función de procesos, rutas, etc. + +Habilitar demasiados tipos de eventos puede provocar una ingesta excesiva de datos. Solo los eventos de seguridad críticos deben ser habilitados en función del modelo de amenaza y las necesidades de monitorización. +Estos eventos deben habilitarse de forma selectiva para directorios, procesos y usuarios críticos del sistema a fin de evitar el ruido innecesario de los logs. + +Para obtener más información sobre la configuración, consulta la [documentación de Sysmon][5]. + +### Validación + +[Ejecuta el subcomando de estado del Agent][6] y busca `microsoft_sysmon` en la sección Checks. + +## Datos recopilados + +### Logs + +La integración de Microsoft Sysmon recopila los siguientes [logs de eventos Sysmon][2]: +- Logs de actividad de procesos +- Logs de actividad de redes +- Logs de actividad de archivos +- Logs de actividad de registros +- Logs de actividad de WMI +- Logs de actividad de servicios Sysmon +- Logs de actividad de canalizaciones y portapapeles nombrados + +### Métricas + +La integración Microsoft Sysmon no incluye métricas. + +### Eventos + +La integración Microsoft Sysmon no incluye eventos. + +### Checks de servicio + +La integración Microsoft Sysmon no incluye checks de servicios. + +## Soporte + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][7]. + +[1]: https://learn.microsoft.com/en-us/sysinternals/downloads/sysmon +[2]: https://learn.microsoft.com/en-us/sysinternals/downloads/sysmon#events +[3]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=windowspowershell#install +[4]: https://docs.datadoghq.com/es/agent/configuration/agent-commands/#restart-the-agent +[5]: https://learn.microsoft.com/en-us/sysinternals/downloads/sysmon#configuration-files +[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[7]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/okta_workflows.md b/content/es/integrations/okta_workflows.md new file mode 100644 index 0000000000000..212a4b0e36506 --- /dev/null +++ b/content/es/integrations/okta_workflows.md @@ -0,0 +1,119 @@ +--- +app_id: okta-workflows +app_uuid: e5e2a25d-aa66-41bc-9996-50f635dcc7a1 +assets: + dashboards: + Okta Workflows: assets/dashboards/okta_workflows.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 33274584 + source_type_name: Okta Workflows + logs: + source: okta-workflows + monitors: + High Number of Abandoned Outcome Events Detected: assets/monitors/high_number_of_abandoned_outcome_events_detected.json + High Number of Denied Outcome Events Detected: assets/monitors/high_number_of_denied_outcome_events_detected.json + High Number of Failure Outcome Events Detected: assets/monitors/high_number_of_failure_outcome_events_detected.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +- automatización +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/okta_workflows/README.md +display_on_public_website: true +draft: false +git_integration_title: okta_workflows +integration_id: okta-workflows +integration_title: Okta Workflows +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: okta_workflows +public_title: Okta Workflows +short_description: Obtén información sobre los eventos de Okta Workflows. +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Log Collection + - Submitted Data Type::Logs + - Offering::Integration + - Category::Automation + configuration: README.md#Setup + description: Obtén información sobre los eventos de Okta Workflows. + media: + - caption: Okta Workflows + image_url: images/okta_workflows_1.png + media_type: imagen + - caption: Okta Workflows + image_url: images/okta_workflows_2.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Okta Workflows +--- + + + + +## Información general +[Okta Workflows][1] es una plataforma de automatización sin código proporcionada por Okta, diseñada para simplificar y automatizar las tareas relacionadas con la identidad y procesos. Permite a las organizaciones crear flujos de trabajo personalizados que se integran perfectamente con las capacidades de gestión de identidad y acceso de Okta y las aplicaciones de terceros, mejorando la eficiencia operativa, la seguridad y la experiencia del usuario. + +La integración de Okta Workflows recopila los logs de evento de flujos de trabajo de Okta y los envía a Datadog para su análisis exhaustivo. + +## Configuración + +### Generar credenciales de API en Okta Workflows +1. Ingresa a la [consola de administración de Okta][2] como **admin** (administrador) que tiene el rol [Read-only administrators][3] (Administradores de solo lectura). +2. Sigue los pasos de [esta guía][4] para generar un token de API. + +### Obtener dominio de Okta Workflows +1. Inicia sesión en tu organización de Okta con tu cuenta de administrador. +2. Localiza el **Dominio** haciendo clic en tu nombre de usuario en la esquina superior derecha de la consola de administración. El dominio aparece en el menú desplegable. Tu dominio de Okta se parece a: + - example.oktapreview.com + - example.okta.com + - example.okta-emea.com + +### Conectar tu cuenta de Okta Workflows a Datadog +1. Añade tu token de API y tu dominio de Okta: + + | Parámetros | Descripción | + |--------------------- |-----------------------------------| + | Token de API | La clave de API de Okta Workflows | + | Dominio de Okta | El dominio de Okta Workflows | + +2. Haz clic en el botón **Save** (Guardar) para guardar la configuración. + +## Datos recopilados + +### Logs + +Los flujos de trabajo de la integración de Okta recopilan y reenvían los logs de evento de flujo de trabajo de Okta a Datadog. + +### Métricas + +La integración de Okta Workflows no recopila ninguna métrica. + +### Eventos + +La integración de Okta Workflows no incluye ningún evento. + +## Ayuda + +Para obtener más ayuda, ponte en contacto con el [soporte de Datadog][3]. + +[1]: https://www.okta.com/products/workflows/ +[2]: https://login.okta.com/ +[3]: https://help.okta.com/en-us/content/topics/security/administrators-read-only-admin.htm +[4]: https://help.okta.com/en-us/content/topics/security/api.htm?cshid=ext-create-api-token#create-okta-api-token \ No newline at end of file diff --git a/content/es/integrations/shopify.md b/content/es/integrations/shopify.md new file mode 100644 index 0000000000000..8ce8a3682a259 --- /dev/null +++ b/content/es/integrations/shopify.md @@ -0,0 +1,140 @@ +--- +app_id: shopify +app_uuid: 81c0f478-e722-454a-83d3-5e3f45e11ca8 +assets: + dashboards: + Shopify - Customer Overview: assets/dashboards/shopify_customer_overview.json + Shopify - Event Overview: assets/dashboards/shopify_event_overview.json + Shopify - Order Overview: assets/dashboards/shopify_order_overview.json + Shopify - Product Overview: assets/dashboards/shopify_product_overview.json + integration: + auto_install: false + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 622 + source_type_name: Shopify + logs: + source: shopify + monitors: + Order Cancellation Rate is High: assets/monitors/order_cancellation_rate.json + Product Inventory is Out of Stock: assets/monitors/product_inventory_out_of_stock.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/shopify/README.md +description: Monitoriza métricas empresariales de Shopify. +display_on_public_website: true +doc_link: https://docs.datadoghq.com/integrations/shopify/ +draft: false +git_integration_title: shopify +has_logo: false +integration_id: shopify +integration_title: Shopify +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: shopify +public_title: Shopify +short_description: Obtén información sobre logs de eventos, productos, clientes y + pedidos de Shopify. +supported_os: [] +team: web-integrations +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Log Collection + - Submitted Data Type::Logs + - Offering::Integration + configuration: README.md#Setup + description: Obtén información sobre logs de eventos, productos, clientes y pedidos + de Shopify. + media: + - caption: Shopify - Información general de eventos + image_url: images/shopify_event_overview.png + media_type: imagen + - caption: Shopify - Información general del producto + image_url: images/shopify_product_overview.png + media_type: imagen + - caption: Shopify - Información general del cliente + image_url: images/shopify_customer_overview.png + media_type: imagen + - caption: Shopify - Información general de pedidos + image_url: images/shopify_order_overview.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Shopify +version: '1.0' +--- + + + + +## Información general + +[Shopify][1] es una plataforma de comercio integral diseñada para ayudar a los particulares a crear, gestionar y desarrollar sus negocios. Proporciona herramientas para crear una tienda online, gestionar ventas, comercializar con clientes y aceptar pagos en localizaciones digitales y físicas. + +La integración Shopify recopila logs de eventos, productos, clientes y pedidos, y los envía a Datadog para su análisis detallado. + +Incluye dashboards que muestran y analizan logs, facilitando la monitorización y la comprensión de patrones. + +## Configuración + +### Generar credenciales API en Shopify +1. Inicia sesión en tu cuenta de administrador de [Shopify][2]. +2. El nombre de la tienda Shopify es la parte `xxxx` de la URL de la tienda (`https://admin.shopify.com/store/xxxx`). +3. Ve a **Settings > Apps and sales channels** (Configuración > Aplicaciones y canales de venta). +4. Selecciona **Develop Apps** (Desarrollar aplicaciones) y haz clic en **Allow custom app development** (Permitir el desarrollo de aplicaciones personalizadas). +5. Haz clic en **Create a custom app** (Crear una aplicación personalizada), proporciona los datos necesarios y haz clic en **Create app** (Crear aplicación). +6. Haz clic en **Configure Admin API Scopes** (Configurar contextos de la API de administración) en la pestaña Información general. +7. En la sección **Admin API access scopes section** (Sección de administración de contextos de acceso a la API), selecciona el siguiente contexto: + - **read_orders** + - **read_products** + - **read_customers** + - **read_content** + - **read_price_rules** +8. Haz clic en **Save** (Guardar) para aplicar los cambios. +9. Haz clic en **Install app** (Instalar aplicación) y obtén el **Token de acceso** de la sección **Admin API access token** (Administrar token de acceso a la API). + +### Conectar tu cuenta de Shopify a Datadog +1. Añadir el nombre de tu tienda y el token de acceso + |Parámetros | Descripción + |--------------------|--------------------| + |Nombre de la tienda | Nombre de la tienda de tu cuenta de administrador de Shopify. | + |Token de acceso | Token de acceso para tu cuenta de administrador de Shopify. | +2. Haz clic en el botón **Save** (Guardar) para guardar la configuración. + +## Datos recopilados + +### Logs + +La integración Shopify recopila y reenvía logs de eventos, productos, clientes y pedidos a Datadog. + +### Métricas + +La integración Shopify no incluye métricas. + +### Checks de servicio + +La integración Shopify no incluye checks de servicios. + +### Eventos + +La integración Shopify no incluye eventos. + +## Solucionar problemas + +Esta integración no es gestionada por Shopify. Para obtener ayuda, ponte en contacto con el +[servicio de asistencia de Datadog][3]. + +[1]: https://www.shopify.com/ +[2]: https://www.shopify.com/in/store-login +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/silverstripe_cms.md b/content/es/integrations/silverstripe_cms.md new file mode 100644 index 0000000000000..761ea60f2d5e1 --- /dev/null +++ b/content/es/integrations/silverstripe_cms.md @@ -0,0 +1,174 @@ +--- +app_id: silverstripe-cms +app_uuid: acd6d383-dfe8-4e70-8c68-e5f3b6da84af +assets: + dashboards: + Silverstripe CMS - Overview: assets/dashboards/silverstripe_cms_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: + - silverstripe_cms.files.count + metadata_path: metadata.csv + prefix: silverstripe_cms. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 35271991 + source_type_name: Silverstripe CMS + monitors: + Pages with broken files are higher: assets/monitors/pages_with_broken_files_are_higher.json + Pages with broken links are higher: assets/monitors/pages_with_broken_links_are_higher.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- métricas +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/silverstripe_cms/README.md +display_on_public_website: true +draft: false +git_integration_title: silverstripe_cms +integration_id: silverstripe-cms +integration_title: Silverstripe CMS +integration_version: 1.0.0 +is_public: true +manifest_version: 2.0.0 +name: silverstripe_cms +public_title: Silverstripe CMS +short_description: Monitoriza el contenido de Silverstripe CMS y la actividad de los + usuarios. +supported_os: +- linux +- Windows +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Metrics + - Offering::Integration + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: Monitoriza el contenido de Silverstripe CMS y la actividad de los usuarios. + media: + - caption: Silverstripe CMS - Información general + image_url: images/silverstripe_cms_overview.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Silverstripe CMS +--- + + + + +## Información general + +Silverstripe CMS es una plataforma de código abierto para la creación y la gestión de sitios y aplicaciones web. Ofrece un panel de administración intuitivo que facilita la edición y personalización de contenidos sin necesidad de código. Su marco flexible lo hace ideal tanto para sitios sencillos como para proyectos complejos. + +La integración SilverStripe CMS recopila métricas de archivos, páginas e intentos fallidos de inicio de sesión, y los envía a Datadog para su análisis y monitorización. + +## Configuración + +### Instalación + +La integración de Silverstripe CMS está incluida en el [paquete del Datadog Agent][1]. No es necesaria ninguna instalación adicional. + +### Obtener credenciales de bases de datos Silverstripe CMS +| **Parámetro** | **Descripción** | +|----------------------|------------------------------------------------------------| +| Tipo de base de datos | El tipo de servidor de base de datos, ya sea MySQL o PostgreSQL. | +| Nombre de base de datos | El nombre de la base de datos configurada. | +| Nombre de usuario de base de datos | El nombre de usuario utilizado para conectarse a la base de datos. | +| Contraseña de base de datos | La contraseña asociada al usuario de la base de datos. | +| IP de servidor de base de datos | La dirección IP del servidor de la base de datos. | +| Puerto de base de datos | El número de puerto del servidor de la base de datos. | + +### Conectar tu cuenta de Silverstripe CMS al Agent + +1. Copia el archivo `conf.yaml.example`. + ```sh + cp /etc/datadog-agent/conf.d/silverstripe_cms.d/conf.yaml.example /etc/datadog-agent/conf.d/silverstripe_cms.d/conf.yaml + ``` + +2. Añade este bloque de configuración a tu archivo `silverstripe_cms.d/conf.yaml` para empezar a recopilar tus métricas. + - Consulta el ejemplo de [silverstripe_cms.d/conf.yaml][2] para ver las opciones de configuración disponibles. + - Si necesitas configurar varias instancias de Silverstripe CMS en el archivo `conf.yaml`, consulta el siguiente ejemplo: + ```yaml + init_config: + instances: + - SILVERSTRIPE_DATABASE_TYPE: PostgreSQL + SILVERSTRIPE_DATABASE_NAME: + SILVERSTRIPE_DATABASE_SERVER_IP: + SILVERSTRIPE_DATABASE_PORT: + SILVERSTRIPE_DATABASE_USERNAME: + SILVERSTRIPE_DATABASE_PASSWORD: + min_collection_interval: 300 + - SILVERSTRIPE_DATABASE_TYPE: MySQL + SILVERSTRIPE_DATABASE_NAME: + SILVERSTRIPE_DATABASE_SERVER_IP: + SILVERSTRIPE_DATABASE_PORT: + SILVERSTRIPE_DATABASE_USERNAME: + SILVERSTRIPE_DATABASE_PASSWORD: + min_collection_interval: 300 + ``` + +3. [Reinicia el Agent][3]. + +### Validación + +- [Ejecuta el subcomando de estado del Agent][4] y busca `silverstripe_cms` en la sección **Checks**. + +- También puedes utilizar el siguiente comando para obtener información detallada sobre la integración: + ```sh + sudo datadog-agent check silverstripe_cms + ``` + + El check devuelve OK si todas las configuraciones son correctas y el Agent es capaz de comunicarse con Silverstripe CMS. + +## Datos recopilados + +### Log + +La integración Silverstripe CMS no incluye logs. + +### Métricas + +La integración Silverstripe CMS recopila y envía las siguientes métricas a Datadog. + +{{< get-metrics-from-git "silverstripe_cms" >}} + +### Checks de servicio + +La integración Silverstripe CMS incluye checks de servicios que se enumeran en el archivo [service_checks.json][5]. + +### Eventos + +- `Silverstripe.CMS.silverstripe_cms_authentication` activada para la autenticación de los parámetros proporcionados. + +## Desinstalación + +Para integraciones que se ejecutan en el Agent: + +- Elimina totalmente la integración utilizando el comando `datadog-agent integration remove`. Para obtener más información, consulta [Gestión de integraciones][6]. + +## Ayuda + +Para obtener más ayuda, ponte en contacto con el [soporte de Datadog][7]. + +[1]: https://app.datadoghq.com/account/settings/agent/latest +[2]: https://github.com/DataDog/integrations-core/blob/master/silverstripe_cms/datadog_checks/silverstripe_cms/data/conf.yaml.example +[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[5]: https://github.com/DataDog/integrations-core/blob/master/silverstripe_cms/assets/service_checks.json +[6]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=linux#remove +[7]: https://docs.datadoghq.com/es/help \ No newline at end of file diff --git a/content/es/integrations/sonatype_nexus.md b/content/es/integrations/sonatype_nexus.md new file mode 100644 index 0000000000000..a9fdea51ef708 --- /dev/null +++ b/content/es/integrations/sonatype_nexus.md @@ -0,0 +1,182 @@ +--- +app_id: sonatype-nexus +app_uuid: 6cec5ac3-a686-4408-936d-26f19fa6763a +assets: + dashboards: + Sonatype Nexus Instance Health: assets/dashboards/sonatype_nexus_instance_health.json + Sonatype Nexus Metrics: assets/dashboards/sonatype_nexus_metrics.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: true + metrics: + check: + - sonatype_nexus.analytics.available_cpus + - sonatype_nexus.status.available_cpus_health + metadata_path: metadata.csv + prefix: sonatype_nexus. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 34928997 + source_type_name: sonatype_nexus + monitors: + High Number of Failed Unique User Authentication Detected: assets/monitors/high_number_of_failed_unique_user_authentication_detected.json + High Percentage of JVM Heap Memory Usage Detected: assets/monitors/high_percentage_of_jvm_heap_memory_usage_detected.json + Unhealthy Available CPUs Detected: assets/monitors/unhealthy_available_cpus_detected.json + Unhealthy Blob Stores Detected: assets/monitors/unhealthy_blob_stores_detected.json + Unhealthy Thread Deadlock Detected: assets/monitors/unhealthy_thread_deadlock_detected.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- métricas +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/sonatype_nexus/README.md +display_on_public_website: true +draft: false +git_integration_title: sonatype_nexus +integration_id: sonatype-nexus +integration_title: Sonatype Nexus +integration_version: 1.1.0 +is_public: true +manifest_version: 2.0.0 +name: sonatype_nexus +public_title: Sonatype Nexus +short_description: Obtén información sobre análisis y datos de salud de las instancias + Sonatype Nexus. +supported_os: +- linux +- Windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Category::Metrics + - Offering::Integration + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: Obtén información sobre análisis y datos de salud de las instancias + Sonatype Nexus. + media: + - caption: Salud de las instancias Sonatype Nexus + image_url: images/sonatype_nexus_instance_health.png + media_type: imagen + - caption: Métricas de Sonatype Nexus + image_url: images/sonatype_nexus_metrics_1.png + media_type: imagen + - caption: Métricas de Sonatype Nexus + image_url: images/sonatype_nexus_metrics_2.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Sonatype Nexus +--- + + +## Información general + +Sonatype Nexus es una popular solución de gestión de repositorios diseñada para gestionar componentes y dependencias de software a lo largo de todo el ciclo de vida de desarrollo del software. Es compatible con una amplia gama de lenguajes y formatos de desarrollo, lo que lo convierte en un punto central para DevOps y pipelines de integración/entrega continua (CI/CD). + +La integración Sonatype Nexus recopila métricas de análisis y del estado de salud de las instancias Sonatype Nexus, y las envía a Datadog para su análisis exhaustivo. + +## Configuración + +### Instalación + +El check de Sonatype Nexus está incluido en el paquete del [Datadog Agent ][1]. No es necesaria ninguna instalación adicional. + +### Obtener credenciales de API de Sonatype Nexus + +1. `Username` y `Password` de la cuenta de **Administrador** o de un usuario con el privilegio **nx-metrics-all**. + +2. `Server URL` de la instancia del repositorio (por ejemplo, https://123.123.123.123:8081) + +### Conectar tu cuenta de Sonatype Nexus al Agent + +1. Copia el archivo `conf.yaml.example`. + + ```sh + cp /etc/datadog-agent/conf.d/sonatype_nexus.d/conf.yaml.example /etc/datadog-agent/conf.d/sonatype_nexus.d/conf.yaml + ``` + +2. Edita el archivo `/etc/datadog-agent/conf.d/sonatype_nexus.d/conf.yaml`. Añade las siguientes configuraciones. + + ```yaml + instances: + + ## @param username - string - required + ## Username of Sonatype Nexus instance + # + - username: + + ## @param password - string - required + ## Password of Sonatype Nexus instance + # + password: + + ## @param server_url - string - required + ## Sonatype Nexus server url + # + server_url: + + ## @param min_collection_interval - number - required + ## This changes the collection interval of the check. For more information, see: + ## https://docs.datadoghq.com/developers/write_agent_check/#collection-interval + # + min_collection_interval: 600 + ``` +* Ejemplo de `conf.yaml` cuando se configuran múltiples instancias Sonatype Nexus: + + ```yaml + instances: + - min_collection_interval: 1800 + username: + password: + server_url: + - min_collection_interval: 1800 + username: + password: + server_url: + ``` + +3. [Reinicia el Agent][2]. + +### Validación + +- [Ejecuta el subcomando de estado del Agent][3] y busca `sonatype_nexus` en la sección Checks. + +## Datos recopilados + +### Logs +La integración Sonatype Nexus no incluye logs. + +### Métricas + +La integración Sonatype Nexus recopila y envía análisis y métricas del estado de salud de las instancias a Datadog. + +{{< get-metrics-from-git "sonatype_nexus" >}} + +### Eventos + +La integración Sonatype Nexus reenvía el evento de `sonatype_nexus.authentication_validation` a Datadog. + +### Checks de servicio + +Para ver una lista de los checks de servicio proporcionados por esta integración, consulta [service_checks.json][4]. + +## Ayuda + +Para obtener más ayuda, ponte en contacto con el [servicio de asistencia de Datadog][5]. + + +[1]: https://app.datadoghq.com/account/settings/agent/latest +[2]: https://docs.datadoghq.com/es/agent/guide/agent-commands/?tab=agentv6v7#start-stop-and-restart-the-agent +[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[4]: https://github.com/DataDog/integrations-core/blob/master/sonatype_nexus/assets/service_checks.json +[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/streamnative.md b/content/es/integrations/streamnative.md new file mode 100644 index 0000000000000..473f1aff7158a --- /dev/null +++ b/content/es/integrations/streamnative.md @@ -0,0 +1,153 @@ +--- +app_id: streamnative +app_uuid: e92fa53b-f620-4167-bdaa-31ac3bc6be35 +assets: + dashboards: + StreamNative - Health: assets/dashboards/streamnative_health.json + StreamNative - Kafka Connect: assets/dashboards/streamnative_kafka_connect.json + StreamNative - Pulsar Resource: assets/dashboards/streamnative_pulsar_resource.json + StreamNative - Sink Connector: assets/dashboards/streamnative_sink_connector.json + StreamNative - Source Connector: assets/dashboards/streamnative_source_connector.json + integration: + auto_install: false + events: + creates_events: false + metrics: + check: + - streamnative.pulsar_resource.pulsar_consumers_count + metadata_path: metadata.csv + prefix: streamnative. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 27153739 + source_type_name: StreamNative + monitors: + Backlog size exceeding threshold: assets/monitors/backlog_size_exceeding_threshold.json + Messaging service is down: assets/monitors/messaging_service_down.json + Webservice is down: assets/monitors/webservice_down.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- métricas +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/streamnative/README.md +display_on_public_website: true +draft: false +git_integration_title: streamnative +integration_id: streamnative +integration_title: StreamNative +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: streamnative +public_title: StreamNative +short_description: Obtén información sobre los datos de métricas de StreamNative. +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Metrics + - Submitted Data Type::Metrics + - Offering::Integration + configuration: README.md#Setup + description: Obtén información sobre los datos de métricas de StreamNative. + media: + - caption: StreamNative - Salud + image_url: images/streamnative_health.png + media_type: imagen + - caption: StreamNative - Kafka Connect + image_url: images/streamnative_kafka_connect.png + media_type: imagen + - caption: StreamNative - Recurso Pulsar + image_url: images/streamnative_pulsar_resource.png + media_type: imagen + - caption: StreamNative - Conector de sumideros + image_url: images/streamnative_sink_connector.png + media_type: imagen + - caption: StreamNative - Conector de fuentes + image_url: images/streamnative_source_connector.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: StreamNative +--- + + + + +## Información general + +[StreamNative][1] proporciona una plataforma de mensajería y streaming de eventos de nivel empresarial basada en Apache Pulsar. Ofrece soluciones de streaming de datos escalables y en tiempo real con características como multiinquilino, replicación geográfica e integración continua con servicios de nube. + +La integración StreamNative recopila los siguientes tipos de [métricas][2]: + +1. Health +2. Recurso Pulsar +3. Conector de fuentes +4. Conector de sumideros +5. Kafka Connect + +## Configuración + +### Generar credenciales de API en StreamNative + +1. Inicia sesión en la [cuenta de la consola de StreamNative Cloud][3]. +2. Haz clic en el icono del perfil y ve a la pestaña **Cuentas y accesos**. +3. Busca la cuenta de servicio con permisos de **Admin** o un enlace al rol `metrics-viewer`. + - Si no existe una cuenta de servicio, selecciona **New -> Service Account** (Nuevo -> Cuenta de servicio) para crear una, y asegúrate de activar la opción **Super Admin**. + - Para vincular una cuenta de servicio con el rol `metrics-viewer`, consulta la documentación [metrics-viewer rolebinding][4]. +4. En la parte derecha de la cuenta de servicio elegida, haz clic en el botón `...`. +5. Selecciona **Download OAuth2 Key** (Descargar clave OAuth2) para obtener el **ID de cliente** y el **Secreto de cliente**. + +### Obtener el `Organization ID` y el `Instance Name` + +1. Haz clic en el icono del perfil y selecciona **Organizations** (Organizaciones). +2. Selecciona la **Organización** de la que deben recopilarse datos. +3. En el menú desplegable **Select an Instance** (Seleccionar una instancia), obtén el **Nombre de la instancia**. + + +### Conectar tu cuenta de StreamNative a Datadog + +1. Añade tu ID de organización, nombre de instancia, ID de cliente y secreto de cliente. + |Parámetros |Descripción | + |--------------------|--------------------| + | ID de organización | ID de organización de tu cuenta de StreamNative.| + |Nombre de instancia |Nombre de instancia de la organización correspondiente.| + | ID de cliente | ID de cliente de tu cuenta de servicio.| + |Secreto de cliente |Secreto de cliente de tu cuenta de servicio.| +2. Haz clic en el botón **Save** (Guardar) para guardar la configuración. + + +## Datos recopilados + +### Logs + +La integración StreamNative no incluye logs. + +### Métricas + +La integración StreamNative recopila y envía las siguientes métricas a Datadog. + +{{< get-metrics-from-git "streamnative" >}} + +### Checks de servicio + +La integración StreamNative no incluye checks de servicios. + +### Eventos + +La integración StreamNative no incluye eventos. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5]. + +[1]: https://streamnative.io/ +[2]: https://docs.streamnative.io/docs/cloud-metrics-api#metrics-endpoint +[3]: https://console.streamnative.cloud/ +[4]: https://docs.streamnative.io/docs/cloud-metrics-api#metrics-authorization +[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/supabase.md b/content/es/integrations/supabase.md new file mode 100644 index 0000000000000..f72b65d498c61 --- /dev/null +++ b/content/es/integrations/supabase.md @@ -0,0 +1,182 @@ +--- +app_id: supabase +app_uuid: f22fec2a-ff0a-4380-8ddf-3348f1e7ff15 +assets: + dashboards: + Supabase Overview: assets/dashboards/supabase_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: supabase.pg.up + metadata_path: metadata.csv + prefix: supabase. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 34976974 + source_type_name: Supabase + monitors: + High RAM Usage: assets/monitors/ram_usage.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- métricas +- Kubernetes +- seguridad +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/supabase/README.md +display_on_public_website: true +draft: false +git_integration_title: supabase +integration_id: supabase +integration_title: Supabase +integration_version: 1.1.1 +is_public: true +manifest_version: 2.0.0 +name: supabase +public_title: Supabase +short_description: Monitorizar la salud y el rendimiento de Supabase +supported_os: +- linux +- Windows +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Metrics + - Category::Kubernetes + - Category::Security + - Submitted Data Type::Metrics + - Offering::Integration + configuration: README.md#Setup + description: Monitorizar la salud y el rendimiento de Supabase + media: [] + overview: README.md#Overview + support: README.md#Support + title: Supabase +--- + + + + +## Información general + +Este check monitoriza [Supabase][1] a través del Datadog Agent. + +## Configuración + +Sigue las siguientes instrucciones para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][2] para obtener orientación sobre la aplicación de estas instrucciones. + +### Instalación + +A partir de la versión 7.62.0 del Agent, el check de Supabase se incluye en el paquete del Datadog Agent. No es necesaria ninguna instalación adicional en tu entorno. + +Este check utiliza OpenMetrics para recopilar métricas del endpoint de OpenMetrics expuesto por Supabase, que requiere Python v3. + +### Configuración + +La plataforma Supabase viene con un endpoint de métricas compatible con Prometheus, fácilmente accesible en el endpoint de `metrics` de tu proyecto: `https://.supabase.co/customer/v1/privileged/metrics`. El acceso al endpoint está asegurado mediante HTTP Basic Auth. El `username` es `service_role`, mientras que el `password` es el token web JSON (JWT) del rol del servicio disponible en el dashboard de Supabase. + +```yaml +## All options defined here are available to all instances. +# +init_config: + +instances: + + # The endpoint exposing Supabase customer metrics + # + - privileged_metrics_endpoint: https://.supabase.co/customer/v1/privileged/metrics + + ## @param username - string - optional + ## The username to use if services are behind basic or digest auth. + # + username: service_role + + ## @param password - string - optional + ## The password to use if services are behind basic or NTLM auth. + # + password: +``` + +También viene con una base de datos Postgres alojada. Para una integración con el Agent, es necesario [preparar Postgres][3] y luego proporcionar la configuración de la base de datos a la configuración de la integración. +```yaml +## All options defined here are available to all instances. +# +init_config: + +instances: + + ## @param host - string - required + ## The hostname to connect to. + # + - host: + + ## @param port - integer - optional - default: 5432 + ## The port to use when connecting to PostgreSQL. + # + port: 6543 + + ## @param username - string - required + ## The Datadog username created to connect to PostgreSQL. + # + username: datadog. + + ## @param password - string - optional + ## The password associated with the Datadog user. + # + password: + + ## @param dbname - string - optional - default: postgres + ## The name of the PostgreSQL database to monitor. + ## Note: If omitted, the default system Postgres database is queried. + # + dbname: +``` + +[Supabase Storage][4] viene con un endpoint de métricas compatible con Prometheus, fácilmente accesible en `/metrics` en el puerto `5000`. Para que el Agent comience a recopilar métricas, el contenedor Supabase Storage necesita ser anotado. Para obtener más información sobre las anotaciones, consulta las [plantillas de integración de Autodiscovery][2] como guía. Puedes encontrar opciones adicionales de configuración consultando el [supabase.d/conf.yaml de ejemplo][5]. + +Nota: La integración con Supabase Storage solo está disponible en la arquitectura autoalojada. `storage_api_endpoint` debe configurarse en la localización donde se exponen las métricas con formato Prometheus. El puerto por defecto es `5000`. En entornos contenedorizados, se debe utilizar `%%host%%` para la [detección automática de hosts][2]. + +### Validación + +[Ejecuta el subcomando de estado del Agent][6] y busca `supabase` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "supabase" >}} + + +### Eventos + +La integración Supabase no incluye eventos. + +### Checks de servicio +{{< get-service-checks-from-git "supabase" >}} + + +## Solucionar problemas + +¿Necesitas ayuda? [Consulta el servicio de asistencia de Datadog][9]. + + +[1]: https://supabase.com/docs +[2]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ +[3]: https://docs.datadoghq.com/es/integrations/postgres/?tab=host#prepare-postgres +[4]: https://github.com/supabase/storage/tree/master +[5]: https://github.com/DataDog/integrations-core/blob/master/supabase/datadog_checks/supabase/data/conf.yaml.example +[6]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[7]: https://github.com/DataDog/integrations-core/blob/master/supabase/metadata.csv +[8]: https://github.com/DataDog/integrations-core/blob/master/supabase/assets/service_checks.json +[9]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/temporal.md b/content/es/integrations/temporal.md new file mode 100644 index 0000000000000..59e15e9326b79 --- /dev/null +++ b/content/es/integrations/temporal.md @@ -0,0 +1,249 @@ +--- +app_id: temporal +app_uuid: 6fbb6b85-e9f0-4d0e-af82-3c82871b857c +assets: + dashboards: + Temporal Server Overview: assets/dashboards/server_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: temporal.server.task.requests.count + metadata_path: metadata.csv + prefix: temporal. + process_signatures: + - temporal-server + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10337 + source_type_name: Temporal + monitors: + Frontend latency is elevated: assets/monitors/FrontendLatency.json + History Service latency is elevated: assets/monitors/HistoryLatency.json + Matching Service latency is elevated: assets/monitors/MatchingLatency.json + Persistence latency is elevated: assets/monitors/PersistenceLatency.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +- herramientas de desarrollo +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/temporal/README.md +display_on_public_website: true +draft: false +git_integration_title: temporal +integration_id: temporal +integration_title: Temporal +integration_version: 3.2.0 +is_public: true +manifest_version: 2.0.0 +name: temporal +public_title: Temporal +short_description: Monitoriza la salud y el rendimiento del clúster de Temporal. +supported_os: +- linux +- windows +- macOS +tile: + changelog: CHANGELOG.md + classifier_tags: + - Sistema operativo compatible::Linux + - Sistema operativo compatible::Windows + - Sistema operativo compatible::macOS + - Categoría::Recopilación de logs + - Categoría::Herramientas de desarrollo + - Tipo de datos enviados::Métricas + - Tipo de datos enviados::Logs + - Oferta::Integración + configuration: README.md#Configuración + description: Monitoriza la salud y el rendimiento del clúster de Temporal. + media: [] + overview: README.md#Información general + resources: + - resource_type: Blog + url: https://www.datadoghq.com/blog/temporal-server-integration/ + support: README.md#Soporte + title: Temporal +--- + + + + +## Información general + +Este check monitoriza [Temporal][1] a través del Datadog Agent. + +**Nota**: Este check solo puede instalarse si autoalojas Temporal. **Para monitorizar tu instancia de Temporal Cloud**, consulta la [documentación de la integración Datadog Temporal Cloud][2]. + +## Configuración + +Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][3] para obtener orientación sobre la aplicación de estas instrucciones. + +### Instalación + +El check de Temporal está incluido en el paquete del [Datadog Agent][4]. +No es necesaria ninguna instalación adicional en tu servidor. + +### Configuración + +{{< tabs >}} +{{% tab "Host" %}} + +#### Host + +##### Recopilación de métricas + +1. Configura tus servicios Temporal para exponer métricas a través de un endpoint `prometheus` siguiendo la [documentación oficial de Temporal][1]. + +2. Edita el archivo `temporal.d/conf.yaml` en la carpeta `conf.d/` en la raíz de tu directorio de configuración del Agent para comenzar a recopilar tus datos de rendimiento de Temporal. + + Configura la opción `openmetrics_endpoint` para que coincida con las opciones `listenAddress` y `handlerPath` de configuración de tu servidor Temporal. + + ```yaml + init_config: + instances: + - openmetrics_endpoint: / + ``` + + Ten en cuenta que cuando los servicios Temporal de un clúster se despliegan de forma independiente, cada servicio expone sus propias métricas. Como resultado, es necesario configurar el endpoint `prometheus` para cada servicio que quieras monitorizar y definir una `instance` separada en la configuración de la integración para cada uno de ellos. + +##### Recopilación de logs + +1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en tu archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Configura tu clúster de Temporal para que envíe logs a un archivo. Para ello consulta la [documentación oficial][2]. + +3. Descomenta y edita el bloque de configuración de logs en tu archivo `temporal.d/conf.yaml` y configura la `path` para que apunte al archivo que configuraste en tu clúster de Temporal: + + ```yaml + logs: + - type: file + path: /var/log/temporal/temporal-server.log + source: temporal + ``` + +4. [Reinicia el Agent][3]. + +[1]: https://docs.temporal.io/references/configuration#prometheus +[2]: https://docs.temporal.io/references/configuration#log +[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +{{% /tab %}} + +{{% tab "Contenedorizado" %}} + +#### Contenedores + +##### Recopilación de métricas + +Para entornos contenedorizados, consulta [Configurar integraciones con Autodiscovery en Kubernetes][1] o [Configurar integraciones con Autodiscovery en Docker][2] para obtener instrucciones sobre el uso de los parámetros a continuación. Consulta el [temporal.d/conf.yaml de ejemplo][3] para ver todas las opciones de configuración disponibles. + +| Parámetro | Valor | +| -------------------- | ------------------------------------ | +| `` | `temporal` | +| `` | en blanco o `{}` | +| `` | `{"openmetrics_endpoint": "/"}`, donde `` y `` se sustituyen por `listenAddress` y `handlerPath` de la configuración de tu servidor Temporal. | + +Ten en cuenta que cuando los servicios Temporal de un clúster se despliegan de forma independiente, cada servicio expone sus propias métricas. Como resultado, es necesario configurar el endpoint `prometheus` para cada servicio que quieras monitorizar y definir una `instance` separada en la configuración de la integración para cada uno de ellos. + +**Ejemplo** + +La siguiente anotación Kubernetes se aplica a un pod en `metadata`, donde `` es el nombre de tu contenedor Temporal (o un [identificador personalizado][4]): + +``` +ad.datadoghq.com/.checks: | + { + "temporal": { + "init_config": {}, + "instances": [{"openmetrics_endpoint": "/"}] + } + } +``` + +##### Recopilación de logs + +La recopilación de logs está deshabilitada por defecto en el Datadog Agent. Para habilitarla, consulta [Recopilación de logs de Docker][5] o [Recopilación de logs de Kubernetes][6]. + +Aplica el siguiente parámetro de configuración a `logs`: + +| Parámetro | Valor | +| -------------- | --------------------------------------------------- | +| `` | `{"source": "temporal", "type": "file", "path": "/var/log/temporal/temporal-server.log"}` | + +**Ejemplo** + +La siguiente anotación Kubernetes se aplica a un pod en `metadata`, donde `` es el nombre de tu contenedor Temporal (o un [identificador personalizado][4]): + +``` +ad.datadoghq.com/.logs: | + [ + { + "source": "temporal", + "type": "file", + "path": "/var/log/temporal/temporal-server.log" + } + ] +``` + +[1]: https://docs.datadoghq.com/es/containers/kubernetes/integrations/ +[2]: https://docs.datadoghq.com/es/containers/docker/integrations/ +[3]: https://github.com/DataDog/integrations-core/blob/master/temporal/datadog_checks/temporal/data/conf.yaml.example +[4]: https://docs.datadoghq.com/es/containers/guide/ad_identifiers/ +[5]: https://docs.datadoghq.com/es/containers/docker/log/ +[6]: https://docs.datadoghq.com/es/agent/kubernetes/log/ +{{% /tab %}} + +{{< /tabs >}} + + +### Validación + +[Ejecuta el subcomando de estado del Agent][5] y busca `temporal` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "temporal" >}} + + +### Eventos + +La integración Temporal no incluye eventos. + +### Checks de servicio +{{< get-service-checks-from-git "temporal" >}} + + +### Logs + +La integración Temporal puede recopilar logs del clúster de Temporal y reenviarlos a Datadog. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con [soporte técnico de Datadog][6]. + +## Referencias adicionales + +Documentación útil adicional, enlaces y artículos: + +- [Monitorizar la salud de tu servidor Temporal con Datadog][7] + + + +[1]: https://temporal.io/ +[2]: https://docs.datadoghq.com/es/integrations/temporal_cloud/ +[3]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ +[4]: https://app.datadoghq.com/account/settings/agent/latest +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[6]: https://docs.datadoghq.com/es/help/ +[7]: https://www.datadoghq.com/blog/temporal-server-integration/ \ No newline at end of file diff --git a/content/es/integrations/trend_micro_vision_one_endpoint_security.md b/content/es/integrations/trend_micro_vision_one_endpoint_security.md new file mode 100644 index 0000000000000..bc1c8b9dd2201 --- /dev/null +++ b/content/es/integrations/trend_micro_vision_one_endpoint_security.md @@ -0,0 +1,150 @@ +--- +app_id: trend-micro-vision-one-endpoint-security +app_uuid: 107091d5-4e2d-4592-b197-af848e5abf67 +assets: + dashboards: + Trend Micro Vision One Endpoint Security - Data Loss Prevention: assets/dashboards/trend_micro_vision_one_endpoint_security_data_loss_prevention.json + Trend Micro Vision One Endpoint Security - Network Events: assets/dashboards/trend_micro_vision_one_endpoint_security_network_events.json + Trend Micro Vision One Endpoint Security - Overview: assets/dashboards/trend_micro_vision_one_endpoint_security_overview.json + Trend Micro Vision One Endpoint Security - System Events: assets/dashboards/trend_micro_vision_one_endpoint_security_system_events.json + integration: + auto_install: false + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 22213943 + source_type_name: Trend Micro Vision One Endpoint Security + logs: + source: trend-micro-vision-one-endpoint-security +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +- seguridad +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/trend_micro_vision_one_endpoint_security/README.md +display_on_public_website: true +draft: false +git_integration_title: trend_micro_vision_one_endpoint_security +integration_id: trend-micro-vision-one-endpoint-security +integration_title: Trend Micro Vision One Endpoint Security +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: trend_micro_vision_one_endpoint_security +public_title: Trend Micro Vision One Endpoint Security +short_description: Obtener información sobre logs de Trend Micro Vision One Endpoint + Security +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Log Collection + - Category::Security + - Offering::Integration + - Submitted Data Type::Logs + configuration: README.md#Setup + description: Obtener información sobre logs de Trend Micro Vision One Endpoint Security + media: + - caption: Trend Micro Vision One Endpoint Security - Información general + image_url: images/trend_micro_vision_one_endpoint_security_overview.png + media_type: imagen + - caption: Trend Micro Vision One Endpoint Security - Eventos de sistema + image_url: images/trend_micro_vision_one_endpoint_security_system_events.png + media_type: imagen + - caption: Trend Micro Vision One Endpoint Security - Eventos de red + image_url: images/trend_micro_vision_one_endpoint_security_network_events.png + media_type: imagen + - caption: Trend Micro Vision One Endpoint Security - Prevención de la pérdida de + datos + image_url: images/trend_micro_vision_one_endpoint_security_data_loss_prevention.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Trend Micro Vision One Endpoint Security +--- + + +## Información general + +[Trend Micro Vision One Endpoint Security][1] es una solución basada en la nube diseñada específicamente para endpoints, servidores y cargas de trabajo en la nube. + +Esta integración ingiere los siguientes logs: + +- Application Control: Los logs de Application Control proporcionan información sobre las infracciones de control de las aplicaciones de tu red, como las infracciones de la política y los criterios de Security Agent +- Attack Discovery: Los logs de detección de ataques proporcionan información sobre las amenazas detectadas por Attack Discovery +- Behavior Monitoring: Los logs de Behavior Monitoring proporcionan información sobre eventos de monitorización de comportamientos en tu red +- C&C Callback: Los logs de C&C callback proporcionan información sobre eventos de llamadas C&C detectados en tu red +- Content Violation: Los logs de Content Violation proporcionan información sobre los mensajes de correo electrónico con infracciones del contenido, como el producto gestionado que detectó la infracción del contenido, el/los remitente(s) y el/los destinatario(s) del mensaje de correo electrónico, el nombre de la política de infracción del contenido y el número total de infracciones detectadas +- Data Loss Prevention: Los logs de Data Loss Prevention proporcionan información sobre las incidencias detectadas por Data Loss Prevention +- Device Control: Los logs de Device Control proporcionan información sobre eventos de control del acceso a dispositivos en tu red +- Intrusion Prevention: Los logs de Intrusion Prevention proporcionan información para ayudarte a lograr una protección oportuna contra ataques conocidos y de día cero, defenderte contra las vulnerabilidades de las aplicaciones web e identificar el software malicioso que accede a la red +- Network Content Inspection: Los logs de Network Content Inspection proporcionan información sobre infracciones del contenido de red en tu red +- Predictive Machine Learning: Los logs de Predictive Machine Learning proporcionan información sobre amenazas desconocidas avanzadas detectadas por Predictive Machine Learning +- Spyware/Grayware: Los logs de Spyware/Grayware proporcionan información sobre detecciones de spyware/grayware en tu red, como el producto gestionado que detectó el spyware/grayware, el nombre del spyware/grayware y el nombre del endpoint infectado +- Suspicious File Information: Los logs de Suspicious File Information proporcionan información sobre archivos sospechosos detectados en tu red +- Virtual Analyzer Detections: Los logs de Virtual Analyzer Detections proporcionan información sobre amenazas desconocidas avanzadas detectadas por Virtual Analyzer +- Virus/Malware: Los logs de Virus/Malware proporcionan información sobre las detecciones de virus/malware en tu red, como el producto gestionado que detectó los virus/malwares, el nombre del virus/malware y el endpoint infectado +- Web Violation: Los logs de Web Violation proporcionan información sobre infracciones web en tu red + +Utiliza dashboards predefinidos para obtener información detallada sobre los eventos del sistema, eventos de red y eventos de prevención de pérdida de datos, sobre la detección y observación de la seguridad y sobre la monitorización del cumplimiento. + +## Configuración + +### Generar credentiales API en Trend Micro Vision One Endpoint Security + +1. Inicia sesión en la consola de Trend Micro Vision One. +2. Ve a **Endpoint Security** (barra lateral) > **Standard Endpoint Protection** > **Administration** > **Settings** > **Automation API Access Settings** (Seguridad del endpoint > Protección de endpoints estándar > Administración > Configuración > Configuración de la automatización de acceso a la API). +3. Haz clic en **Add** (Añadir).
Aparece la sección Application Access Settings (Configuración de acceso a la aplicación), que muestra la siguiente información: + 1. **API URL** (URL DE LA API): Host de la API de la consola de Trend Micro Vision One Endpoint Security. + 2. **Application ID** (ID de aplicación): ID de aplicación de la consola de Trend Micro Vision One Endpoint Security. + 3. **API key** (Clave de API): Clave de API de la consola de Trend Micro Vision One Endpoint Security. +4. Marca la casilla **Enable application integration using Apex Central Automation APIs** (Habilitar la integración de aplicaciones mediante las API de Apex Central Automation). +5. Configura los siguientes parámetros. + 1. **Application name** (Nombre de la aplicación): Especifica un nombre fácilmente identificable para la aplicación. + 2. **Communication time-out** (Tiempo de espera de la comunicación): Selecciona 120 segundos para que una solicitud llegue a Apex Central después de que la aplicación genere la solicitud. +6. Haz clic en **Save** (Guardar). + +### Obtener la zona horaria de la consola de Trend Micro Vision One + +1. Inicia sesión en la consola de Trend Micro Vision One. +2. Ve a **Administration** (barra lateral) > **Console Settings** > **Time Zone** (Administración > Configuración de la consola > Zona horaria). +3. Marca la **zona horaria** a partir de la **hora actual de la consola**. + +### Conecta tu cuenta de Trend Micro Vision One Endpoint Security a Datadog. + +1. Añade tu host de API, ID de aplicación y clave de API, y selecciona la zona horaria en el menú desplegable. + | Parámetros | Descripción | + | -------------- | ----------------------------------------------------------------------- | + | Host de API | Host de API de la consola de Trend Micro Vision One Endpoint Security. | + | ID de aplicación | ID de aplicación de la consola de Trend Micro Vision One Endpoint Security. | + | Clave de API | Clave API de la consola de Trend Micro Vision One Endpoint Security. | + | Zona horaria | Zona horaria de la consola Trend Micro Vision One. | + +2. Haz clic en el botón **Save** (Guardar) para guardar la configuración. + +## Datos recopilados + +### Logs + +La integración Trend Micro Vision One Endpoint Security recopila y reenvía eventos de seguridad, incluyendo eventos de sistema, eventos de red y eventos de prevención de pérdida de datos a Datadog. + +### Métricas + +La integración Trend Micro Vision One Endpoint Security no incluye métricas. + +### Eventos + +La integración Trend Micro Vision One Endpoint Security no incluye eventos. + +## Ayuda + +Si necesitas más ayuda, ponte en contacto con el [servicio de asistencia de Datadog][2]. + +[1]: https://www.trendmicro.com/en_in/business/products/endpoint-security.html +[2]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/wiz.md b/content/es/integrations/wiz.md index 7ae8528663360..a43b9c482cc6d 100644 --- a/content/es/integrations/wiz.md +++ b/content/es/integrations/wiz.md @@ -61,32 +61,32 @@ tile: ## Información general -Datadog's integración con Wiz le permite ingestar tanto la auditoría log como los problemas (incluyendo amenazas y combinaciones tóxicas) en Datadog [Cloud SIEM][1] utilizando la API de Wiz. +La integración de Datadog con Wiz te permite ingerir tanto logs de auditoría como los problemas (incluyendo amenazas y combinaciones tóxicas) en Datadog [Cloud SIEM][1] utilizando la API de Wiz. -## loguear Tipos recogidos +## Tipos de logs recopilados ### Logs de auditoría -Acciones realizadas por los miembros del equipo, actividad de los informes y actualizaciones de las emisiones. Útil para detectar actividades inusuales y apoyar las investigaciones. +Acciones realizadas por los miembros del equipo, actividad de los informes y actualizaciones de los problemas. Útil para detectar actividades inusuales y apoyar las investigaciones. ### Problemas -log de combinaciones tóxicas y desconfiguraciones en su nube infraestructura. +Logs de combinaciones tóxicas y errores de configuración en tu infraestructura en la nube. ## Configuración ## Configuración -### Auditoría log (basada en Pull utilizando Wiz API) +### Logs de auditoría (basados en Pull utilizando la API de Wiz) #### Requisitos previos -- Acceso a un inquilino Wiz con permiso para crear cuentas servicio. +- Acceso a un inquilino de Wiz con permiso para crear cuentas de servicio. #### Paso 1: Añadir una nueva cuenta en Datadog -1. En la siguiente tabla, haga clic en **Añadir nuevo**. -2. Introduzca un único **Datadog Nombre de cuenta**. +1. En la siguiente tabla, haz clic en **Add New** (Añadir nuevo). +2. Introduce un único **Datadog Account Name** (Nombre de cuenta de Datadog). 3. Pega la URL del token de Wiz: ``` https://auth.app.wiz.io/oauth/token @@ -94,61 +94,61 @@ log de combinaciones tóxicas y desconfiguraciones en su nube infraestructura. #### Paso 2: Introducir la URL de consulta -Wiz utiliza un punto final GraphQL unificado: +Wiz utiliza un endpoint de GraphQL unificado: ``` https://api..app.wiz.io/graphql ``` -Sustituya `` por su región real (por ejemplo, us1, eu1, etc.). +Sustituye `` por tu región real (por ejemplo, us1, eu1, etc.). -Para encontrar tu punto final: +Para encontrar tu endpoint: -1. [loguear en][2] a Wiz. -2. Vaya a **Configuración del usuario**. -3. Haga clic en **Inquilino** en el menú de la izquierda. -4. Copie su punto final de API. +1. [Inicia sesión en][2] a Wiz. +2. Ve a **User Settings** (Configuración del usuario). +3. Haz clic en **Tenant** (Inquilino) en el menú de la izquierda. +4. Copia tu endpoint de API. #### Paso 3: Crear una cuenta servicio en Wiz -1. Vaya a **Configuración** > **Gestión de acceso** > **servicio Cuentas**. -2. Haga clic en **Añadir cuenta servicio **. +1. Ve a **Settings** > **Access Management** > **Service Accounts** (Configuración > Gestión de acceso > Cuentas de servicio). +2. Haz clic en **Add Service Account** (Añadir cuenta de servicio). 3. Rellena: - - **Nombre**: Por ejemplo, `Datadog integración` - - **Tipo**: Personalizado integración (GraphQL API) - - **API contexto**: `admin:audit`, `read:issues` -4. Guarde la cuenta y copie el **ID de cliente** y el **Secreto de cliente** en la tabla siguiente. + - **Name** (Nombre): por ejemplo, `Datadog Integration` + - **Type** (Tipo): integración personalizada (API de GraphQL) + - **API Scopes** (Contextos de API): `admin:audit`, `read:issues` +4. Guarda la cuenta y copia el **Client ID** y **Client Secret** (ID de cliente y Secreto de cliente) en la tabla siguiente. -**NOTA**: Auditoría log se extraen en cada 12 horas por Wiz requisitos de la API. +**NOTA**: Los logs de auditoría se extraen cada 12 horas por requisitos de la API de Wiz. -### Emisiones (basadas en Push mediante webhooks) +### Problemass (basados en Push mediante webhooks) -Wiz envía datos de incidencias a Datadog mediante webhooks basados en push. +Wiz envía datos de problemas a Datadog mediante webhooks basados en push. -#### Paso 1: Genere su URL de entrada +#### Paso 1: Generar tu URL de entrada -1. En Datadog, genere una URL de admisión utilizando una clave API existente o nueva. -2. Haga clic en **Copiar URL de admisión**. +1. En Datadog, genera una URL de entrada utilizando una clave de API existente o nueva. +2. Haz clic en **Copy Intake URL** (Copiar URL de entrada). #### Paso 2: Configurar el webhook en Wiz -1. Vaya a **Configuración** > **integraciones** > **Webhooks** en Wiz. -2. Cree un nuevo webhook para Datadog. -3. Pegue la URL de entrada de Datadog en el webhook Configuración. +1. Ve a **Settings** > **Integrations** > **Webhooks** (Configuración > Integraciones > Webhooks) en Wiz. +2. Crea un nuevo webhook para Datadog. +3. Pega la URL de entrada de Datadog en la configuración del webhook. -Para más información sobre los formatos webhook de Wiz, véase: +Para más información sobre los formatos de webhook de Wiz, consulta: -- [Wiz Issues Webhook Docs][3] -- [Panorama de los problemas del mago][4] +- [Documentos de problemas del webhook en Wiz][3] +- [Información general de los problemas de Wiz][4] ## Validación Después de la configuración: -1. Vaya a **log Explorer** en Datadog. -2. Búsqueda con `source:wiz`. -3. Si tiene éxito, aparece Wiz log. -4. Si no es así, vaya a **log** > **Indexes** y verifique que tiene un loguear índice para `source:wiz*`. +1. Ve al **Log Explorer** en Datadog. +2. Busca `source:wiz`. +3. Si tienes éxito, aparece el log de Wiz. +4. Si no es así, ve a **Logs** > **Indexes** (Logs > Índices) y verifica que tienes un índice de log para `source:wiz*`. ### Datos recopilados @@ -170,7 +170,7 @@ La integración Wiz recopila logs y problemas de auditoría. ## Solucionar problemas -¿Necesita ayuda? Ponte en contacto con [Datadog support][5] o [Wiz support][6]. +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][5] o el [soporte de Wiz][6]. [1]: https://app.datadoghq.com/security/home [2]: https://app.wiz.io/login diff --git a/content/es/metrics/composite_metrics_queries.md b/content/es/metrics/composite_metrics_queries.md index 29e5b246e904e..3138a8cceb916 100644 --- a/content/es/metrics/composite_metrics_queries.md +++ b/content/es/metrics/composite_metrics_queries.md @@ -8,10 +8,6 @@ title: Consultas de métricas compuestas ## Información general -{{< callout url="#" btn_hidden="true" >}} -Esta función está en vista previa. Para activar esta función, ponte en contacto con tu asesor de clientes. -{{< /callout >}} - Las consultas de métricas compuestas aumentan las capacidades de monitorización y de análisis, ya que permiten el etiquetado dinámico de métricas en el momento de la consulta. Esto simplifica el proceso de añadir nuevas etiquetas (tags) a tus métricas y no requiere cambios en el código. Utiliza las consultas de métricas compuestas para obtener información más significativa y práctica de tus datos de métricas. Con el uso de las consultas de métricas compuestas puedes lograr lo siguiente: @@ -20,7 +16,7 @@ Con el uso de las consultas de métricas compuestas puedes lograr lo siguiente: - **Simplificar la resolución de problemas**. Los alias adaptan los valores de las etiquetas (por ejemplo, ID o códigos) y los vuelven legibles por humanos, lo que reduce el esfuerzo cognitivo y el tiempo de resolución.

{{< img src="metrics/nested_queries/composite_metrics_queries/composite_metric_query_example.mp4" alt="Configurar consultas de métricas compuestas en la interfaz de usuario" video=true style="width:100%" >}} -## Configuración +## Configuración 1. Crea cualquier consulta de métrica con [agregación espacial][2] (se seleccionan una o más etiquetas con las que agrupar). 2. Selecciona el botón **Join** (Unir) (junto al botón **Formulas** (Fórmulas)), como se muestra a continuación: diff --git a/content/es/observability_pipelines/set_up_pipelines/archive_logs/splunk_tcp.md b/content/es/observability_pipelines/set_up_pipelines/archive_logs/splunk_tcp.md index 7056365819a29..ba365369072ff 100644 --- a/content/es/observability_pipelines/set_up_pipelines/archive_logs/splunk_tcp.md +++ b/content/es/observability_pipelines/set_up_pipelines/archive_logs/splunk_tcp.md @@ -7,7 +7,7 @@ title: Archivar logs para Splunk Heavy o Universal Forwarders (TCP) ## Información general -Configura tu Splunk Heavy y Universal Forwarder para que el worker de Observability Pipelines formatee los logs recopilados en un formato rehidratable de Datadog antes de enrutarlos a los archivos de logs de Datadog. +Configura tu Splunk Heavy y Universal Forwarder para que el Observability Pipelines Worker formatee los logs recopilados en un formato rehidratable de Datadog antes de enrutarlos a los archivos de logs de Datadog. {{% observability_pipelines/use_case_images/archive_logs %}} @@ -15,7 +15,7 @@ Este documento te guiará a través de los siguientes pasos: 1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines 1. [Configuración de un archivo de logs](#configure-a-log-archive) 1. [Configuración de Observability Pipelines](#set-up-observability-pipelines) -1. [Conectar Splunk Forwarder al worker de Observability Pipelines](#connect-splunk-forwarder-to-the-observability-pipelines-worker) +1. [Conectar Splunk Forwarder al Observability Pipelines Worker](#connect-splunk-forwarder-to-the-observability-pipelines-worker) ## Requisitos previos @@ -72,7 +72,7 @@ Selecciona el proveedor de la nube que utilizas para archivar tus logs. ## Configurar Observability Pipelines -1. Navega hasta [Observability Pipelines][4]. +1. Ve a [Observability Pipelines][4]. 1. Selecciona la plantilla **Archive Logs** (Archivar logs) para crear un nuevo pipeline. 1. Selecciona **Splunk TCP** como el origen. @@ -82,10 +82,41 @@ Selecciona el proveedor de la nube que utilizas para archivar tus logs. ### Configurar los destinos -Introduce la siguiente información en función del destino de logs seleccionado. +Introduce la siguiente información en función de los destinos de logs seleccionados. {{< tabs >}} -{{% tab "Archivos de Datadog" %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_settings/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "Amazon Security Lake" %}} + +##### Requisitos previos + +{{% observability_pipelines/prerequisites/amazon_security_lake %}} + +##### Configurar el destino + +{{% observability_pipelines/destination_settings/amazon_security_lake %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} + +{{% /tab %}} +{{% tab "CrowdStrike NG-SIEM" %}} + +{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}} + +{{% /tab %}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_settings/datadog %}} + +{{% /tab %}} +{{% tab "Datadog Archives" %}} {{% observability_pipelines/destination_settings/datadog_archives_note %}} @@ -108,53 +139,57 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs. {{% /collapse-content %}} {{% /tab %}} -{{% tab "Datadog" %}} +{{% tab "Elasticsearch" %}} -{{% observability_pipelines/destination_settings/datadog %}} +{{% observability_pipelines/destination_settings/elasticsearch %}} {{% /tab %}} -{{% tab "Splunk HEC" %}} +{{% tab "Microsoft Sentinel" %}} -{{% observability_pipelines/destination_settings/splunk_hec %}} +{{% observability_pipelines/destination_settings/microsoft_sentinel %}} {{% /tab %}} -{{% tab "Sumo Logic" %}} +{{% tab "New Relic" %}} -{{% observability_pipelines/destination_settings/sumo_logic %}} +{{% observability_pipelines/destination_settings/new_relic %}} {{% /tab %}} -{{% tab "Syslog" %}} +{{% tab "OpenSearch" %}} -{{% observability_pipelines/destination_settings/syslog %}} +{{% observability_pipelines/destination_settings/opensearch %}} {{% /tab %}} -{{% tab "Chronicle" %}} +{{% tab "SentinelOne" %}} -{{% observability_pipelines/destination_settings/chronicle %}} +{{% observability_pipelines/destination_settings/sentinelone %}} {{% /tab %}} -{{% tab "Elasticsearch" %}} +{{% tab "Socket" %}} -{{% observability_pipelines/destination_settings/elasticsearch %}} +{{% observability_pipelines/destination_settings/socket %}} {{% /tab %}} -{{% tab "OpenSearch" %}} +{{% tab "Splunk HEC" %}} -{{% observability_pipelines/destination_settings/opensearch %}} +{{% observability_pipelines/destination_settings/splunk_hec %}} {{% /tab %}} -{{% tab "Amazon OpenSearch" %}} +{{% tab "Sumo Logic" %}} -{{% observability_pipelines/destination_settings/amazon_opensearch %}} +{{% observability_pipelines/destination_settings/sumo_logic %}} {{% /tab %}} -{{% tab "New Relic" %}} +{{% tab "Syslog" %}} -{{% observability_pipelines/destination_settings/new_relic %}} +{{% observability_pipelines/destination_settings/syslog %}} {{% /tab %}} {{< /tabs >}} +#### Añadir destinos adicionales + +{{% observability_pipelines/multiple_destinations %}} + ### Configurar procesadores {{% observability_pipelines/processors/intro %}} @@ -164,79 +199,165 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs. {{% observability_pipelines/processors/add_processors %}} {{< tabs >}} -{{% tab "Filtro" %}} +{{% tab "Añadir variables de entorno" %}} -{{% observability_pipelines/processors/filter %}} +{{% observability_pipelines/processors/add_env_vars %}} {{% /tab %}} -{{% tab "Editar campos" %}} +{{% tab "Add hostname" %}} + +{{% observability_pipelines/processors/add_hostname %}} + +{{% /tab %}} +{{% tab "Procesador personalizado" %}} + +{{% observability_pipelines/processors/custom_processor %}} + +{{% /tab %}} +{{% tab "Dedupe" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /pestaña %}} +{{% pestaña "Editar campos" %}} {{% observability_pipelines/processors/remap %}} {{% /tab %}} -{{% tab "Muestra" %}} +{{% tab "Tabla de enriquecimiento" %}} -{{% observability_pipelines/processors/sample %}} +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{% tab "Filtro" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Generar métricas" %}} + +{{% observability_pipelines/processors/generate_metrics %}} {{% /tab %}} {{% tab "Grok Parser" %}} {{% observability_pipelines/processors/grok_parser %}} +{{% /tab %}} +{{% tab "Parse JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Analizar XML" %}} + +{{% observability_pipelines/processors/parse_xml %}} + {{% /tab %}} {{% tab "Cuota" %}} {{% observability_pipelines/processors/quota %}} {{% /tab %}} -{{% tab "Reducir" %}} +{{% tab "Reduce" %}} {{% observability_pipelines/processors/reduce %}} {{% /tab %}} -{{% tab "Dedupe" %}} +{{% tab "Reasignar a OCSF" %}} -{{% observability_pipelines/processors/dedupe %}} +{{% observability_pipelines/processors/remap_ocsf %}} + +{{% collapse-content title="Asignación de bibliotecas" level="h5" expanded=false id="library_mapping" %}} + +{{% observability_pipelines/processors/remap_ocsf_library_mapping %}} + +{{% /collapse-content %}} + +{{% collapse-content title="Asignación personalizada" level="h5" expanded=false id="custom_mapping" %}} + +{{% observability_pipelines/processors/remap_ocsf_custom_mapping %}} + +{{% /collapse-content %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% /tab %}} +{{% tab "Muestra" %}} + +{{% observability_pipelines/processors/sample %}} {{% /tab %}} {{% tab "Sensitive Data Scanner" %}} {{% observability_pipelines/processors/sensitive_data_scanner %}} -{{% /tab %}} -{{% tab "Añadir nombre de host" %}} +{{% collapse-content title="Añadir reglas de la biblioteca" level="h5" %}} -{{% observability_pipelines/processors/add_hostname %}} +{{% observability_pipelines/processors/sds_library_rules %}} -{{% /tab %}} -{{% tab "Parse JSON" %}} +{{% /collapse-content %}} +{{% collapse-content title="Añadir una regla personalizada" level="h5" %}} -{{% observability_pipelines/processors/parse_json %}} +{{% observability_pipelines/processors/sds_custom_rules %}} + +{{% /collapse-content %}} {{% /tab %}} -{{% tab "Tabla de enriquecimiento" %}} +{{% tab "Dividir matriz" %}} -{{% observability_pipelines/processors/enrichment_table %}} +{{% observability_pipelines/processors/split_array %}} {{% /tab %}} -{{% tab "Generar métricas" %}} +{{% tab "Procesador de etiquetas" %}} -{{% observability_pipelines/processors/generate_metrics %}} +{{% observability_pipelines/processors/tags_processor %}} {{% /tab %}} -{{% tab "Añadir variables de entorno" %}} +{{% tab "Limitar" %}} -{{% observability_pipelines/processors/add_env_vars %}} +{{% observability_pipelines/processors/throttle %}} {{% /tab %}} {{< /tabs >}} -### Instalar el worker de Observability Pipelines -1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). -1. Introduce la dirección Splunk TCP. Esta es la dirección y el puerto donde tus aplicaciones están enviando sus datos de registro. El worker de Observability Pipelines escucha esta dirección para los logs entrantes. -1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta los [requisitos previos](#prerequisites). +#### Añadir otro conjunto de procesadores y destinos + +{{% observability_pipelines/multiple_processors %}} + +### Instalar el Observability Pipelines Worker +1. Selecciona tu plataforma en el menú desplegable **Elige tu plataforma de instalación**. +1. Introduce la dirección Splunk TCP. Esta es la dirección y el puerto donde tus aplicaciones están enviando sus datos de registro. El Observability Pipelines Worker escucha esta dirección para los logs entrantes. +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta [Requisitos previos](#prerequisites). {{< tabs >}} -{{% tab "Archivos de Datadog" %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "Amazon Security Lake" %}} + +{{% observability_pipelines/destination_env_vars/amazon_security_lake %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_env_vars/chronicle %}} + +{{% /tab %}} +{{% tab "CrowdStrike NG-SIEM" %}} + +{{% observability_pipelines/destination_env_vars/crowdstrike_ng_siem %}} + +{{% /tab %}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Datadog Archives" %}} + +Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de la nube que utilices para archivar tus logs. {{% collapse-content title="Amazon S3" level="h5" %}} @@ -255,53 +376,53 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs. {{% /collapse-content %}} {{% /tab %}} -{{% tab "Datadog" %}} +{{% tab "Elasticsearch" %}} -{{% observability_pipelines/destination_env_vars/datadog %}} +{{% observability_pipelines/destination_env_vars/elasticsearch %}} {{% /tab %}} -{{% tab "Splunk HEC" %}} +{{% tab "Microsoft Sentinel" %}} -{{% observability_pipelines/destination_env_vars/splunk_hec %}} +{{% observability_pipelines/destination_env_vars/microsoft_sentinel %}} {{% /tab %}} -{{% tab "Sumo Logic" %}} +{{% tab "New Relic" %}} -{{% observability_pipelines/destination_env_vars/sumo_logic %}} +{{% observability_pipelines/destination_env_vars/new_relic %}} {{% /tab %}} -{{% tab "Syslog" %}} +{{% tab "OpenSearch" %}} -{{% observability_pipelines/destination_env_vars/syslog %}} +{{% observability_pipelines/destination_env_vars/opensearch %}} {{% /tab %}} -{{% tab "Chronicle" %}} +{{% tab "SentinelOne" %}} -{{% observability_pipelines/destination_env_vars/chronicle %}} +{{% observability_pipelines/destination_env_vars/sentinelone %}} {{% /tab %}} -{{% tab "Elasticsearch" %}} +{{% tab "Socket" %}} -{{% observability_pipelines/destination_env_vars/elasticsearch %}} +{{% observability_pipelines/destination_env_vars/socket %}} {{% /tab %}} -{{% tab "OpenSearch" %}} +{{% tab "Splunk HEC" %}} -{{% observability_pipelines/destination_env_vars/opensearch %}} +{{% observability_pipelines/destination_env_vars/splunk_hec %}} {{% /tab %}} -{{% tab "Amazon OpenSearch" %}} +{{% tab "Sumo Logic" %}} -{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} +{{% observability_pipelines/destination_env_vars/sumo_logic %}} {{% /tab %}} -{{% tab "New Relic" %}} +{{% tab "Syslog" %}} -{{% observability_pipelines/destination_env_vars/new_relic %}} +{{% observability_pipelines/destination_env_vars/syslog %}} {{% /tab %}} {{< /tabs >}} -1. Sigue las instrucciones de tu entorno para instalar el worker. +1. Sigue las instrucciones de tu entorno para instalar el Worker. {{< tabs >}} {{% tab "Docker" %}} diff --git a/content/es/observability_pipelines/set_up_pipelines/dual_ship_logs/socket.md b/content/es/observability_pipelines/set_up_pipelines/dual_ship_logs/socket.md new file mode 100644 index 0000000000000..9492ea0354d87 --- /dev/null +++ b/content/es/observability_pipelines/set_up_pipelines/dual_ship_logs/socket.md @@ -0,0 +1,384 @@ +--- +disable_toc: false +title: Logs de doble envío para la fuente del socket (TCP o UDP) +--- + +## Información general + +Envía logs a través de una conexión de socket al Observability Pipelines Worker para agregarlos, procesarlos y enrutarlos a diferentes destinos. + +{{% observability_pipelines/use_case_images/dual_ship_logs %}} + +Esta guía aborda lo siguiente: +1. [Requisitos previos](#prerequisites) para configurar Observability Pipelines +1. [Configuración de Observability Pipelines](#set-up-observability-pipelines) + +## Requisitos previos + +{{% observability_pipelines/prerequisites/socket %}} + +## Configurar Observability Pipelines + +1. Ve a [Observability Pipelines][1]. +1. Selecciona la plantilla **Dual Ship Logs** (Envío doble de logs) para crear un pipeline nuevo. +1. Selecciona la fuente del **Socket**. + +### Configurar el origen + +{{% observability_pipelines/source_settings/socket %}} + +### Configurar los destinos + +Introduce la siguiente información en función de los destinos de logs seleccionados. + +{{< tabs >}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_settings/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} + +{{% /tab %}} +{{% tab "CrowdStrike NG-SIEM" %}} + +{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}} + +{{% /tab %}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_settings/datadog %}} + +{{% /tab %}} +{{% tab "Datadog Archives" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_note %}} + +Sigue las instrucciones del proveedor de nube que usas para archivar tus logs. + +{{% collapse-content title="Amazon S3" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_amazon_s3 %}} + +{{% /collapse-content %}} +{{% collapse-content title="Google Cloud Storage" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_google_cloud_storage %}} + +{{% /collapse-content %}} +{{% collapse-content title="Azure Storage" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_azure_storage %}} + +{{% /collapse-content %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_settings/elasticsearch %}} + +{{% /tab %}} +{{% tab "Microsoft Sentinel" %}} + +{{% observability_pipelines/destination_settings/microsoft_sentinel %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_settings/new_relic %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_settings/opensearch %}} + +{{% /tab %}} +{{% tab "SentinelOne" %}} + +{{% observability_pipelines/destination_settings/sentinelone %}} + +{{% /tab %}} +{{% tab "Socket" %}} + +{{% observability_pipelines/destination_settings/socket %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_settings/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_settings/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_settings/syslog %}} + +{{% /tab %}} +{{< /tabs >}} + +#### Añadir destinos adicionales + +{{% observability_pipelines/multiple_destinations %}} + +### Configurar procesadores + +{{% observability_pipelines/processors/intro %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% observability_pipelines/processors/add_processors %}} + +{{< tabs >}} +{{% tab "Añadir variables de entorno" %}} + +{{% observability_pipelines/processors/add_env_vars %}} + +{{% /tab %}} +{{% tab "Añadir nombre de host" %}} + +{{% observability_pipelines/processors/add_hostname %}} + +{{% /tab %}} +{{% tab "Procesador personalizado" %}} + +{{% observability_pipelines/processors/custom_processor %}} + +{{% /tab %}} +{{% tab "Deduplicar" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /tab %}} +{{% tab "Editar campos" %}} + +{{% observability_pipelines/processors/remap %}} + +{{% /tab %}} +{{% tab "Tabla de enriquecimiento" %}} + +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{% tab "Filtrar" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Generar métricas" %}} + +{{% observability_pipelines/processors/generate_metrics %}} + +{{% /tab %}} +{{% tab "Grok Parser" %}} + +{{% observability_pipelines/processors/grok_parser %}} + +{{% /tab %}} +{{% tab "Analizar JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Analizar XML" %}} + +{{% observability_pipelines/processors/parse_xml %}} + +{{% /tab %}} +{{% tab "Cuota" %}} + +{{% observability_pipelines/processors/quota %}} + +{{% /tab %}} +{{% tab "Reducir" %}} + +{{% observability_pipelines/processors/reduce %}} + +{{% /tab %}} +{{% tab "Reasignar a OCSF" %}} + +{{% observability_pipelines/processors/remap_ocsf %}} + +{{% collapse-content title="Asignación de bibliotecas" level="h5" expanded=false id="library_mapping" %}} + +{{% observability_pipelines/processors/remap_ocsf_library_mapping %}} + +{{% /collapse-content %}} + +{{% collapse-content title="Asignación personalizada" level="h5" expanded=false id="custom_mapping" %}} + +{{% observability_pipelines/processors/remap_ocsf_custom_mapping %}} + +{{% /collapse-content %}} + +{{% /tab %}} +{{% tab "Muestrear" %}} + +{{% observability_pipelines/processors/sample %}} + +{{% /tab %}} +{{% tab "Sensitive Data Scanner" %}} + +{{% observability_pipelines/processors/sensitive_data_scanner %}} + +{{% collapse-content title="Añadir reglas de la biblioteca" level="h5" %}} + +{{% observability_pipelines/processors/sds_library_rules %}} + +{{% /collapse-content %}} +{{% collapse-content title="Añadir una regla personalizada" level="h5" %}} + +{{% observability_pipelines/processors/sds_custom_rules %}} + +{{% /collapse-content %}} + +{{% /tab %}} +{{% tab "Dividir matriz" %}} + +{{% observability_pipelines/processors/split_array %}} + +{{% /tab %}} +{{% tab "Procesador de etiquetas" %}} + +{{% observability_pipelines/processors/tags_processor %}} + +{{% /tab %}} +{{% tab "Limitar" %}} + +{{% observability_pipelines/processors/throttle %}} + +{{% /tab %}} +{{< /tabs >}} + +#### Añadir otro conjunto de procesadores y destinos + +{{% observability_pipelines/multiple_processors %}} + +### Instalar el worker de Observability Pipelines +1. Selecciona tu plataforma en el menú desplegable **Elige tu plataforma de instalación**. +1. Introduce la dirección y el puerto del socket, por ejemplo `0.0.0.0:9000`. Esta es la dirección y el puerto en los que el Observability Pipelines Worker escucha los logs entrantes. La dirección del socket debe incluir un puerto. +1. Si has activado TLS, introduce la frase de contraseña TLS. +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta [Requisitos previos](#prerequisites). +{{< tabs >}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_env_vars/chronicle %}} + +{{% /tab %}} +{{% tab "CrowdStrike NG-SIEM" %}} + +{{% observability_pipelines/destination_env_vars/crowdstrike_ng_siem %}} + +{{% /tab %}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Datadog Archives" %}} + +Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de la nube que utilices para archivar tus logs. + +{{% collapse-content title="Amazon S3" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_amazon_s3 %}} + +{{% /collapse-content %}} +{{% collapse-content title="Google Cloud Storage" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_google_cloud_storage %}} + +{{% /collapse-content %}} +{{% collapse-content title="Azure Storage" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_azure_storage %}} + +{{% /collapse-content %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_env_vars/elasticsearch %}} + +{{% /tab %}} +{{% tab "Microsoft Sentinel" %}} + +{{% observability_pipelines/destination_env_vars/microsoft_sentinel %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_env_vars/new_relic %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/opensearch %}} + +{{% /tab %}} +{{% tab "SentinelOne" %}} + +{{% observability_pipelines/destination_env_vars/sentinelone %}} + +{{% /tab %}} +{{% tab "Socket" %}} + +{{% observability_pipelines/destination_env_vars/socket %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_env_vars/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_env_vars/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_env_vars/syslog %}} + +{{% /tab %}} +{{< /tabs >}} +1. Sigue las instrucciones de tu entorno para instalar el Worker. +{{< tabs >}} +{{% tab "Docker" %}} + +{{% observability_pipelines/install_worker/docker %}} + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +{{% observability_pipelines/install_worker/kubernetes %}} + +{{% /tab %}} +{{% tab "Linux (APT)" %}} + +{{% observability_pipelines/install_worker/linux_apt %}} + +{{% /tab %}} +{{% tab "Linux (RPM)" %}} + +{{% observability_pipelines/install_worker/linux_rpm %}} + +{{% /tab %}} +{{% tab "CloudFormation" %}} + +{{% observability_pipelines/install_worker/cloudformation %}} + +{{% /tab %}} +{{< /tabs >}} + +[1]: https://app.datadoghq.com/observability-pipelines \ No newline at end of file diff --git a/content/es/observability_pipelines/set_up_pipelines/generate_metrics/google_pubsub.md b/content/es/observability_pipelines/set_up_pipelines/generate_metrics/google_pubsub.md index f2ac671fd3e27..0becb620eca4d 100644 --- a/content/es/observability_pipelines/set_up_pipelines/generate_metrics/google_pubsub.md +++ b/content/es/observability_pipelines/set_up_pipelines/generate_metrics/google_pubsub.md @@ -5,7 +5,7 @@ title: Generar métricas para Google Pub/Sub ## Información general -Envía logs de Google Pub/Sub al worker de Observability Pipelines para que puedas generar métricas a partir de esos logs. +Envía logs de Google Pub/Sub al Observability Pipelines Worker para que puedas generar métricas a partir de esos logs. {{% observability_pipelines/use_case_images/generate_metrics %}} @@ -19,7 +19,7 @@ Este documento te guiará a través de los siguientes pasos: ## Configurar Observability Pipelines -1. Navega hasta [Observability Pipelines][1]. +1. Ve a [Observability Pipelines][1]. 1. Selecciona la plantilla **Generate Metrics** (Generar métricas) para crear un pipeline nuevo. 1. Selecciona el origen **Google Pub/Sub**. @@ -29,56 +29,116 @@ Este documento te guiará a través de los siguientes pasos: ### Configurar los destinos -Introduce la siguiente información en función del destino de logs seleccionado. +Introduce la siguiente información en función de los destinos de logs seleccionados. {{< tabs >}} -{{% tab "Datadog" %}} +{{% tab "Amazon OpenSearch" %}} -{{% observability_pipelines/destination_settings/datadog %}} +{{% observability_pipelines/destination_settings/amazon_opensearch %}} {{% /tab %}} -{{% tab "Splunk HEC" %}} +{{% tab "Amazon Security Lake" %}} -{{% observability_pipelines/destination_settings/splunk_hec %}} +##### Requisitos previos + +{{% observability_pipelines/prerequisites/amazon_security_lake %}} + +##### Configurar el destino + +{{% observability_pipelines/destination_settings/amazon_security_lake %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} {{% /tab %}} -{{% tab "Sumo Logic" %}} +{{% tab "CrowdStrike NG-SIEM" %}} -{{% observability_pipelines/destination_settings/sumo_logic %}} +{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}} {{% /tab %}} -{{% tab "Syslog" %}} +{{% tab "Datadog" %}} -{{% observability_pipelines/destination_settings/syslog %}} +{{% observability_pipelines/destination_settings/datadog %}} {{% /tab %}} -{{% tab "Chronicle" %}} +{{% tab "Datadog Archives" %}} -{{% observability_pipelines/destination_settings/chronicle %}} +{{% observability_pipelines/destination_settings/datadog_archives_note %}} + +{{% observability_pipelines/destination_settings/datadog_archives_prerequisites %}} + +Para configurar el destino, sigue las instrucciones del proveedor de nube que utilizas para archivar tus logs. + +{{% collapse-content title="Amazon S3" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_amazon_s3 %}} + +{{% /collapse-content %}} +{{% collapse-content title="Google Cloud Storage" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_google_cloud_storage %}} + +{{% /collapse-content %}} +{{% collapse-content title="Azure Storage" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_azure_storage %}} + +{{% /collapse-content %}} {{% /tab %}} {{% tab "Elasticsearch" %}} {{% observability_pipelines/destination_settings/elasticsearch %}} +{{% /tab %}} +{{% tab "Microsoft Sentinel" %}} + +{{% observability_pipelines/destination_settings/microsoft_sentinel %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_settings/new_relic %}} + {{% /tab %}} {{% tab "OpenSearch" %}} {{% observability_pipelines/destination_settings/opensearch %}} {{% /tab %}} -{{% tab "Amazon OpenSearch" %}} +{{% tab "SentinelOne" %}} -{{% observability_pipelines/destination_settings/amazon_opensearch %}} +{{% observability_pipelines/destination_settings/sentinelone %}} {{% /tab %}} -{{% tab "New Relic" %}} +{{% tab "Socket" %}} -{{% observability_pipelines/destination_settings/new_relic %}} +{{% observability_pipelines/destination_settings/socket %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_settings/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_settings/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_settings/syslog %}} {{% /tab %}} {{< /tabs >}} +#### Añadir destinos adicionales + +{{% observability_pipelines/multiple_destinations %}} + ### Configurar procesadores {{% observability_pipelines/processors/intro %}} @@ -88,124 +148,229 @@ Introduce la siguiente información en función del destino de logs seleccionado {{% observability_pipelines/processors/add_processors %}} {{< tabs >}} -{{% tab "Filtro" %}} +{{% tab "Añadir variables de entorno" %}} -{{% observability_pipelines/processors/filter %}} +{{% observability_pipelines/processors/add_env_vars %}} + +{{% /tab %}} +{{% tab "Add hostname" %}} + +{{% observability_pipelines/processors/add_hostname %}} {{% /tab %}} -{{% tab "Editar campos" %}} +{{% tab "Procesador personalizado" %}} + +{{% observability_pipelines/processors/custom_processor %}} + +{{% /tab %}} +{{% tab "Dedupe" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /pestaña %}} +{{% pestaña "Editar campos" %}} {{% observability_pipelines/processors/remap %}} {{% /tab %}} -{{% tab "Muestra" %}} +{{% tab "Tabla de enriquecimiento" %}} -{{% observability_pipelines/processors/sample %}} +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{% tab "Filtro" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Generar métricas" %}} + +{{% observability_pipelines/processors/generate_metrics %}} {{% /tab %}} {{% tab "Grok Parser" %}} {{% observability_pipelines/processors/grok_parser %}} +{{% /tab %}} +{{% tab "Parse JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Analizar XML" %}} + +{{% observability_pipelines/processors/parse_xml %}} + {{% /tab %}} {{% tab "Cuota" %}} {{% observability_pipelines/processors/quota %}} {{% /tab %}} -{{% tab "Reducir" %}} +{{% tab "Reduce" %}} {{% observability_pipelines/processors/reduce %}} {{% /tab %}} -{{% tab "Dedupe" %}} +{{% tab "Reasignar a OCSF" %}} -{{% observability_pipelines/processors/dedupe %}} +{{% observability_pipelines/processors/remap_ocsf %}} + +{{% collapse-content title="Asignación de bibliotecas" level="h5" expanded=false id="library_mapping" %}} + +{{% observability_pipelines/processors/remap_ocsf_library_mapping %}} + +{{% /collapse-content %}} + +{{% collapse-content title="Asignación personalizada" level="h5" expanded=false id="custom_mapping" %}} + +{{% observability_pipelines/processors/remap_ocsf_custom_mapping %}} + +{{% /collapse-content %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% /tab %}} +{{% tab "Muestra" %}} + +{{% observability_pipelines/processors/sample %}} {{% /tab %}} {{% tab "Sensitive Data Scanner" %}} {{% observability_pipelines/processors/sensitive_data_scanner %}} -{{% /tab %}} -{{% tab "Añadir nombre de host" %}} +{{% collapse-content title="Añadir reglas de la biblioteca" level="h5" %}} -{{% observability_pipelines/processors/add_hostname %}} +{{% observability_pipelines/processors/sds_library_rules %}} -{{% /tab %}} -{{% tab "Parse JSON" %}} +{{% /collapse-content %}} +{{% collapse-content title="Añadir una regla personalizada" level="h5" %}} -{{% observability_pipelines/processors/parse_json %}} +{{% observability_pipelines/processors/sds_custom_rules %}} + +{{% /collapse-content %}} {{% /tab %}} -{{% tab "Tabla de enriquecimiento" %}} +{{% tab "Dividir matriz" %}} -{{% observability_pipelines/processors/enrichment_table %}} +{{% observability_pipelines/processors/split_array %}} {{% /tab %}} -{{% tab "Generar métricas" %}} +{{% tab "Procesador de etiquetas" %}} -{{% observability_pipelines/processors/generate_metrics %}} +{{% observability_pipelines/processors/tags_processor %}} {{% /tab %}} -{{% tab "Añadir variables de entorno" %}} +{{% tab "Limitar" %}} -{{% observability_pipelines/processors/add_env_vars %}} +{{% observability_pipelines/processors/throttle %}} {{% /tab %}} {{< /tabs >}} -### Instalar el worker de Observability Pipelines -1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). +#### Añadir otro conjunto de procesadores y destinos + +{{% observability_pipelines/multiple_processors %}} + +### Instalar el Observability Pipelines Worker +1. Selecciona tu plataforma en el menú desplegable **Elige tu plataforma de instalación**. 1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta los [requisitos previos](#prerequisites). {{< tabs >}} -{{% tab "Datadog" %}} +{{% tab "Amazon OpenSearch" %}} -{{% observability_pipelines/destination_env_vars/datadog %}} +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} {{% /tab %}} -{{% tab "Splunk HEC" %}} +{{% tab "Amazon Security Lake" %}} -{{% observability_pipelines/destination_env_vars/splunk_hec %}} +{{% observability_pipelines/destination_env_vars/amazon_security_lake %}} {{% /tab %}} -{{% tab "Sumo Logic" %}} +{{% tab "Chronicle" %}} -{{% observability_pipelines/destination_env_vars/sumo_logic %}} +{{% observability_pipelines/destination_env_vars/chronicle %}} {{% /tab %}} -{{% tab "Syslog" %}} +{{% tab "CrowdStrike NG-SIEM" %}} -{{% observability_pipelines/destination_env_vars/syslog %}} +{{% observability_pipelines/destination_env_vars/crowdstrike_ng_siem %}} {{% /tab %}} -{{% tab "Chronicle" %}} +{{% tab "Datadog" %}} -{{% observability_pipelines/destination_env_vars/chronicle %}} +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Datadog Archives" %}} + +Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de la nube que utilices para archivar tus logs. + +{{% collapse-content title="Amazon S3" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_amazon_s3 %}} + +{{% /collapse-content %}} +{{% collapse-content title="Google Cloud Storage" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_google_cloud_storage %}} + +{{% /collapse-content %}} +{{% collapse-content title="Azure Storage" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_azure_storage %}} + +{{% /collapse-content %}} {{% /tab %}} {{% tab "Elasticsearch" %}} {{% observability_pipelines/destination_env_vars/elasticsearch %}} +{{% /tab %}} +{{% tab "Microsoft Sentinel" %}} + +{{% observability_pipelines/destination_env_vars/microsoft_sentinel %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_env_vars/new_relic %}} + {{% /tab %}} {{% tab "OpenSearch" %}} {{% observability_pipelines/destination_env_vars/opensearch %}} {{% /tab %}} -{{% tab "Amazon OpenSearch" %}} +{{% tab "SentinelOne" %}} -{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} +{{% observability_pipelines/destination_env_vars/sentinelone %}} {{% /tab %}} -{{% tab "New Relic" %}} +{{% tab "Socket" %}} -{{% observability_pipelines/destination_env_vars/new_relic %}} +{{% observability_pipelines/destination_env_vars/socket %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_env_vars/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_env_vars/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_env_vars/syslog %}} {{% /tab %}} {{< /tabs >}} -1. Sigue las instrucciones de tu entorno para instalar el worker. +1. Sigue las instrucciones de tu entorno para instalar el Worker. {{< tabs >}} {{% tab "Docker" %}} diff --git a/content/es/observability_pipelines/set_up_pipelines/log_volume_control/http_client.md b/content/es/observability_pipelines/set_up_pipelines/log_volume_control/http_client.md index fed503957d966..b7502a8676745 100644 --- a/content/es/observability_pipelines/set_up_pipelines/log_volume_control/http_client.md +++ b/content/es/observability_pipelines/set_up_pipelines/log_volume_control/http_client.md @@ -39,23 +39,39 @@ Introduce la siguiente información en función de los destinos de logs seleccio {{% observability_pipelines/destination_settings/amazon_opensearch %}} {{% /tab %}} +{{% tab "Amazon Security Lake" %}} + +##### Requisitos previos + +{{% observability_pipelines/prerequisites/amazon_security_lake %}} + +##### Configurar el destino + +{{% observability_pipelines/destination_settings/amazon_security_lake %}} + +{{% /tab %}} {{% tab "Chronicle" %}} {{% observability_pipelines/destination_settings/chronicle %}} +{{% /tab %}} +{{% tab "CrowdStrike NG-SIEM" %}} + +{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}} + {{% /tab %}} {{% tab "Datadog" %}} {{% observability_pipelines/destination_settings/datadog %}} {{% /tab %}} -{{% tab "Datadog Archivos" %}} +{{% tab "Datadog Archives" %}} {{% observability_pipelines/destination_settings/datadog_archives_note %}} {{% observability_pipelines/destination_settings/datadog_archives_prerequisites %}} -Para configurar el destino, siga las instrucciones del proveedor de la nube que utilice para archivar su Logs. +Para configurar el destino, sigue las instrucciones del proveedor de nube que utilizas para archivar tus logs. {{% collapse-content title="Amazon S3" level="h5" %}} @@ -98,6 +114,11 @@ Para configurar el destino, siga las instrucciones del proveedor de la nube que {{% observability_pipelines/destination_settings/sentinelone %}} +{{% /tab %}} +{{% tab "Socket" %}} + +{{% observability_pipelines/destination_settings/socket %}} + {{% /tab %}} {{% tab "Splunk HEC" %}} @@ -129,7 +150,7 @@ Para configurar el destino, siga las instrucciones del proveedor de la nube que {{% observability_pipelines/processors/add_processors %}} {{< tabs >}} -{{% tab "Add env vars" %}} +{{% tab "Añadir variables de entorno" %}} {{% observability_pipelines/processors/add_env_vars %}} @@ -138,13 +159,18 @@ Para configurar el destino, siga las instrucciones del proveedor de la nube que {{% observability_pipelines/processors/add_hostname %}} +{{% /tab %}} +{{% tab "Procesador personalizado" %}} + +{{% observability_pipelines/processors/custom_processor %}} + {{% /tab %}} {{% tab "Dedupe" %}} {{% observability_pipelines/processors/dedupe %}} -{{% /tab %}} -{{% tab "Editar campos" %}} +{{% /pestaña %}} +{{% pestaña "Editar campos" %}} {{% observability_pipelines/processors/remap %}} @@ -173,6 +199,11 @@ Para configurar el destino, siga las instrucciones del proveedor de la nube que {{% observability_pipelines/processors/parse_json %}} +{{% /tab %}} +{{% tab "Analizar XML" %}} + +{{% observability_pipelines/processors/parse_xml %}} + {{% /tab %}} {{% tab "Cuota" %}} @@ -188,6 +219,20 @@ Para configurar el destino, siga las instrucciones del proveedor de la nube que {{% observability_pipelines/processors/remap_ocsf %}} +{{% collapse-content title="Asignación de bibliotecas" level="h5" expanded=false id="library_mapping" %}} + +{{% observability_pipelines/processors/remap_ocsf_library_mapping %}} + +{{% /collapse-content %}} + +{{% collapse-content title="Asignación personalizada" level="h5" expanded=false id="custom_mapping" %}} + +{{% observability_pipelines/processors/remap_ocsf_custom_mapping %}} + +{{% /collapse-content %}} + +{{% observability_pipelines/processors/filter_syntax %}} + {{% /tab %}} {{% tab "Muestra" %}} @@ -198,16 +243,31 @@ Para configurar el destino, siga las instrucciones del proveedor de la nube que {{% observability_pipelines/processors/sensitive_data_scanner %}} - +{{% /collapse-content %}} + +{{% /tab %}} +{{% tab "Dividir matriz" %}} + +{{% observability_pipelines/processors/split_array %}} + +{{% /tab %}} +{{% tab "Procesador de etiquetas" %}} + +{{% observability_pipelines/processors/tags_processor %}} + +{{% /tab %}} +{{% tab "Limitar" %}} + +{{% observability_pipelines/processors/throttle %}} {{% /tab %}} {{< /tabs >}} @@ -217,27 +277,37 @@ Para configurar el destino, siga las instrucciones del proveedor de la nube que {{% observability_pipelines/multiple_processors %}} ### Instalar el worker de Observability Pipelines -1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). +1. Selecciona tu plataforma en el menú desplegable **Elige tu plataforma de instalación**. 1. Ingresa la ruta completa de la URL del endpoint HTTP/S, como `https://127.0.0.8/logs`. El worker de Observability Pipelines recopila eventos de logs de este endpoint. -1. Proporcione las variables entorno para cada uno de los destinos seleccionados. Consulte [Prerrequisitos](#prerrequisitos) para obtener más información. +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta [Requisitos previos](#prerequisites). {{< tabs >}} {{% tab "Amazon OpenSearch" %}} {{% observability_pipelines/destination_env_vars/amazon_opensearch %}} +{{% /tab %}} +{{% tab "Amazon Security Lake" %}} + +{{% observability_pipelines/destination_env_vars/amazon_security_lake %}} + {{% /tab %}} {{% tab "Chronicle" %}} {{% observability_pipelines/destination_env_vars/chronicle %}} +{{% /tab %}} +{{% tab "CrowdStrike NG-SIEM" %}} + +{{% observability_pipelines/destination_env_vars/crowdstrike_ng_siem %}} + {{% /tab %}} {{% tab "Datadog" %}} {{% observability_pipelines/destination_env_vars/datadog %}} {{% /tab %}} -{{% tab "Datadog Archivos" %}} +{{% tab "Datadog Archives" %}} Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de la nube que utilices para archivar tus logs. @@ -282,6 +352,11 @@ Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de {{% observability_pipelines/destination_env_vars/sentinelone %}} +{{% /tab %}} +{{% tab "Socket" %}} + +{{% observability_pipelines/destination_env_vars/socket %}} + {{% /tab %}} {{% tab "Splunk HEC" %}} diff --git a/content/es/observability_pipelines/set_up_pipelines/log_volume_control/syslog.md b/content/es/observability_pipelines/set_up_pipelines/log_volume_control/syslog.md index 95c675a83a133..ede0996297b13 100644 --- a/content/es/observability_pipelines/set_up_pipelines/log_volume_control/syslog.md +++ b/content/es/observability_pipelines/set_up_pipelines/log_volume_control/syslog.md @@ -7,14 +7,14 @@ title: Control del volumen de logs para Syslog ## Información general -Configura el worker de Observability Pipelines con el origen Rsyslog o Syslog-ng para que sólo enrute logs útiles a tus destinos. +Configura el Observability Pipelines Worker con el origen Rsyslog o Syslog-ng para que solo enrute logs útiles a tus destinos. {{% observability_pipelines/use_case_images/log_volume_control %}} Este documento te guiará a través de los siguientes pasos: 1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines 1. [Configuración de Observability Pipelines](#set-up-observability-pipelines) -1. [Envío de logs al worker de Observability Pipelines](#send-logs-to-the-observability-pipelines-worker-over-syslog) +1. [Envío de logs al Observability Pipelines Worker](#send-logs-to-the-observability-pipelines-worker-over-syslog) ## Requisitos previos @@ -22,7 +22,7 @@ Este documento te guiará a través de los siguientes pasos: ## Configurar Observability Pipelines -1. Navega hasta [Observability Pipelines][1]. +1. Ve a [Observability Pipelines][1]. 1. Selecciona la plantilla **Log Volume Control** (Control del volumen de logs) para crear un pipeline nuevo. 1. Selecciona **rsyslog** o **syslog-ng** como el origen. @@ -32,56 +32,116 @@ Este documento te guiará a través de los siguientes pasos: ### Configurar los destinos -Introduce la siguiente información en función del destino de logs seleccionado. +Introduce la siguiente información en función de los destinos de logs seleccionados. {{< tabs >}} -{{% tab "Datadog" %}} +{{% tab "Amazon OpenSearch" %}} -{{% observability_pipelines/destination_settings/datadog %}} +{{% observability_pipelines/destination_settings/amazon_opensearch %}} {{% /tab %}} -{{% tab "Splunk HEC" %}} +{{% tab "Amazon Security Lake" %}} -{{% observability_pipelines/destination_settings/splunk_hec %}} +##### Requisitos previos + +{{% observability_pipelines/prerequisites/amazon_security_lake %}} + +##### Configurar el destino + +{{% observability_pipelines/destination_settings/amazon_security_lake %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} {{% /tab %}} -{{% tab "Sumo Logic" %}} +{{% tab "CrowdStrike NG-SIEM" %}} -{{% observability_pipelines/destination_settings/sumo_logic %}} +{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}} {{% /tab %}} -{{% tab "Syslog" %}} +{{% tab "Datadog" %}} -{{% observability_pipelines/destination_settings/syslog %}} +{{% observability_pipelines/destination_settings/datadog %}} {{% /tab %}} -{{% tab "Chronicle" %}} +{{% tab "Datadog Archives" %}} -{{% observability_pipelines/destination_settings/chronicle %}} +{{% observability_pipelines/destination_settings/datadog_archives_note %}} + +{{% observability_pipelines/destination_settings/datadog_archives_prerequisites %}} + +Para configurar el destino, sigue las instrucciones del proveedor de nube que utilizas para archivar tus logs. + +{{% collapse-content title="Amazon S3" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_amazon_s3 %}} + +{{% /collapse-content %}} +{{% collapse-content title="Google Cloud Storage" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_google_cloud_storage %}} + +{{% /collapse-content %}} +{{% collapse-content title="Azure Storage" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_azure_storage %}} + +{{% /collapse-content %}} {{% /tab %}} {{% tab "Elasticsearch" %}} {{% observability_pipelines/destination_settings/elasticsearch %}} +{{% /tab %}} +{{% tab "Microsoft Sentinel" %}} + +{{% observability_pipelines/destination_settings/microsoft_sentinel %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_settings/new_relic %}} + {{% /tab %}} {{% tab "OpenSearch" %}} {{% observability_pipelines/destination_settings/opensearch %}} {{% /tab %}} -{{% tab "Amazon OpenSearch" %}} +{{% tab "SentinelOne" %}} -{{% observability_pipelines/destination_settings/amazon_opensearch %}} +{{% observability_pipelines/destination_settings/sentinelone %}} {{% /tab %}} -{{% tab "New Relic" %}} +{{% tab "Socket" %}} -{{% observability_pipelines/destination_settings/new_relic %}} +{{% observability_pipelines/destination_settings/socket %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_settings/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_settings/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_settings/syslog %}} {{% /tab %}} {{< /tabs >}} +#### Añadir destinos adicionales + +{{% observability_pipelines/multiple_destinations %}} + ### Configurar procesadores {{% observability_pipelines/processors/intro %}} @@ -91,126 +151,231 @@ Introduce la siguiente información en función del destino de logs seleccionado {{% observability_pipelines/processors/add_processors %}} {{< tabs >}} -{{% tab "Filtro" %}} +{{% tab "Añadir variables de entorno" %}} -{{% observability_pipelines/processors/filter %}} +{{% observability_pipelines/processors/add_env_vars %}} + +{{% /tab %}} +{{% tab "Add hostname" %}} + +{{% observability_pipelines/processors/add_hostname %}} {{% /tab %}} -{{% tab "Editar campos" %}} +{{% tab "Procesador personalizado" %}} + +{{% observability_pipelines/processors/custom_processor %}} + +{{% /tab %}} +{{% tab "Dedupe" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /pestaña %}} +{{% pestaña "Editar campos" %}} {{% observability_pipelines/processors/remap %}} {{% /tab %}} -{{% tab "Muestra" %}} +{{% tab "Tabla de enriquecimiento" %}} -{{% observability_pipelines/processors/sample %}} +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{% tab "Filtro" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Generar métricas" %}} + +{{% observability_pipelines/processors/generate_metrics %}} {{% /tab %}} {{% tab "Grok Parser" %}} {{% observability_pipelines/processors/grok_parser %}} +{{% /tab %}} +{{% tab "Parse JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Analizar XML" %}} + +{{% observability_pipelines/processors/parse_xml %}} + {{% /tab %}} {{% tab "Cuota" %}} {{% observability_pipelines/processors/quota %}} {{% /tab %}} -{{% tab "Reducir" %}} +{{% tab "Reduce" %}} {{% observability_pipelines/processors/reduce %}} {{% /tab %}} -{{% tab "Dedupe" %}} +{{% tab "Reasignar a OCSF" %}} -{{% observability_pipelines/processors/dedupe %}} +{{% observability_pipelines/processors/remap_ocsf %}} + +{{% collapse-content title="Asignación de bibliotecas" level="h5" expanded=false id="library_mapping" %}} + +{{% observability_pipelines/processors/remap_ocsf_library_mapping %}} + +{{% /collapse-content %}} + +{{% collapse-content title="Asignación personalizada" level="h5" expanded=false id="custom_mapping" %}} + +{{% observability_pipelines/processors/remap_ocsf_custom_mapping %}} + +{{% /collapse-content %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% /tab %}} +{{% tab "Muestra" %}} + +{{% observability_pipelines/processors/sample %}} {{% /tab %}} {{% tab "Sensitive Data Scanner" %}} {{% observability_pipelines/processors/sensitive_data_scanner %}} -{{% /tab %}} -{{% tab "Añadir nombre de host" %}} +{{% collapse-content title="Añadir reglas de la biblioteca" level="h5" %}} -{{% observability_pipelines/processors/add_hostname %}} +{{% observability_pipelines/processors/sds_library_rules %}} -{{% /tab %}} -{{% tab "Parse JSON" %}} +{{% /collapse-content %}} +{{% collapse-content title="Añadir una regla personalizada" level="h5" %}} -{{% observability_pipelines/processors/parse_json %}} +{{% observability_pipelines/processors/sds_custom_rules %}} + +{{% /collapse-content %}} {{% /tab %}} -{{% tab "Tabla de enriquecimiento" %}} +{{% tab "Dividir matriz" %}} -{{% observability_pipelines/processors/enrichment_table %}} +{{% observability_pipelines/processors/split_array %}} {{% /tab %}} -{{% tab "Generar métricas" %}} +{{% tab "Procesador de etiquetas" %}} -{{% observability_pipelines/processors/generate_metrics %}} +{{% observability_pipelines/processors/tags_processor %}} {{% /tab %}} -{{% tab "Añadir variables de entorno" %}} +{{% tab "Limitar" %}} -{{% observability_pipelines/processors/add_env_vars %}} +{{% observability_pipelines/processors/throttle %}} {{% /tab %}} {{< /tabs >}} -### Instalar el worker de Observability Pipelines -1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). -1. Ingresa la dirección de Syslog. Este es un endpoint compatible con Syslog, expuesto por el worker, al que tus aplicaciones envían logs. El worker de Observability Pipelines escucha en esta dirección los logs entrantes. +#### Añadir otro conjunto de procesadores y destinos -1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Consulta [prerrequisitos](#prerequisites) para obtener más información. +{{% observability_pipelines/multiple_processors %}} + +### Instalar el Observability Pipelines Worker +1. Selecciona tu plataforma en el menú desplegable **Elige tu plataforma de instalación**. +1. Ingresa la dirección de Syslog. Este es un endpoint compatible con Syslog, expuesto por el Worker, al que tus aplicaciones envían logs. El Observability Pipelines Worker escucha en esta dirección los logs entrantes. + +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta [Requisitos previos](#prerequisites). {{< tabs >}} -{{% tab "Datadog" %}} +{{% tab "Amazon OpenSearch" %}} -{{% observability_pipelines/destination_env_vars/datadog %}} +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} {{% /tab %}} -{{% tab "Splunk HEC" %}} +{{% tab "Amazon Security Lake" %}} -{{% observability_pipelines/destination_env_vars/splunk_hec %}} +{{% observability_pipelines/destination_env_vars/amazon_security_lake %}} {{% /tab %}} -{{% tab "Sumo Logic" %}} +{{% tab "Chronicle" %}} -{{% observability_pipelines/destination_env_vars/sumo_logic %}} +{{% observability_pipelines/destination_env_vars/chronicle %}} {{% /tab %}} -{{% tab "Syslog" %}} +{{% tab "CrowdStrike NG-SIEM" %}} -{{% observability_pipelines/destination_env_vars/syslog %}} +{{% observability_pipelines/destination_env_vars/crowdstrike_ng_siem %}} {{% /tab %}} -{{% tab "Chronicle" %}} +{{% tab "Datadog" %}} -{{% observability_pipelines/destination_env_vars/chronicle %}} +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Datadog Archives" %}} + +Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de la nube que utilices para archivar tus logs. + +{{% collapse-content title="Amazon S3" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_amazon_s3 %}} + +{{% /collapse-content %}} +{{% collapse-content title="Google Cloud Storage" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_google_cloud_storage %}} + +{{% /collapse-content %}} +{{% collapse-content title="Azure Storage" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_azure_storage %}} + +{{% /collapse-content %}} {{% /tab %}} {{% tab "Elasticsearch" %}} {{% observability_pipelines/destination_env_vars/elasticsearch %}} +{{% /tab %}} +{{% tab "Microsoft Sentinel" %}} + +{{% observability_pipelines/destination_env_vars/microsoft_sentinel %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_env_vars/new_relic %}} + {{% /tab %}} {{% tab "OpenSearch" %}} {{% observability_pipelines/destination_env_vars/opensearch %}} {{% /tab %}} -{{% tab "Amazon OpenSearch" %}} +{{% tab "SentinelOne" %}} -{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} +{{% observability_pipelines/destination_env_vars/sentinelone %}} {{% /tab %}} -{{% tab "New Relic" %}} +{{% tab "Socket" %}} -{{% observability_pipelines/destination_env_vars/new_relic %}} +{{% observability_pipelines/destination_env_vars/socket %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_env_vars/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_env_vars/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_env_vars/syslog %}} {{% /tab %}} {{< /tabs >}} -1. Sigue las instrucciones de tu entorno para instalar el worker. +1. Sigue las instrucciones de tu entorno para instalar el Worker. {{< tabs >}} {{% tab "Docker" %}} @@ -239,7 +404,7 @@ Introduce la siguiente información en función del destino de logs seleccionado {{% /tab %}} {{< /tabs >}} -## Enviar logs al worker de Observability Pipelines a través de Syslog +## Enviar logs al Observability Pipelines Worker a través de Syslog {{% observability_pipelines/log_source_configuration/syslog %}} diff --git a/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/amazon_s3.md b/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/amazon_s3.md index 0d8735a5dcab2..3edfeeb0ed8d8 100644 --- a/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/amazon_s3.md +++ b/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/amazon_s3.md @@ -21,7 +21,7 @@ Este documento te guiará a través de los siguientes pasos: ## Configurar Observability Pipelines -1. Navega hasta [Observability Pipelines][1]. +1. Ve a [Observability Pipelines][1]. 1. Selecciona la plantilla **Sensitive Data Redactions** (Redacciones de datos confidenciales) para crear un nuevo pipeline. 1. Selecciona la fuente **Amazon S3**. @@ -39,21 +39,39 @@ Introduce la siguiente información en función de los destinos de logs seleccio {{% observability_pipelines/destination_settings/amazon_opensearch %}} {{% /tab %}} +{{% tab "Amazon Security Lake" %}} + +##### Requisitos previos + +{{% observability_pipelines/prerequisites/amazon_security_lake %}} + +##### Configurar el destino + +{{% observability_pipelines/destination_settings/amazon_security_lake %}} + +{{% /tab %}} {{% tab "Chronicle" %}} {{% observability_pipelines/destination_settings/chronicle %}} +{{% /tab %}} +{{% tab "CrowdStrike NG-SIEM" %}} + +{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}} + {{% /tab %}} {{% tab "Datadog" %}} {{% observability_pipelines/destination_settings/datadog %}} {{% /tab %}} -{{% tab "Archivos de Datadog" %}} +{{% tab "Datadog Archives" %}} {{% observability_pipelines/destination_settings/datadog_archives_note %}} -Sigue las instrucciones del proveedor de nube que usas para archivar tus logs. +{{% observability_pipelines/destination_settings/datadog_archives_prerequisites %}} + +Para configurar el destino, sigue las instrucciones del proveedor de nube que utilizas para archivar tus logs. {{% collapse-content title="Amazon S3" level="h5" %}} @@ -96,6 +114,11 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs. {{% observability_pipelines/destination_settings/sentinelone %}} +{{% /tab %}} +{{% tab "Socket" %}} + +{{% observability_pipelines/destination_settings/socket %}} + {{% /tab %}} {{% tab "Splunk HEC" %}} @@ -127,7 +150,7 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs. {{% observability_pipelines/processors/add_processors_sds %}} {{< tabs >}} -{{% tab "Añadir variables de entorno" %}} +{{% tab "Add env vars" %}} {{% observability_pipelines/processors/add_env_vars %}} @@ -136,13 +159,18 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs. {{% observability_pipelines/processors/add_hostname %}} +{{% /tab %}} +{{% tab "Procesador personalizado" %}} + +{{% observability_pipelines/processors/custom_processor %}} + {{% /tab %}} {{% tab "Dedupe" %}} {{% observability_pipelines/processors/dedupe %}} -{{< /tab >}} -{{% tab "Editar campos" %}} +{{% /pestaña %}} +{{% pestaña "Editar campos" %}} {{% observability_pipelines/processors/remap %}} @@ -152,7 +180,7 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs. {{% observability_pipelines/processors/enrichment_table %}} {{% /tab %}} -{{% tab "Filtrar" %}} +{{% tab "Filtro" %}} {{% observability_pipelines/processors/filter %}} @@ -171,6 +199,11 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs. {{% observability_pipelines/processors/parse_json %}} +{{% /tab %}} +{{% tab "Analizar XML" %}} + +{{% observability_pipelines/processors/parse_xml %}} + {{% /tab %}} {{% tab "Cuota" %}} @@ -186,6 +219,20 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs. {{% observability_pipelines/processors/remap_ocsf %}} +{{% collapse-content title="Asignación de bibliotecas" level="h5" expanded=false id="library_mapping" %}} + +{{% observability_pipelines/processors/remap_ocsf_library_mapping %}} + +{{% /collapse-content %}} + +{{% collapse-content title="Asignación personalizada" level="h5" expanded=false id="custom_mapping" %}} + +{{% observability_pipelines/processors/remap_ocsf_custom_mapping %}} + +{{% /collapse-content %}} + +{{% observability_pipelines/processors/filter_syntax %}} + {{% /tab %}} {{% tab "Muestra" %}} @@ -196,7 +243,7 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs. {{% observability_pipelines/processors/sensitive_data_scanner %}} - +{{% /collapse-content %}} + +{{% /tab %}} +{{% tab "Dividir matriz" %}} + +{{% observability_pipelines/processors/split_array %}} + +{{% /tab %}} +{{% tab "Procesador de etiquetas" %}} + +{{% observability_pipelines/processors/tags_processor %}} + +{{% /tab %}} +{{% tab "Limitar" %}} + +{{% observability_pipelines/processors/throttle %}} {{% /tab %}} {{< /tabs >}} @@ -214,8 +276,8 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs. {{% observability_pipelines/multiple_processors %}} -### Instalar el worker de Observability Pipelines -1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). +### Instalar el Observability Pipelines Worker +1. Selecciona tu plataforma en el menú desplegable **Elige tu plataforma de instalación**. 1. En el campo **AWS S3 SQS URL**, introduce la URL de la cola SQS a la que el bucket S3 envía eventos de notificación. 1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta [Requisitos previos](#prerequisites). {{< tabs >}} @@ -223,18 +285,28 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs. {{% observability_pipelines/destination_env_vars/amazon_opensearch %}} +{{% /tab %}} +{{% tab "Amazon Security Lake" %}} + +{{% observability_pipelines/destination_env_vars/amazon_security_lake %}} + {{% /tab %}} {{% tab "Chronicle" %}} {{% observability_pipelines/destination_env_vars/chronicle %}} +{{% /tab %}} +{{% tab "CrowdStrike NG-SIEM" %}} + +{{% observability_pipelines/destination_env_vars/crowdstrike_ng_siem %}} + {{% /tab %}} {{% tab "Datadog" %}} {{% observability_pipelines/destination_env_vars/datadog %}} {{% /tab %}} -{{% tab "Archivos de Datadog" %}} +{{% tab "Datadog Archives" %}} Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de la nube que utilices para archivar tus logs. @@ -279,6 +351,11 @@ Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de {{% observability_pipelines/destination_env_vars/sentinelone %}} +{{% /tab %}} +{{% tab "Socket" %}} + +{{% observability_pipelines/destination_env_vars/socket %}} + {{% /tab %}} {{% tab "Splunk HEC" %}} @@ -296,26 +373,16 @@ Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de {{% /tab %}} {{< /tabs >}} -1. Sigue las instrucciones de tu entorno para instalar el worker. +1. Sigue las instrucciones de tu entorno para instalar el Worker. {{< tabs >}} {{% tab "Docker" %}} {{% observability_pipelines/install_worker/docker %}} {{% /tab %}} -{{% tab "Amazon EKS" %}} - -{{% observability_pipelines/install_worker/amazon_eks %}} - -{{% /tab %}} -{{% tab "Azure AKS" %}} - -{{% observability_pipelines/install_worker/azure_aks %}} - -{{% /tab %}} -{{% tab "Google GKE" %}} +{{% tab "Kubernetes" %}} -{{% observability_pipelines/install_worker/google_gke %}} +{{% observability_pipelines/install_worker/kubernetes %}} {{% /tab %}} {{% tab "Linux (APT)" %}} @@ -335,4 +402,4 @@ Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de {{% /tab %}} {{< /tabs >}} -[1]: https://app.datadoghq.com/observability-pipelines +[1]: https://app.datadoghq.com/observability-pipelines \ No newline at end of file diff --git a/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/splunk_hec.md b/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/splunk_hec.md index 3ee42abd83c91..d6fa59e0593b6 100644 --- a/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/splunk_hec.md +++ b/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/splunk_hec.md @@ -16,7 +16,7 @@ Utiliza Observability Pipelines para identificar, etiquetar y, opcionalmente, re Este documento describe los siguientes pasos: 1. Los [prerrequisitos](#prerequisites) necesarios para configurar Observability Pipelines 1. [Configuración de Observability Pipelines](#set-up-observability-pipelines) -1. [Envío de logs al worker mediante Splunk HEC](#send-logs-to-the-observability-pipelines-worker-over-splunk-hec) +1. [Envío de logs al Worker mediante Splunk HEC](#send-logs-to-the-observability-pipelines-worker-over-splunk-hec) ## Requisitos previos @@ -24,7 +24,7 @@ Este documento describe los siguientes pasos: ## Configurar Observability Pipelines -1. Navega hasta [Observability Pipelines][1]. +1. Ve a [Observability Pipelines][1]. 1. Selecciona la plantilla **Sensitive Data Redaction** (Redacción de datos confidenciales) para crear un pipeline nuevo. 1. Selecciona **Splunk HEC** como origen. @@ -34,56 +34,116 @@ Este documento describe los siguientes pasos: ### Configurar el destino -Introduce la siguiente información en función del destino de logs seleccionado. +Introduce la siguiente información en función de los destinos de logs seleccionados. {{< tabs >}} -{{% tab "Datadog" %}} +{{% tab "Amazon OpenSearch" %}} -{{% observability_pipelines/destination_settings/datadog %}} +{{% observability_pipelines/destination_settings/amazon_opensearch %}} {{% /tab %}} -{{% tab "Splunk HEC" %}} +{{% tab "Amazon Security Lake" %}} -{{% observability_pipelines/destination_settings/splunk_hec %}} +##### Requisitos previos + +{{% observability_pipelines/prerequisites/amazon_security_lake %}} + +##### Configurar el destino + +{{% observability_pipelines/destination_settings/amazon_security_lake %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} {{% /tab %}} -{{% tab "Sumo Logic" %}} +{{% tab "CrowdStrike NG-SIEM" %}} -{{% observability_pipelines/destination_settings/sumo_logic %}} +{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}} {{% /tab %}} -{{% tab "Syslog" %}} +{{% tab "Datadog" %}} -{{% observability_pipelines/destination_settings/syslog %}} +{{% observability_pipelines/destination_settings/datadog %}} {{% /tab %}} -{{% tab "Chronicle" %}} +{{% tab "Datadog Archives" %}} -{{% observability_pipelines/destination_settings/chronicle %}} +{{% observability_pipelines/destination_settings/datadog_archives_note %}} + +{{% observability_pipelines/destination_settings/datadog_archives_prerequisites %}} + +Para configurar el destino, sigue las instrucciones del proveedor de nube que utilizas para archivar tus logs. + +{{% collapse-content title="Amazon S3" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_amazon_s3 %}} + +{{% /collapse-content %}} +{{% collapse-content title="Google Cloud Storage" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_google_cloud_storage %}} + +{{% /collapse-content %}} +{{% collapse-content title="Azure Storage" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_azure_storage %}} + +{{% /collapse-content %}} {{% /tab %}} {{% tab "Elasticsearch" %}} {{% observability_pipelines/destination_settings/elasticsearch %}} +{{% /tab %}} +{{% tab "Microsoft Sentinel" %}} + +{{% observability_pipelines/destination_settings/microsoft_sentinel %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_settings/new_relic %}} + {{% /tab %}} {{% tab "OpenSearch" %}} {{% observability_pipelines/destination_settings/opensearch %}} {{% /tab %}} -{{% tab "Amazon OpenSearch" %}} +{{% tab "SentinelOne" %}} -{{% observability_pipelines/destination_settings/amazon_opensearch %}} +{{% observability_pipelines/destination_settings/sentinelone %}} {{% /tab %}} -{{% tab "New Relic" %}} +{{% tab "Socket" %}} -{{% observability_pipelines/destination_settings/new_relic %}} +{{% observability_pipelines/destination_settings/socket %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_settings/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_settings/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_settings/syslog %}} {{% /tab %}} {{< /tabs >}} +#### Añadir destinos adicionales + +{{% observability_pipelines/multiple_destinations %}} + ### Configurar procesadores {{% observability_pipelines/processors/intro %}} @@ -93,126 +153,231 @@ Introduce la siguiente información en función del destino de logs seleccionado {{% observability_pipelines/processors/add_processors_sds %}} {{< tabs >}} -{{% tab "Filtro" %}} +{{% tab "Añadir variables de entorno" %}} -{{% observability_pipelines/processors/filter %}} +{{% observability_pipelines/processors/add_env_vars %}} + +{{% /tab %}} +{{% tab "Add hostname" %}} + +{{% observability_pipelines/processors/add_hostname %}} {{% /tab %}} -{{% tab "Editar campos" %}} +{{% tab "Procesador personalizado" %}} + +{{% observability_pipelines/processors/custom_processor %}} + +{{% /tab %}} +{{% tab "Dedupe" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /pestaña %}} +{{% pestaña "Editar campos" %}} {{% observability_pipelines/processors/remap %}} {{% /tab %}} -{{% tab "Muestra" %}} +{{% tab "Tabla de enriquecimiento" %}} -{{% observability_pipelines/processors/sample %}} +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{% tab "Filtro" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Generar métricas" %}} + +{{% observability_pipelines/processors/generate_metrics %}} {{% /tab %}} {{% tab "Grok Parser" %}} {{% observability_pipelines/processors/grok_parser %}} +{{% /tab %}} +{{% tab "Parse JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Analizar XML" %}} + +{{% observability_pipelines/processors/parse_xml %}} + {{% /tab %}} {{% tab "Cuota" %}} {{% observability_pipelines/processors/quota %}} {{% /tab %}} -{{% tab "Reducir" %}} +{{% tab "Reduce" %}} {{% observability_pipelines/processors/reduce %}} {{% /tab %}} -{{% tab "Dedupe" %}} +{{% tab "Reasignar a OCSF" %}} -{{% observability_pipelines/processors/dedupe %}} +{{% observability_pipelines/processors/remap_ocsf %}} + +{{% collapse-content title="Asignación de bibliotecas" level="h5" expanded=false id="library_mapping" %}} + +{{% observability_pipelines/processors/remap_ocsf_library_mapping %}} + +{{% /collapse-content %}} + +{{% collapse-content title="Asignación personalizada" level="h5" expanded=false id="custom_mapping" %}} + +{{% observability_pipelines/processors/remap_ocsf_custom_mapping %}} + +{{% /collapse-content %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% /tab %}} +{{% tab "Muestra" %}} + +{{% observability_pipelines/processors/sample %}} {{% /tab %}} {{% tab "Sensitive Data Scanner" %}} {{% observability_pipelines/processors/sensitive_data_scanner %}} -{{% /tab %}} -{{% tab "Añadir nombre de host" %}} +{{% collapse-content title="Añadir reglas de la biblioteca" level="h5" %}} -{{% observability_pipelines/processors/add_hostname %}} +{{% observability_pipelines/processors/sds_library_rules %}} -{{% /tab %}} -{{% tab "Parse JSON" %}} +{{% /collapse-content %}} +{{% collapse-content title="Añadir una regla personalizada" level="h5" %}} -{{% observability_pipelines/processors/parse_json %}} +{{% observability_pipelines/processors/sds_custom_rules %}} + +{{% /collapse-content %}} {{% /tab %}} -{{% tab "Tabla de enriquecimiento" %}} +{{% tab "Dividir matriz" %}} -{{% observability_pipelines/processors/enrichment_table %}} +{{% observability_pipelines/processors/split_array %}} {{% /tab %}} -{{% tab "Generar métricas" %}} +{{% tab "Procesador de etiquetas" %}} -{{% observability_pipelines/processors/generate_metrics %}} +{{% observability_pipelines/processors/tags_processor %}} {{% /tab %}} -{{% tab "Añadir variables de entorno" %}} +{{% tab "Limitar" %}} -{{% observability_pipelines/processors/add_env_vars %}} +{{% observability_pipelines/processors/throttle %}} {{% /tab %}} {{< /tabs >}} -### Instalar el worker de Observability Pipelines -1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). -1. Introduce la dirección Splunk HEC. Esta es la dirección y el puerto donde tus aplicaciones están enviando sus datos de registro. El worker de Observability Pipelines escucha esta dirección para los logs entrantes. -1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Consulta [prerrequisitos](#prerequisites) para obtener más información. +#### Añadir otro conjunto de procesadores y destinos + +{{% observability_pipelines/multiple_processors %}} + +### Instalar el Observability Pipelines Worker +1. Selecciona tu plataforma en el menú desplegable **Elige tu plataforma de instalación**. +1. Introduce la dirección Splunk HEC. Esta es la dirección y el puerto donde tus aplicaciones están enviando sus datos de registro. El Observability Pipelines Worker escucha esta dirección para los logs entrantes. +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta [Requisitos previos](#prerequisites). {{< tabs >}} -{{% tab "Datadog" %}} +{{% tab "Amazon OpenSearch" %}} -{{% observability_pipelines/destination_env_vars/datadog %}} +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} {{% /tab %}} -{{% tab "Splunk HEC" %}} +{{% tab "Amazon Security Lake" %}} -{{% observability_pipelines/destination_env_vars/splunk_hec %}} +{{% observability_pipelines/destination_env_vars/amazon_security_lake %}} {{% /tab %}} -{{% tab "Sumo Logic" %}} +{{% tab "Chronicle" %}} -{{% observability_pipelines/destination_env_vars/sumo_logic %}} +{{% observability_pipelines/destination_env_vars/chronicle %}} {{% /tab %}} -{{% tab "Syslog" %}} +{{% tab "CrowdStrike NG-SIEM" %}} -{{% observability_pipelines/destination_env_vars/syslog %}} +{{% observability_pipelines/destination_env_vars/crowdstrike_ng_siem %}} {{% /tab %}} -{{% tab "Chronicle" %}} +{{% tab "Datadog" %}} -{{% observability_pipelines/destination_env_vars/chronicle %}} +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Datadog Archives" %}} + +Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de la nube que utilices para archivar tus logs. + +{{% collapse-content title="Amazon S3" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_amazon_s3 %}} + +{{% /collapse-content %}} +{{% collapse-content title="Google Cloud Storage" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_google_cloud_storage %}} + +{{% /collapse-content %}} +{{% collapse-content title="Azure Storage" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_azure_storage %}} + +{{% /collapse-content %}} {{% /tab %}} {{% tab "Elasticsearch" %}} {{% observability_pipelines/destination_env_vars/elasticsearch %}} +{{% /tab %}} +{{% tab "Microsoft Sentinel" %}} + +{{% observability_pipelines/destination_env_vars/microsoft_sentinel %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_env_vars/new_relic %}} + {{% /tab %}} {{% tab "OpenSearch" %}} {{% observability_pipelines/destination_env_vars/opensearch %}} {{% /tab %}} -{{% tab "Amazon OpenSearch" %}} +{{% tab "SentinelOne" %}} -{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} +{{% observability_pipelines/destination_env_vars/sentinelone %}} {{% /tab %}} -{{% tab "New Relic" %}} +{{% tab "Socket" %}} -{{% observability_pipelines/destination_env_vars/new_relic %}} +{{% observability_pipelines/destination_env_vars/socket %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_env_vars/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_env_vars/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_env_vars/syslog %}} {{% /tab %}} {{< /tabs >}} -1. Sigue las instrucciones de tu entorno para instalar el worker. +1. Sigue las instrucciones de tu entorno para instalar el Worker. {{< tabs >}} {{% tab "Docker" %}} diff --git a/content/es/observability_pipelines/set_up_pipelines/split_logs/sumo_logic_hosted_collector.md b/content/es/observability_pipelines/set_up_pipelines/split_logs/sumo_logic_hosted_collector.md index 94be92f66232f..21a9c34f001fa 100644 --- a/content/es/observability_pipelines/set_up_pipelines/split_logs/sumo_logic_hosted_collector.md +++ b/content/es/observability_pipelines/set_up_pipelines/split_logs/sumo_logic_hosted_collector.md @@ -7,14 +7,14 @@ title: Dividir logs para el origen de logs HTTP del recopilador alojado de Sumo ## Información general -Configura tu origen de logs HTTP del recopilador alojado de Sumo Logic para enviar logs al worker de Observability Pipelines y, a continuación, a diferentes destinos en función de tu caso de uso. +Configura tu origen de logs HTTP del recopilador alojado de Sumo Logic para enviar logs al Observability Pipelines Worker y, a continuación, a diferentes destinos en función de tu caso de uso. {{% observability_pipelines/use_case_images/split_logs %}} Este documento te guiará a través de los siguientes pasos: 1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines 1. [Configuración de Observability Pipelines](#set-up-observability-pipelines) -1. [Envío de logs al worker de Observability Pipelines a través del origen HTTP de Sumo Logic](#send-logs-to-the-observability-pipelines-worker-over-sumo-logic-http-source) +1. [Envío de logs al Observability Pipelines Worker a través del origen HTTP de Sumo Logic](#send-logs-to-the-observability-pipelines-worker-over-sumo-logic-http-source) ## Requisitos previos @@ -28,7 +28,7 @@ Este documento te guiará a través de los siguientes pasos: ## Configurar Observability Pipelines -1. Navega hasta [Observability Pipelines][1]. +1. Ve a [Observability Pipelines][1]. 1. Selecciona la plantilla **Split Logs** (Dividir logs) para crear un nuevo pipeline. 1. Selecciona **Sumo Logic** como el origen. @@ -38,56 +38,116 @@ Este documento te guiará a través de los siguientes pasos: ### Configurar los destinos -Introduce la siguiente información en función del destino de logs seleccionado. +Introduce la siguiente información en función de los destinos de logs seleccionados. {{< tabs >}} -{{% tab "Datadog" %}} +{{% tab "Amazon OpenSearch" %}} -{{% observability_pipelines/destination_settings/datadog %}} +{{% observability_pipelines/destination_settings/amazon_opensearch %}} {{% /tab %}} -{{% tab "Splunk HEC" %}} +{{% tab "Amazon Security Lake" %}} -{{% observability_pipelines/destination_settings/splunk_hec %}} +##### Requisitos previos + +{{% observability_pipelines/prerequisites/amazon_security_lake %}} + +##### Configurar el destino + +{{% observability_pipelines/destination_settings/amazon_security_lake %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} {{% /tab %}} -{{% tab "Sumo Logic" %}} +{{% tab "CrowdStrike NG-SIEM" %}} -{{% observability_pipelines/destination_settings/sumo_logic %}} +{{% observability_pipelines/destination_settings/crowdstrike_ng_siem %}} {{% /tab %}} -{{% tab "Syslog" %}} +{{% tab "Datadog" %}} -{{% observability_pipelines/destination_settings/syslog %}} +{{% observability_pipelines/destination_settings/datadog %}} {{% /tab %}} -{{% tab "Chronicle" %}} +{{% tab "Datadog Archives" %}} -{{% observability_pipelines/destination_settings/chronicle %}} +{{% observability_pipelines/destination_settings/datadog_archives_note %}} + +{{% observability_pipelines/destination_settings/datadog_archives_prerequisites %}} + +Para configurar el destino, sigue las instrucciones del proveedor de nube que utilizas para archivar tus logs. + +{{% collapse-content title="Amazon S3" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_amazon_s3 %}} + +{{% /collapse-content %}} +{{% collapse-content title="Google Cloud Storage" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_google_cloud_storage %}} + +{{% /collapse-content %}} +{{% collapse-content title="Azure Storage" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_azure_storage %}} + +{{% /collapse-content %}} {{% /tab %}} {{% tab "Elasticsearch" %}} {{% observability_pipelines/destination_settings/elasticsearch %}} +{{% /tab %}} +{{% tab "Microsoft Sentinel" %}} + +{{% observability_pipelines/destination_settings/microsoft_sentinel %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_settings/new_relic %}} + {{% /tab %}} {{% tab "OpenSearch" %}} {{% observability_pipelines/destination_settings/opensearch %}} {{% /tab %}} -{{% tab "Amazon OpenSearch" %}} +{{% tab "SentinelOne" %}} -{{% observability_pipelines/destination_settings/amazon_opensearch %}} +{{% observability_pipelines/destination_settings/sentinelone %}} {{% /tab %}} -{{% tab "New Relic" %}} +{{% tab "Socket" %}} -{{% observability_pipelines/destination_settings/new_relic %}} +{{% observability_pipelines/destination_settings/socket %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_settings/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_settings/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_settings/syslog %}} {{% /tab %}} {{< /tabs >}} +#### Añadir destinos adicionales + +{{% observability_pipelines/multiple_destinations %}} + ### Configurar procesadores {{% observability_pipelines/processors/intro %}} @@ -97,125 +157,230 @@ Introduce la siguiente información en función del destino de logs seleccionado {{% observability_pipelines/processors/add_processors %}} {{< tabs >}} -{{% tab "Filtro" %}} +{{% tab "Añadir variables de entorno" %}} -{{% observability_pipelines/processors/filter %}} +{{% observability_pipelines/processors/add_env_vars %}} + +{{% /tab %}} +{{% tab "Add hostname" %}} + +{{% observability_pipelines/processors/add_hostname %}} {{% /tab %}} -{{% tab "Editar campos" %}} +{{% tab "Procesador personalizado" %}} + +{{% observability_pipelines/processors/custom_processor %}} + +{{% /tab %}} +{{% tab "Dedupe" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /pestaña %}} +{{% pestaña "Editar campos" %}} {{% observability_pipelines/processors/remap %}} {{% /tab %}} -{{% tab "Muestra" %}} +{{% tab "Tabla de enriquecimiento" %}} -{{% observability_pipelines/processors/sample %}} +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{% tab "Filtro" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Generar métricas" %}} + +{{% observability_pipelines/processors/generate_metrics %}} {{% /tab %}} {{% tab "Grok Parser" %}} {{% observability_pipelines/processors/grok_parser %}} +{{% /tab %}} +{{% tab "Parse JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Analizar XML" %}} + +{{% observability_pipelines/processors/parse_xml %}} + {{% /tab %}} {{% tab "Cuota" %}} {{% observability_pipelines/processors/quota %}} {{% /tab %}} -{{% tab "Reducir" %}} +{{% tab "Reduce" %}} {{% observability_pipelines/processors/reduce %}} {{% /tab %}} -{{% tab "Dedupe" %}} +{{% tab "Reasignar a OCSF" %}} -{{% observability_pipelines/processors/dedupe %}} +{{% observability_pipelines/processors/remap_ocsf %}} + +{{% collapse-content title="Asignación de bibliotecas" level="h5" expanded=false id="library_mapping" %}} + +{{% observability_pipelines/processors/remap_ocsf_library_mapping %}} + +{{% /collapse-content %}} + +{{% collapse-content title="Asignación personalizada" level="h5" expanded=false id="custom_mapping" %}} + +{{% observability_pipelines/processors/remap_ocsf_custom_mapping %}} + +{{% /collapse-content %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% /tab %}} +{{% tab "Muestra" %}} + +{{% observability_pipelines/processors/sample %}} {{% /tab %}} {{% tab "Sensitive Data Scanner" %}} {{% observability_pipelines/processors/sensitive_data_scanner %}} -{{% /tab %}} -{{% tab "Añadir nombre de host" %}} +{{% collapse-content title="Añadir reglas de la biblioteca" level="h5" %}} -{{% observability_pipelines/processors/add_hostname %}} +{{% observability_pipelines/processors/sds_library_rules %}} -{{% /tab %}} -{{% tab "Parse JSON" %}} +{{% /collapse-content %}} +{{% collapse-content title="Añadir una regla personalizada" level="h5" %}} -{{% observability_pipelines/processors/parse_json %}} +{{% observability_pipelines/processors/sds_custom_rules %}} + +{{% /collapse-content %}} {{% /tab %}} -{{% tab "Tabla de enriquecimiento" %}} +{{% tab "Dividir matriz" %}} -{{% observability_pipelines/processors/enrichment_table %}} +{{% observability_pipelines/processors/split_array %}} {{% /tab %}} -{{% tab "Generar métricas" %}} +{{% tab "Procesador de etiquetas" %}} -{{% observability_pipelines/processors/generate_metrics %}} +{{% observability_pipelines/processors/tags_processor %}} {{% /tab %}} -{{% tab "Añadir variables de entorno" %}} +{{% tab "Limitar" %}} -{{% observability_pipelines/processors/add_env_vars %}} +{{% observability_pipelines/processors/throttle %}} {{% /tab %}} {{< /tabs >}} -### Instalar el worker de Observability Pipelines -1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). -1. Introduce la dirección Sumo Logic. Esta es la dirección y el puerto donde tus aplicaciones están enviando sus datos de registro. El worker de Observability Pipelines escucha esta dirección para los logs entrantes. -1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Consulta [prerrequisitos](#prerequisites) para obtener más información. +#### Añadir otro conjunto de procesadores y destinos + +{{% observability_pipelines/multiple_processors %}} + +### Instalar el Observability Pipelines Worker +1. Selecciona tu plataforma en el menú desplegable **Elige tu plataforma de instalación**. +1. Introduce la dirección Sumo Logic. Esta es la dirección y el puerto donde tus aplicaciones están enviando sus datos de logs. El Observability Pipelines Worker escucha esta dirección para detectar logs entrantes. +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta [Requisitos previos](#prerequisites). {{< tabs >}} -{{% tab "Datadog" %}} +{{% tab "Amazon OpenSearch" %}} -{{% observability_pipelines/destination_env_vars/datadog %}} +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} {{% /tab %}} -{{% tab "Splunk HEC" %}} +{{% tab "Amazon Security Lake" %}} -{{% observability_pipelines/destination_env_vars/splunk_hec %}} +{{% observability_pipelines/destination_env_vars/amazon_security_lake %}} {{% /tab %}} -{{% tab "Sumo Logic" %}} +{{% tab "Chronicle" %}} -{{% observability_pipelines/destination_env_vars/sumo_logic %}} +{{% observability_pipelines/destination_env_vars/chronicle %}} {{% /tab %}} -{{% tab "Syslog" %}} +{{% tab "CrowdStrike NG-SIEM" %}} -{{% observability_pipelines/destination_env_vars/syslog %}} +{{% observability_pipelines/destination_env_vars/crowdstrike_ng_siem %}} {{% /tab %}} -{{% tab "Chronicle" %}} +{{% tab "Datadog" %}} -{{% observability_pipelines/destination_env_vars/chronicle %}} +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Datadog Archives" %}} + +Para el destino de archivos de Datadog, sigue las instrucciones del proveedor de la nube que utilices para archivar tus logs. + +{{% collapse-content title="Amazon S3" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_amazon_s3 %}} + +{{% /collapse-content %}} +{{% collapse-content title="Google Cloud Storage" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_google_cloud_storage %}} + +{{% /collapse-content %}} +{{% collapse-content title="Azure Storage" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_azure_storage %}} + +{{% /collapse-content %}} {{% /tab %}} {{% tab "Elasticsearch" %}} {{% observability_pipelines/destination_env_vars/elasticsearch %}} +{{% /tab %}} +{{% tab "Microsoft Sentinel" %}} + +{{% observability_pipelines/destination_env_vars/microsoft_sentinel %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_env_vars/new_relic %}} + {{% /tab %}} {{% tab "OpenSearch" %}} {{% observability_pipelines/destination_env_vars/opensearch %}} {{% /tab %}} -{{% tab "Amazon OpenSearch" %}} +{{% tab "SentinelOne" %}} -{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} +{{% observability_pipelines/destination_env_vars/sentinelone %}} {{% /tab %}} -{{% tab "New Relic" %}} +{{% tab "Socket" %}} -{{% observability_pipelines/destination_env_vars/new_relic %}} +{{% observability_pipelines/destination_env_vars/socket %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_env_vars/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_env_vars/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_env_vars/syslog %}} {{% /tab %}} {{< /tabs >}} -1. Sigue las instrucciones de tu entorno para instalar el worker. +1. Sigue las instrucciones de tu entorno para instalar el Worker. {{< tabs >}} {{% tab "Docker" %}} diff --git a/content/es/opentelemetry/integrations/spark_metrics.md b/content/es/opentelemetry/integrations/spark_metrics.md new file mode 100644 index 0000000000000..83cad192894e4 --- /dev/null +++ b/content/es/opentelemetry/integrations/spark_metrics.md @@ -0,0 +1,39 @@ +--- +further_reading: +- link: /opentelemetry/setup/collector_exporter/ + tag: Documentación + text: Configuración de OpenTelemetry Collector +title: Métricas de Apache Spark +--- + +## Información general + +{{< img src="/opentelemetry/collector_exporter/spark_metrics.png" alt="Métricas de OpenTelemetry Apache Spark en un dashboard de Spark" style="width:100%;" >}} + +El [receptor de Apache Spark][1] permite recopilar métricas de Apache Spark y acceder al dashboard de [Información general de Spark][4]. Configura el receptor según las especificaciones de la última versión del `apachesparkreceiver`. + +Para más información, consulta la documentación del proyecto de OpenTelemetry para el [receptor de Apache Spark][1]. + +## Configuración + +Para recopilar métricas de Apache Spark con OpenTelemetry para su uso con Datadog: + +1. Configura el [receptor de Apache Spark][1] en tu configuración de OpenTelemetry Collector. +2. Asegúrate de que el OpenTelemetry Collector está [configurado para exportar a Datadog][3]. + +Consulta la [documentación del receptor de Apache Spark][1] para obtener información detallada sobre las opciones y requisitos de configuración. + +## Datos recopilados + +{{< mapping-table resource="apachespark.csv">}} + +Consulta [Asignación de métricas de OpenTelemetry][2] para obtener más información. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/receiver/apachesparkreceiver +[2]: /es/opentelemetry/guide/metrics_mapping/ +[3]: /es/opentelemetry/setup/collector_exporter/ +[4]: https://app.datadoghq.com/screen/integration/95/spark---overview \ No newline at end of file diff --git a/content/es/opentelemetry/mapping/metrics_mapping.md b/content/es/opentelemetry/mapping/metrics_mapping.md new file mode 100644 index 0000000000000..01fbd6000e74e --- /dev/null +++ b/content/es/opentelemetry/mapping/metrics_mapping.md @@ -0,0 +1,51 @@ +--- +aliases: +- /es/opentelemetry/guide/metrics_mapping/ +- /es/opentelemetry/schema_semantics/metrics_mapping/ +disable_sidebar: true +further_reading: +- link: /metrics/open_telemetry/otlp_metric_types + tag: Documentación + text: Tipos de métricas OTLP +- link: /opentelemetry/guide/semantic_mapping + tag: Documentación + text: Asignación de atributos de recursos de OpenTelemetry a Datadog +title: Asignación de métricas de OpenTelemetry +--- + +## Información general + +Datadog se basa en métricas y etiquetas que siguen patrones de nomenclatura específicos. Por lo tanto, Datadog asigna las métricas entrantes de OpenTelemetry al formato de métrica apropiado de Datadog. Este proceso de asignación puede crear métricas adicionales, pero éstas no afectan a la facturación de Datadog. + +
¿Deseas unificar las métricas de OpenTelemetry y Datadog en tus consultas? Aprende a consultar las métricas de Datadog y OpenTelemetry desde el editor de consultas de métricas.
+ +## Cómo aparecen las métricas de OpenTelemetry en Datadog + +Para diferenciar las métricas del receptor de las [métricas de host][12] del OpenTelemetry Collector y el Datadog Agent, Datadog antepone `otel.` a cualquier métrica recibida que empiece por `system.` o `process.`. Datadog no recomienda supervisar la misma infraestructura tanto con el Datadog Agent como con el OpenTelemetry Collector. + +
Datadog está evaluando formas de mejorar la experiencia de métricas de OpenTelemetry Protocol, incluida la posible eliminación de este prefijo otel.
+ +## Asignación de métricas + +La siguiente tabla muestra las asignaciones de métricas para varias integraciones. Utiliza los controles de búsqueda y filtrado para encontrar las correspondencias de una integración específica. + +Para más información, consulta [integraciones de OpenTelemetry][11]. + +{{< multifilter-search resource="_data/semantic-core/unified_semantic_core.json">}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/receiver/hostmetricsreceiver +[2]: /es/opentelemetry/otel_collector_datadog_exporter/ +[3]: /es/universal_service_monitoring/setup/ +[4]: /es/opentelemetry/guide/semantic_mapping/ +[5]: https://app.datadoghq.com/infrastructure/map?fillby=avg%3Acpuutilization&groupby=availability-zone +[6]: https://app.datadoghq.com/infrastructure +[7]: /es/opentelemetry/collector_exporter/#out-of-the-box-dashboards +[8]: /es/tracing/trace_explorer/trace_view/?tab=hostinfo +[9]: /es/opentelemetry/otel_collector_datadog_exporter/?tab=onahost#containers-overview-dashboard +[10]: /es/tracing/trace_explorer/trace_view/ +[11]: /es/opentelemetry/integrations/ +[12]: /es/opentelemetry/integrations/host_metrics/ \ No newline at end of file diff --git a/content/es/opentelemetry/reference/concepts.md b/content/es/opentelemetry/reference/concepts.md new file mode 100644 index 0000000000000..c7edc59365f9e --- /dev/null +++ b/content/es/opentelemetry/reference/concepts.md @@ -0,0 +1,37 @@ +--- +aliases: +- /es/opentelemetry/otel_terms/ +further_reading: +- link: https://opentelemetry.io/docs/concepts/ + tag: Sitio externo + text: Conceptos de OpenTelemetry +- link: https://opentelemetry.io/docs/concepts/glossary/ + tag: Sitio externo + text: Glosario de OpenTelemetry +- link: https://docs.datadoghq.com/glossary/ + tag: Documentación + text: Glosario de Datadog +title: Términos y conceptos de OpenTelemetry +--- + +Esta página describe términos y conceptos esenciales de OpenTelemetry y Datadog. Para ver definiciones y descripciones adicionales, consulta el [glosario de OpenTelemetry][6]. + +| Concepto | Descripción | +|------------------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| Telemetría | Recopilación de métricas, logs, trazas (traces) y perfiles que proporcionan observaciones sobre los comportamientos y el rendimiento de las aplicaciones y la infraestructura. | +| [OpenTelemetry Collector][1] | Implementación independiente del proveedor para recopilar y exportar datos de telemetría emitidos por varios procesos. Puede configurarse para recibir, procesar y exportar telemetría a uno o varios destinos, incluidos los backends de almacenamiento y las herramientas de análisis. | +| [Datadog Exporter][2] | Componente OTel Collector que te permite reenviar datos de trazas, métricas y logs desde los SDK de OpenTelemetry a Datadog. | +| [OTLP Receiver][3] | Componente dentro de OpenTelemetry Collector responsable de aceptar datos de telemetría en el formato OpenTelemetry Protocol (OTLP). OTLP es el protocolo nativo de OpenTelemetry, diseñado para transferir datos de telemetría entre los SDK y el Collector. | +| [Propagación del contexto][4] | Mecanismo utilizado en el rastreo distribuido para conservar el contexto de rastreo en diferentes servicios. | +| [Convenciones semánticas][5] | Patrones de nomenclatura y definiciones de atributos normalizados que establecen una terminología coherente para los datos de telemetría en diferentes sistemas e implementaciones. Estas convenciones garantizan que los datos recopilados de diversas fuentes puedan procesarse y analizarse de manera uniforme. | + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/opentelemetry/collector_exporter/ +[2]: /es/opentelemetry/collector_exporter/otel_collector_datadog_exporter/ +[3]: /es/opentelemetry/collector_exporter/otlp_receiver/ +[4]: /es/opentelemetry/reference/trace_context_propagation/ +[5]: /es/opentelemetry/schema_semantics/semantic_mapping/ +[6]: https://opentelemetry.io/docs/concepts/glossary/ \ No newline at end of file diff --git a/content/es/partners/_index.md b/content/es/partners/_index.md index e4c211f8f1265..1667618842b5e 100644 --- a/content/es/partners/_index.md +++ b/content/es/partners/_index.md @@ -1,82 +1,6 @@ --- -description: Empezando con Datadog para socios comerciales y servicios -private: true -title: Socios +cascade: + type: partners +external_redirect: /partners/getting_started/ +title: Partners --- - -Datadog proporciona información sobre infraestructuras de nube aplicaciones híbridas de tus clientes. La interfaz de usuario intuitiva y la potente API te permiten incorporar, aprovisionar y gestionar los diversos entornos de tus clientes, al tiempo que define la seguridad de los datos de cada cuenta. - -## Empezando - -Conoce las prácticas recomendadas y empieza a monitorizar los entornos de tus clientes. - -- [Sentar las bases de trabajo][1]: Contiene información sobre cómo empezar y qué decisiones clave debes tomar al principio. -- [Entrada de datos][2]: Explica cómo pueden introducirse datos en Datadog y qué requisitos previos deben cumplir tus entornos. -- [Entrega de valor][3]: Recorre los pasos recomendados después de que los datos fluyan a Datadog. -- [Informes de facturación y uso][4]: Cubre la monitorización individual del cliente y el uso agregado de la plataforma Datadog en configuraciones de cuenta única y multiorganización. - -## Guía de capacitación en ventas para socios - -Consulta la [guía de capacitación en ventas para socios][5] para obtener una hoja de ruta de formación que te prepare para el proceso de ingeniería de ventas de Datadog. -## Mantenerse al día con Datadog - -Hay muchas formas de mantenerse al día con Datadog y conocer las nuevas funciones: -- Puedes [consultar las notas de la versión][6] en el sitio de Datadog -- Como miembro de la red de socios de Datadog, tienes acceso exclusivo al [portal de la red de socios de Datadog][7]. Allí encontrarás: - - Material publicitario y de formación - - El seminario web trimestral DPN Live Briefing: Ve las sesiones grabadas en la librería de recursos o espera la invitación en tu bandeja de entrada. -- Datadog comparte las numerosas lecciones aprendidas sobre sistemas escalables y distribuidos en la nube con la serie [Datadog sobre...][8]. - -### Información de estado - -Datadog pone a tu disposición los siguientes recursos para que puedas obtener información actualizada sobre el estado de servicios: -- Región US: [https://status.datadoghq.com][9] -- Región UE: [https://status.datadoghq.eu][10] - -Suscríbete a esta página para recibir notificaciones sobre cambios de estado. - -Si quieres ver el estado de integraciones de terceros que hayas activado con Datadog, consulta: [https://datadogintegrations.statuspage.io][11]. - -### Otros recursos - -Explora otros recursos importantes para mantenerte al día con Datadog: - -{{< whatsnext desc="Repositorios GitHub" >}} - {{< nextlink href="https://github.com/Datadog/Datadog-Agent/" >}}Datadog Agent : El código fuente de las versiones 7 y 6 del Datadog Agent. {{< /nextlink >}} - {{< nextlink href="https://github.com/DataDog/integrations-core/" >}}integraciones núcleo: Integraciones del Agent que Datadog desarrolla y admite oficialmente.{{< /nextlink >}} - {{< nextlink href="https://github.com/DataDog/integrations-extras/" >}}integraciones extras: Integraciones Datadog mantenidss por la comunidad.{{< /nextlink >}} - {{< nextlink href="https://github.com/Datadog/Miscellany" >}}Misceláneo: Scripts y herramientas misceláneos de Datadog.{{< /nextlink >}} -{{< /whatsnext >}} - -{{< whatsnext desc="Blog y redes sociales de Datadog" >}} - {{< nextlink href="www.datadoghq.com/blog/" >}}Blog de Datadog{{< /nextlink >}} - {{< nextlink href="https://www.linkedin.com/company/datadog/" >}}LinkedIn{{< /nextlink >}} - {{< nextlink href="https://twitter.com/datadoghq" >}}Twitter{{< /nextlink >}} - {{< nextlink href="https://www.facebook.com/datadoghq/" >}}Facebook{{< /nextlink >}} -{{< /whatsnext >}} - -{{< whatsnext desc="YouTube" >}} - {{< nextlink href="https://www.youtube.com/user/DatadogHQ" >}}Canal oficial de YouTube{{< /nextlink >}} - {{< nextlink href="https://www.youtube.com/playlist?list=PLdh-RwQzDsaM9Sq_fi-yXuzhmE7nOlqLE" >}}Lista de consejos y trucos{{< /nextlink >}} -{{< /whatsnext >}} - -{{< whatsnext desc="Lista de conferencias Dash" >}} - {{< nextlink href="https://www.youtube.com/playlist?list=PLdh-RwQzDsaPhn1p7Sz6nc_6-9YInd__u" >}}Dash 2023{{< /nextlink >}} - {{< nextlink href="https://www.youtube.com/playlist?list=PLdh-RwQzDsaOlLse2WlvFXYRJ8iirG2QO" >}}Dash 2022{{< /nextlink >}} - {{< nextlink href="https://www.youtube.com/playlist?list=PLdh-RwQzDsaO-_rgnDSBn221gWacNCkDr" >}}Dash 2021{{< /nextlink >}} - {{< nextlink href="https://www.youtube.com/playlist?list=PLdh-RwQzDsaMlgvtlJRyXGgt4i-9Oiyi1" >}}Dash 2020{{< /nextlink >}} - {{< nextlink href="https://www.youtube.com/playlist?list=PLdh-RwQzDsaPkMoleskq9YcWMWvYfBCRB" >}}Dash 2019{{< /nextlink >}} - -{{< /whatsnext >}} - -[1]: /es/partners/laying-the-groundwork/ -[2]: /es/partners/data-intake/ -[3]: /es/partners/delivering-value/ -[4]: /es/partners/billing-and-usage-reporting/ -[5]: /es/partners/sales-enablement/ -[6]: https://app.datadoghq.com/release-notes -[7]: https://partners.datadoghq.com/ -[8]: https://datadogon.datadoghq.com/ -[9]: https://status.datadoghq.com -[10]: https://status.datadoghq.eu -[11]: https://datadogintegrations.statuspage.io diff --git a/content/es/product_analytics/charts/funnel_analysis.md b/content/es/product_analytics/charts/funnel_analysis.md new file mode 100644 index 0000000000000..c1be3b8b4c28e --- /dev/null +++ b/content/es/product_analytics/charts/funnel_analysis.md @@ -0,0 +1,138 @@ +--- +algolia: + tags: + - embudo +aliases: +- /es/real_user_monitoring/funnel_analysis +- /es/real_user_monitoring/product_analytics/funnel_analysis +- /es/product_analytics/journeys/funnel_analysis/ +disable_toc: false +further_reading: +- link: /product_analytics/analytics_explorer/ + tag: Documentación + text: Analytics Explorer +title: Análisis de embudo +--- + +## Información general + +El análisis del embudo te ayuda a realizar un seguimiento de las tasas de conversión en flujos de trabajo clave, para identificar y abordar los cuellos de botella en recorridos de extremo a extremo de los usuarios. En concreto, puedes: + +- Ver si los clientes abandonan el sitio web en un momento determinado debido a un rendimiento deficiente. +- Realizar un seguimiento de la evolución de la tasa de conversión a medida que se incorporan nuevas funciones. +- Medir cómo afecta a la tasa de abandono la adición de nuevos pasos a un flujo de trabajo. +- Comprender cuánto tiempo tardan en promedio los usuarios en atravesar el embudo (tiempo hasta la conversión). +- Filtrar eventos individuales (acción o vista) en diferentes pasos de tu embudo. +- Combinar varios eventos en un mismo paso, ya que los usuarios finales podrían tener diferentes maneras de obtener el mismo resultado en diferentes flujos. + +**Nota**: La **tasa de conversión** es el número de visitantes de tu sitio web que sí lograron el objetivo buscado (la conversión) del número total de visitantes. + +## Construir un embudo + +Para crear un embudo, ve a [**Product Analytics > Charts** (Análisis de productos > Gráficos)][1] y haz clic en **Funnel** (Embudo). + +{{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_overview.png" alt="Ve a la pestaña Funnel Analysis (Análisis de embudos) en Products Analytics (Análisis de productos)" style="width:100%;" >}} + +En esta página, elige tu vista o acción inicial y haz clic en `+ Step` crear pasos adicionales. También puedes utilizar la función de arrastrar y soltar para organizar los pasos. + +{{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_video1.mp4" alt="Filtrado del mapa de red con búsquedas" video=true >}} + +Si tienes un punto de partida en mente, pero no sabes exactamente qué hicieron tus usuarios a continuación, el editor de pasos del embudo carga automáticamente las **vistas** y **acciones** más frecuentes que tus usuarios suelen ver y realizar a continuación. Esto te permite crear embudos más rápidamente, ya que conoces los recorridos que tus usuarios realizan en secuencia. + +{{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_dropoffs.png" alt="El editor de pasos de embudo carga automáticamente las vistas y acciones más frecuentes que los usuarios generalmente ven y realizan respectivamente." style="width:50%;" >}} + +**Nota**: Cualquier acción o vista que ocurra entre dos pasos de un embudo no afecta a la tasa de conversión paso a paso o global. Mientras el paso 1 y el paso 2 ocurran en el orden correcto en una sesión dada al menos una vez, cuentan como una única sesión convertida. + +### Filtrado + +Cuando creas tu embudo, puedes filtrar globalmente o por pasos. + +- Los **filtros globales** se aplican a todo el embudo. + + {{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_filter_by-2.png" alt="Uso de atributos para filtrar información globalmente al crear tu embudo" style="width:50%;" >}} + +- El **filtrado de un paso** proporciona información sobre cómo cambia el paso en función de una restricción concreta de ese paso. Por ejemplo, es posible que quieras ver cómo un dispositivo, sistema operativo, geolocalización o usuario específico afecta a la conversión entre pasos. + + {{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_filter_by_step.png" alt="Uso de atributos para filtrar información entre pasos al crear tu embudo" style="width:50%;" >}} + +### Combinación de eventos + +Al crear tu embudo, puedes combinar varios eventos en un paso dado, ya que los usuarios finales pueden tener diferentes maneras de obtener el mismo resultado en diferentes flujos. Al combinar eventos, cualquiera de los eventos del paso puede representar el paso. El valor numérico que ves es la combinación de todos los pasos dentro del paso combinado. + +Para combinar un evento, haz clic en los tres puntos situados junto a un evento y selecciona **+ Combine Events** (+ Combinar eventos). + +### Agrupar + +Utiliza el desplegable Agrupar por, para agrupar los datos por un atributo específico. + +**Nota**: La opción Agrupar por no funciona con la visualización de pasos del embudo. + +## Refinar la conversión + +Puedes seguir analizando la información de la página del embudo para comprender la tasa de conversión. La tasa de conversión es una métrica esencial que mide la eficacia de tu sitio o aplicación. + +Puedes analizar la conversión por **recuento de sesiones** o **usuarios**, lo que significa que puedes comprender cuántas sesiones o usuarios completaron el embudo. + +Puedes medir la conversión mediante los siguientes atributos: + +- **Recuento de conversiones** - Recuento de usuarios que atravesaron el embudo que definiste. +- **Tasa de conversión** - La conversión se refiere al momento en que un usuario responde a una llamada a la acción. Esta tasa es el porcentaje de usuarios que entraron en el embudo y se convirtieron. + + **Nota**: Sólo las sesiones RUM completadas contribuyen a las tasas de conversión. + +- **Tiempo hasta la conversión** - Tiempo que tardó el usuario en completar los eventos del paso. + +Puedes medir estos atributos **en todos los pasos** o entre **pasos específicos**. + +{{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_conversion.png" alt="Medir atributos en todos los pasos o en pasos específicos." style="width:60%;" >}} + +Utiliza el selector **filtro** para filtrar por los distintos criterios que hayas definido. + +A continuación, haz clic en un punto de datos para **investigar los atributos específicos** que podrían haber afectado a los índices de conversión, como la velocidad de carga de la página, la facilidad de navegación o la experiencia de pago. + +## Cambiar la visualización + +{{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_change_viz.mp4" alt="Hacer clic en el menú desplegable de visualización para seleccionar otra vista" video=true >}} + +Después de definir los eventos y la medición de la conversión del paso, puedes cambiar a una visualización diferente para comprender mejor las conversiones de los usuarios de tu aplicación. + +### Series temporales +Visualizar la conversión como una serie temporal puede ser útil para comprender las tendencias de conversión. Cada punto del eje x representa la conversión de la consulta identificada. + +Puedes seleccionar el periodo de tiempo para crear gráficos de conversión y visualizar las conversiones en porcentajes o en recuentos absolutos. + +{{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_timeseries.png" alt="Visualizar datos de conversión como series temporales." style="width:80%;" >}} + +### Valor de consulta + +Los valores de consulta muestran el valor actual de la métrica de uso dada. + +{{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_query_value.png" alt="Visualizar datos de conversión como valor de consulta." style="width:80%;" >}} + +### Lista principal + +Visualiza los principales valores de una faceta en función de la medida elegida. + +{{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_toplist.png" alt="Visualizar datos de conversión como una lista de principales." style="width:80%;" >}} + +## Compartir un embudo + +Puedes compartir embudos con tus equipos en [dashboards][5], para analizar la conversión junto con otras métricas de telemetría, o en un [notebook][6], para utilizarlos en informes. + +Puedes compartir la visualización completa o widgets individuales. + +- Comparte la visualización completa en notebooks y dashboards: + + {{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_share_funnel.png" alt="Compartir toda la visualización haciendo clic en Export (Exportar)" style="width:90%;" >}} + +- Comparte widgets individuales desde un dashboard: + + {{< img src="product_analytics/journeys/funnel_analysis/pana_funnel_share_dashboard.png" alt="Compartir un widget haciendo clic en el icono de exportación en la parte superior derecha del widget" style="width:90%;" >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/product-analytics/user-journey/funnel +[5]: /es/product_analytics/dashboards/ +[6]: /es/notebooks/ \ No newline at end of file diff --git a/content/es/security/application_security/setup/gcp/cloud-run/python.md b/content/es/security/application_security/setup/gcp/cloud-run/python.md new file mode 100644 index 0000000000000..ceb88eef5c869 --- /dev/null +++ b/content/es/security/application_security/setup/gcp/cloud-run/python.md @@ -0,0 +1,121 @@ +--- +further_reading: +- link: /security/application_security/how-it-works/ + tag: Documentación + text: Cómo funciona App and API Protection +- link: /security/default_rules/?category=cat-application-security + tag: Documentación + text: Reglas predefinidas de App and API Protection +- link: /security/application_security/troubleshooting + tag: Documentación + text: Solución de problemas de App and API Protection +- link: /security/application_security/threats/ + tag: Documentación + text: App and API Protection +- link: https://www.datadoghq.com/blog/datadog-security-google-cloud/ + tag: Blog + text: Datadog Security amplía las funciones de cumplimiento de normativas y protección + frente a amenazas para Google Cloud +title: Habilitar App and API Protection para funciones de Google Cloud Run en Python +--- + +
La compatibilidad de AAP con Google Cloud Run está en vista previa.
+ +## Cómo funciona + +La aplicación `serverless-init` envuelve tu proceso y lo ejecuta como un subproceso. Inicia un escuchador de métricas de DogStatsD y un escuchador de trazas del Trace Agent. Recopila logs envolviendo los flujos stdout/stderr de tu aplicación. Después de arrancar, `serverless-init` inicia tu comando como un subproceso. + +Para una instrumentación completa, asegúrate de que estás llamando a `datadog-init` como el primer comando que se ejecuta dentro de tu contenedor Docker. Puedes hacerlo configurándolo como punto de entrada, o configurándolo como el primer argumento en CMD. + +## Compatibilidad + +
La compatibilidad de Google Cloud Run con App and API Protection sin servidor está en vista previa.
+ +**Nota**: La protección frente a amenazas no es compatible a través de la configuración remota. Utiliza los [flujos][5] para bloquear direcciones IP en tu [WAF][6]. + +## Para empezar + +Añade las siguientes instrucciones y argumentos a tu Dockerfile. +```dockerfile +COPY --from=datadog/serverless-init:1 /datadog-init /app/datadog-init +RUN pip install --target /dd_tracer/python/ ddtrace +ENV DD_SERVICE=datadog-demo-run-python +ENV DD_ENV=datadog-demo +ENV DD_VERSION=1 +ENV DD_APPSEC_ENABLED=1 +ENTRYPOINT ["/app/datadog-init"] +CMD ["/dd_tracer/python/bin/ddtrace-run", "python", "app.py"] +``` + +### Explicación + +1. Copia `serverless-init` de Datadog en tu imagen de Docker. + ```dockerfile + COPY --from=datadog/serverless-init:1 /datadog-init /app/datadog-init + ``` + +2. Instala el rastreador Python de Datadog. + ```dockerfile + RUN pip install --target /dd_tracer/python/ ddtrace + ``` + Si instalas la biblioteca del rastreador de Datadog directamente en tu aplicación, como se indica en las [instrucciones para la instrumentación manual del rastreador][1], omite este paso. + +3. (Opcional) Añade etiquetas (tags) de Datadog. + ```dockerfile + ENV DD_SERVICE=datadog-demo-run-python + ENV DD_ENV=datadog-demo + ENV DD_VERSION=1 + ENV DD_APPSEC_ENABLED=1 + ``` + +4. Cambia el punto de entrada para contener tu aplicación en el proceso de `serverless-init` de Datadog. + **Nota**: Si ya tienes un punto de entrada definido dentro de tu archivo Docker, consulta la [configuración alternativa](#alt-python). + ```dockerfile + ENTRYPOINT ["/app/datadog-init"] + ``` + +5. Ejecuta tu aplicación binaria envuelta en el punto de entrada, iniciada por la biblioteca de rastreo de Datadog. Adapta esta línea según tus necesidades. + ```dockerfile + CMD ["/dd_tracer/python/bin/ddtrace-run", "python", "app.py"] + ``` +#### Configuración alternativa {#alt-python} +Si ya tienes un punto de entrada definido en tu archivo Docker, puedes modificar el argumento CMD. + +{{< highlight dockerfile "hl_lines=7" >}} +COPY --from=datadog/serverless-init:1 /datadog-init /app/datadog-init +RUN pip install --target /dd_tracer/python/ ddtrace +ENV DD_SERVICE=datadog-demo-run-python +ENV DD_ENV=datadog-demo +ENV DD_VERSION=1 +ENV DD_APPSEC_ENABLED=1 +CMD ["/app/datadog-init", "/dd_tracer/python/bin/ddtrace-run", "python", "app.py"] +{{< /highlight >}} + +Si necesitas que tu punto de entrada también se instrumente, puedes intercambiar tu punto de entrada y argumentos CMD en su lugar. Para obtener más información, consulta [Cómo funciona `serverless-init`](#how-serverless-init-works). + +{{< highlight dockerfile "hl_lines=7-8" >}} +COPY --from=datadog/serverless-init:1 /datadog-init /app/datadog-init +RUN pip install --target /dd_tracer/python/ ddtrace +ENV DD_SERVICE=datadog-demo-run-python +ENV DD_ENV=datadog-demo +ENV DD_VERSION=1 +ENV DD_APPSEC_ENABLED=1 +ENTRYPOINT ["/app/datadog-init"] +CMD ["your_entrypoint.sh", "/dd_tracer/python/bin/ddtrace-run", "python", "app.py"] +{{< /highlight >}} + +Siempre y cuando el comando a ejecutar se pase como argumento a `datadog-init`, recibirás la Instrumentación completa. + +[1]: /es/tracing/trace_collection/dd_libraries/python/?tab=containers#instrument-your-application + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/services?query=type%3Afunction%20&env=prod&groupBy=&hostGroup=%2A&lens=Security&sort=-attackExposure&view=list +[2]: /es/serverless/distributed_tracing/ +[3]: https://app.datadoghq.com/security/appsec +[4]: /es/security/application_security/serverless/compatibility +[5]: /es/actions/workflows/ +[6]: /es/security/application_security/waf-integration/ +[apm-lambda-tracing-setup]: https://docs.datadoghq.com/serverless/aws_lambda/distributed_tracing/ \ No newline at end of file diff --git a/content/es/security/application_security/threats/add-user-info.md b/content/es/security/application_security/threats/add-user-info.md new file mode 100644 index 0000000000000..661a3e34a418f --- /dev/null +++ b/content/es/security/application_security/threats/add-user-info.md @@ -0,0 +1,847 @@ +--- +aliases: +- /es/security_platform/application_security/add-user-info +- /es/security/application_security/add-user-info +further_reading: +- link: /security/application_security/ + tag: Documentación + text: Protegerse contra las amenazas con Datadog App and API Protection +- link: /security/application_security/threats/library_configuration/ + tag: Documentación + text: Otras disposiciones y opciones de configuración +title: Monitorización y protección de usuarios +--- + +## Información general + +Instrumenta tus servicios y rastrea la actividad de los usuarios para detectar y bloquear a los actores malintencionados. + +[Añade información de un usuario autenticado a las trazas](#adding-authenticated-user-information-to-traces-and-enabling-user-blocking-capability) para identificar y bloquear a los actores malintencionados que se dirijan a tu superficie de ataque autenticada. Para ello, establece la etiqueta (tag) del ID de usuario en la traza de APM en ejecución, proporcionando la instrumentación necesaria para que AAP bloquee a los atacantes autenticados. Esto permite que AAP asocie los ataques y los eventos de la lógica empresarial a los usuarios. + +[Rastrea los inicios de sesión y la actividad de los usuarios](#adding-business-logic-information-login-success-login-failure-any-business-logic-to-traces) para detectar las apropiaciones de cuentas y los abusos de la lógica empresarial con reglas de detección predefinidas y, en última instancia, bloquear a los atacantes. + +Las actividades personalizadas del usuario para las cuales se dispone de reglas de detección predefinidas son las siguientes: + +| Nombres de eventos integrados | Metadatos necesarios | Normas relacionadas | +|------------------------|------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| `activity.sensitive` | `{ "name": "coupon_use", "required_role": "user" }` | [Tasa de actividad limitada desde la IP][4]
[Actividad no autorizada detectada][5] | +| `users.login.success` | El ID de usuario es obligatorio, se pueden añadir metadatos opcionales | [Ataque de relleno de credenciales][6]
[Ataque por la fuerza bruta][12]
[Relleno de credenciales distribuido][13] | +| `users.login.failure` | El ID de usuario y `usr.exists` son obligatorios, se pueden añadir metadatos opcionales | [Ataque de relleno de credenciales][6]
[Ataque por la fuerza bruta][12]
[Relleno de credenciales distribuido][13] | +| `users.signup` | `{ "usr.id": "12345" }` | [Excesivas creaciones de cuentas desde una IP][7] | +| `users.delete` | `{ "usr.id": "12345" }` | [Excesiva eliminación de cuentas desde una IP][8] | +| `users.password_reset` | `{ "usr.id": "12345", "usr.login": "user@email.com", "exists": true }` | [Intentos de restablecimiento de contraseña por la fuerza bruta][9] | +| `payment.failure` | Ninguno | [Excesivos errores de pago desde una IP][10] | + +## Añadir información de usuarios autenticados a las trazas y habilitar la capacidad de bloqueo de los usuarios + +
+Detección automatizada de la actividad de los usuarios: las bibliotecas de rastreo de Datadog intentan detectar e informar de eventos de la actividad del usuario automáticamente. Para obtener más información, consulta Desactivar el rastreo automático de eventos de la actividad del usuario. +
+ +Puedes [añadir etiquetas personalizadas a tu tramo raíz][3], o utilizar las funciones de instrumentación que se describen a continuación. + +{{< programming-lang-wrapper langs="java,dotnet,go,ruby,php,nodejs,python" >}} + +{{< programming-lang lang="java" >}} + +Utiliza la API del rastreador de Java para añadir etiquetas personalizadas a un tramo raíz y añade la información del usuario para poder monitorizar solicitudes autenticadas en la aplicación. + +Las etiquetas de monitorización del usuario se aplican en el tramo raíz y comienzan con el prefijo `usr` seguido del nombre del campo. Por ejemplo, `usr.name` es una etiqueta de monitorización de usuario que rastrea el nombre de este. + +**Nota**: Comprueba que hayas añadido [las dependencias necesarias a tu aplicación][1]. + +En el siguiente ejemplo, se muestra cómo obtener el tramo raíz, añadir las etiquetas relevantes de monitorización de usuarios y habilitar la capacidad de bloqueo de estos: + +```java +import io.opentracing.Span; +import io.opentracing.util.GlobalTracer; +import datadog.appsec.api.blocking.Blocking; +import datadog.trace.api.interceptor.MutableSpan; + +// Obtener el tramo activo +final Span span = GlobalTracer.get().activeSpan(); +si ((span instanceof MutableSpan)) { + MutableSpan localRootSpan = ((MutableSpan) span).getLocalRootSpan(); + // Configurar la etiqueta obligatoria del ID de usuario + localRootSpan.setTag("usr.id", "d131dd02c56eec4"); + // Configurar las etiquetas opcionales de monitorización de usuarios + localRootSpan.setTag("usr.name", "Jean Example"); + localRootSpan.setTag("usr.email", "jean.example@example.com"); + localRootSpan.setTag("usr.session_id", "987654321"); + localRootSpan.setTag("usr.role", "admin"); + localRootSpan.setTag("usr.scope", "read:message, write:files"); +} + +Bloquear + .forUser("d131dd02c56eec4") + .blockIfMatch(); +``` + +[1]: /es/tracing/trace_collection/custom_instrumentation/opentracing/java#setup +{{< /programming-lang >}} + +{{< programming-lang lang="dotnet" >}} + +El paquete de rastreadores de .NET ofrece la función de `SetUser()`, que permite monitorizar solicitudes autenticadas añadiendo la información de usuario a la traza. + +En el siguiente ejemplo se muestra cómo añadir las etiquetas relevantes de monitorización de usuarios y habilitar la capacidad de bloqueo de estos: + +```csharp + +using Datadog.Trace; + +// ... + + var userDetails = new UserDetails() + { + // el identificador interno de sistemas para los usuarios + Id = "d41452f2-483d-4082-8728-171a3570e930", + // la dirección de correo electrónico del usuario + Email = "test@adventure-works.com", + // el nombre de usuario, como lo muestra el sistema + Name = "Jane Doh", + // el ID de la sesión delusuario + SessionId = "d0632156-132b-4baa-95b2-a492c5f9cb16", + // el rol en el cual el usuario está realizando la solicitud + Role = "standard", + }; + Tracer.Instance.ActiveScope?.Span.SetUser(userDetails); +``` + +Para más información y opciones, consulta [la documentación del rastreador de .NET][1]. + +[1]: https://github.com/DataDog/dd-trace-dotnet/tree/master/docs/Datadog.Trace#user-identification + +{{< /programming-lang >}} + +{{< programming-lang lang="go" >}} + +El paquete del rastreador de Go proporciona la función `SetUser()`, que te permite monitorizar solicitudes autenticadas añadiendo información del usuario a la traza. Para más opciones, ve [la documentación del rastreador de Go][1] (o [la documentación de la v2][2]). + +En este ejemplo se muestra cómo recuperar el tramo del rastreador actual, utilizarlo para configurar las etiquetas de monitorización de usuarios y habilitar la capacidad de bloqueo de estos: + +```go +import ( + "gopkg.in/DataDog/dd-trace-go.v1/appsec" // 1.x + // "github.com/DataDog/dd-trace-go/v2/appsec // 2.x +) + +func handler(w http.ResponseWriter, r *http.Request) { + if appsec.SetUser(r.Context(), "my-uid") != nil { + // The user must be blocked by aborting the request handler asap. + // The blocking response is automatically handled and sent by the appsec middleware. + return + } +} +``` + +[1]: https://pkg.go.dev/gopkg.in/DataDog/dd-trace-go.v1/ddtrace/tracer#SetUser +[2]: https://pkg.go.dev/github.com/DataDog/dd-trace-go/v2/ddtrace/tracer#SetUser +{{< /programming-lang >}} + +{{< programming-lang lang="ruby" >}} + +Utiliza una de las siguientes API para añadir la información del usuario a una traza de modo que se puedan monitorizar las solicitudes autenticadas en la aplicación: + +{{% collapse-content title="set_user" level="h4" expanded="true" %}} + +Empezando con `ddtrace` 1.1.0, el método `Datadog::Kit::Identity.set_user` está disponible. Se trata de la API recomendada para añadir la información del usuario a las trazas: + +```ruby +# Obtener la traza activa +trace = Datadog::Tracing.active_trace + +# Configurar la etiqueta obligatoria del ID de usuario +Datadog::Kit::Identity.set_user(trace, id: 'd131dd02c56eeec4') + +# O configurar cualquiera de estas etiquetas opcionales de monitorización de usuarios +Datadog::Kit::Identity.set_user( + trace, + + # ID obligatorio + id: 'd131dd02c56eeec4', + + # etiquetas opcionales con una semántica conocida + name: 'Jean Example', + email:, 'jean.example@example.com', + session_id:, '987654321', + role: 'admin', + scope: 'read:message, write:files', + + # etiquetas opcionales con forma libre + another_tag: 'another_value', +) +``` +{{% /collapse-content %}} + +{{% collapse-content title="set_tag" level="h4" expanded="false" id="ruby-set-tag" %}} + +Si `Datadog::Kit::Identity.set_user` no satisface tus necesidades, puedes utilizar `set_tag` en su lugar. + +Las etiquetas de monitorización de usuario se aplican en la traza y comienzan con el prefijo `usr.` seguido del nombre del campo. Por ejemplo, `usr.name` es una etiqueta de monitorización de usuario que rastrea el nombre de este. + +En el siguiente ejemplo se muestra cómo obtener la traza activa y añadir las etiquetas relevantes de monitorización de usuario: + +**Notas**: +- Los valores de las etiquetas deben ser cadenas. +- La etiqueta de `usr.id` es obligatoria. + +```ruby +# Obtener la traza activa +trace = Datadog::Tracing.active_trace + +# Configurar la etiqueta obligatoria del ID de usuario +trace.set_tag('usr.id', 'd131dd02c56eeec4') + +# Configurar las etiquetas opcionales de monitorización de usuarios con una semántica conocida +trace.set_tag('usr.name', 'Jean Example') +trace.set_tag('usr.email', 'jean.example@example.com') +trace.set_tag('usr.session_id', '987654321') +trace.set_tag('usr.role', 'admin') +trace.set_tag('usr.scope', 'read:message, write:files') + +# Configurar etiquetas con forma libre: +trace.set_tag('usr.another_tag', 'another_value') +``` +{{% /collapse-content %}} + +{{< /programming-lang >}} + +{{< programming-lang lang="php" >}} + +El rastreador de PHP ofrece la función de `\DDTrace\set_user()`, que permite monitorizar y bloquear solicitudes autenticadas. + +`\DDTrace\set_user()` añade las etiquetas relevantes del usuario y los metadatos a la traza y realiza automáticamente el bloqueo de usuarios. + +En el siguiente ejemplo se muestra cómo configurar las etiquetas de monitorización de usuarios y habilitar el bloqueo de estos: + +```php + 'Jean Example', + 'email' => 'jean.example@example.com', + 'session_id' => '987654321', + 'role' => 'admin', + 'scope' => 'read:message, write:files', + ] +); +?> +``` + +{{< /programming-lang >}} + +{{< programming-lang lang="nodejs" >}} + +El paquete de rastreadores de Node ofrece la función de`tracer.setUser(user)`, que permite monitorizar solicitudes autenticadas añadiendo la información de usuario a la traza. + +En el siguiente ejemplo se muestra cómo añadir etiquetas relevantes de monitorización de usuarios y habilitar la capacidad de bloqueo de estos: + +```javascript +const tracer = require('dd-trace').init() + +function handle () { + tracer.setUser({ + id: '123456789', // *NECESARIO* Identificador único de usuario. + + // Todos los demás campos son opcionales. + email: 'jane.doe@example.com', // Dirección de correo electrónico del usuario. + name: 'Jane Doe', // Nombre intuitivo del usuario. + session_id: '987654321', // ID de la sesión del usuario. + role: 'admin', // El rol en el cual el usuario está realizando la solicitud. + scope: 'read:message, write:files', // Ámbitos o autorizaciones otorgadas que el usuario posee actualmente. + + // También se aceptan campos arbitrarios para adjuntar datos personalizados al usuario (RBAC, Oauth, etc...) + custom_tag: 'custom data' + }) + +// Configurar el usuario autenticado actualmente y comprobar si está bloqueado +si (tracer.appsec.isUserBlocked(user)) { // configurar también el usuario autenticado actualmente + return tracer.appsec.blockRequest(req, res) // se envía la respuesta de bloqueo + } + +} +``` + +Para más información y opciones, consulta [la documentación del rastreador de Node.js][1]. + + + +[1]: https://datadoghq.dev/dd-trace-js/#set-user +{{< /programming-lang >}} + +{{< programming-lang lang="python" >}} + +Monitoriza las solicitudes autenticadas añadiendo la información del usuario a la traza con la función de `set_user` ofrecida por el paquete de rastreadores de Python. + +En este ejemplo se muestra cómo configurar las etiquetas de monitorización de usuarios y habilitar la capacidad de bloqueo de estos: + +```Python +from ddtrace.contrib.trace_utils import set_user +from ddtrace import tracer +# Llamada de configuración_usuario() para rastrear el ID de usuario autenticado actualmente +user_id = "som_user_id" +set_user(tracer, user_id, name="John", email="test@test.com", scope="some_scope", + role="manager", session_id="session_id", propagate=True) +```3 + +{{< /programming-lang >}} + +{{< /programming-lang-wrapper >}} + +## Añadir la información de la lógica empresarial (inicio de sesión correcto, inicio de sesión fallido, cualquier lógica empresarial) a las trazas + +
+Una nota sobre usr.id y usr.login: el abuso de inicio de sesión de investigación se basa en dos conceptos similares, pero diferentes. usr.id contiene el identificador único de la cuenta de usuario en la base de datos. Es único e inmutable. No está disponible cuando alguien intenta iniciar sesión en una cuenta inexistente. El bloqueo de usuarios tiene como objetivo usr.id.
+El usuario generalmente no es consciente de su ID de usuario. En su lugar, confía en identificadores mutables (número de teléfono, nombre de usuario, dirección de correo electrónico...). La cadena utilizada por el usuario para iniciar sesión en una cuenta debe ser informada como usr.login en eventos de inicio de sesión.
+Si no se proporciona ningún usr.login, se utilizará usr.id en su lugar. +
+ +{{< programming-lang-wrapper langs="java,dotnet,go,ruby,php,nodejs,python" >}} +{{< programming-lang lang="java" >}} + +A partir de dd-trace-java v1.8.0, puedes utilizar la API del rastreador de Java para realizar un seguimiento de los eventos de usuario. + +En los siguientes ejemplos se muestra cómo rastrear los eventos de inicio de sesión o los eventos personalizados (utilizando el registro como ejemplo). + +{{% collapse-content title="Inicio de sesión exitoso" level="h4" expanded="true" %}} +```java +import datadog.trace.api.EventTracker; +import datadog.trace.api.GlobalTracer; + +public class LoginController { + + private User doLogin(String userName, String password) { + // this is where you get User based on userName/password credentials + User user = checkLogin(userName, password); + + Map metadata = new HashMap<>(); + metadata.put("email", user.getEmail()); + metadata.put("usr.login", userName); + + // If your system has multiple "tenants", please provide it. A tenant is an environment/group of user + metadata.put("usr.org", usr.getTenant()); + + // track user authentication success events + GlobalTracer + .getEventTracker() + .trackLoginSuccessEvent(user.getId(), metadata); + + } +} + +``` +{{% /collapse-content %}} + +{{% collapse-content title="Inicio de sesión fallido" level="h4" expanded="false" id="java-login-failure" %}} +```java +import datadog.trace.api.EventTracker; +import datadog.trace.api.GlobalTracer; + +public class LoginController { + + private User doLogin(String userName, String password) { + // this is where you get User based on userName/password credentials + User user = checkLogin(userName, password); + + // if function returns null - user doesn't exist + boolean userExists = (user != null); + String userId = null; + Map metadata = new HashMap<>(); + metadata.put("usr.login", userName); + if (userExists != null) { + userId = getUserId(userName) + metadata.put("email", user.getEmail()); + } else { + userId = userName; + } + + // track user authentication error events + GlobalTracer + .getEventTracker() + .trackLoginFailureEvent(userId, userExists, metadata); + } +} +``` +{{% /collapse-content %}} + +{{% collapse-content title="Lógica de negocio personalizada" level="h4" expanded="false" id="java-custom-business" %}} +```java +import datadog.trace.api.EventTracker; +import datadog.trace.api.GlobalTracer; + +public class LoginController { + + private User doSignup(String userId, String email) { + // this is where you create your user account + User user = createUser(userId, email); + + Map metadata = new HashMap<>(); + metadata.put("usr.id", user.getId()); + + // track user signup events + GlobalTracer + .getEventTracker() + .trackCustomEvent("users.signup", metadata); + } +} + +``` +{{% /collapse-content %}} + +{{< /programming-lang >}} + +{{< programming-lang lang="dotnet" >}} + +A partir de dd-trace-dotnet v2.23.0, puedes utilizar la API del rastreador de .NET para realizar un seguimiento de los eventos de usuario. + +En los siguientes ejemplos se muestra cómo rastrear los eventos de inicio de sesión o los eventos personalizados (utilizando el registro como ejemplo). + +{{% collapse-content title="Inicio de sesión exitoso" level="h4" expanded="true" %}} +```csharp +using Datadog.Trace.AppSec; + +void OnLogonSuccess(string userId, string login...) +{ + // metadata is optional + var metadata = new Dictionary() + { + { "usr.login", login } + }; + EventTrackingSdk.TrackUserLoginSuccessEvent(userId, metadata); + + // ... +} + +``` +{{% /collapse-content %}} +{{% collapse-content title="Inicio de sesión fallido" level="h4" expanded="false" id="dotnet-login-failure" %}} +```csharp +using Datadog.Trace.AppSec; + +void OnLogonFailure(string userId, string login, bool userExists, ...) +{ + // If no userId can be provided, any unique user identifier (username, email...) may be used + // metadata is optional + var metadata = new Dictionary() + { + { "usr.login", login } + }; + EventTrackingSdk.TrackUserLoginFailureEvent(userId, userExists, metadata); + + // ... +} +``` +{{% /collapse-content %}} + +{{% collapse-content title="Lógica de negocio personalizada" level="h4" expanded="false" id="dotnet-custom-business" %}} +```csharp +void OnUserSignupComplete(string userId, ...) +{ + // el parámetro de metadatos es opcional, pero añadiendo el "usr.id" + var metadata = new Dictionary() + { + { "usr.id", userId } + }; + // Aprovechar el rastreo personalizado de la lógica empresarial para rastrear los registros de los usuarios + EventTrackingSdk.TrackCustomEvent("users.signup", metadata); + + // ... +} +``` +{{% /collapse-content %}} + +{{< /programming-lang >}} +{{< programming-lang lang="go" >}} + +A partir de dd-trace-go v1.47.0, puedes utilizar la API del rastreador de Go para realizar un seguimiento de los eventos de usuario. + +En los siguientes ejemplos se muestra cómo rastrear los eventos de inicio de sesión o los eventos personalizados (utilizando el registro como ejemplo). + +{{% collapse-content title="Inicio de sesión exitoso" level="h4" expanded="true" %}} +```go +import ( + "gopkg.in/DataDog/dd-trace-go.v1/appsec" // 1.x + // "github.com/DataDog/dd-trace-go/v2/appsec" // 2.x +) + +func handler(w http.ResponseWriter, r *http.Request) { + metadata := make(map[string]string) /* optional extra event metadata */ + userdata := /* optional extra user data */ + + metadata["usr.login"] = "user-email" + + // Track login success, replace `my-uid` by a unique identifier of the user (such as numeric, username, and email) + if appsec.TrackUserLoginSuccessEvent(r.Context(), "my-uid", metadata, userdata) != nil { + // The given user id is blocked and the handler should be aborted asap. + // The blocking response will be sent by the appsec middleware. + return + } +} +``` +{{% /collapse-content %}} +{{% collapse-content title="Inicio de sesión fallido" level="h4" expanded="false" id="go-login-failure" %}} +```go +import ( + "gopkg.in/DataDog/dd-trace-go.v1/appsec" // 1.x + // "github.com/DataDog/dd-trace-go/v2/appsec" // 2.x +) + +func handler(w http.ResponseWriter, r *http.Request) { + exists := /* whether the given user id exists or not */ + metadata := make(map[string]string) /* optional extra event metadata */ + metadata["usr.login"] = "user-email" + + // Replace `my-uid` by a unique identifier of the user (numeric, username, email...) + appsec.TrackUserLoginFailureEvent(r.Context(), "my-uid", exists, metadata) +} +``` +{{% /collapse-content %}} + +{{% collapse-content title="Lógica de negocio personalizada" level="h4" expanded="false" id="go-custom-business" %}} +```go +import ( + "gopkg.in/DataDog/dd-trace-go.v1/appsec" // 1.x + // "github.com/DataDog/dd-trace-go/v2/appsec" // 2.x +) + +func handler(w http.ResponseWriter, r *http.Request) { + metadata := map[string]string{"usr.id": "my-uid"} + + // Leveraging custom business logic tracking to track user signups + appsec.TrackCustomEvent(r.Context(), "users.signup", metadata) +} +``` +{{% /collapse-content %}} + +{{< /programming-lang >}} +{{< programming-lang lang="ruby" >}} + +Empezando en dd-trace-rb v1.9.0, se puede utilizar la API del rastreador de Ruby para rastrear los eventos de los usuarios. + +En los siguientes ejemplos se muestra cómo rastrear los eventos de inicio de sesión o los eventos personalizados (utilizando el registro como ejemplo). + +Las trazas que contienen los eventos de inicio de sesión correctos/fallidos pueden consultarse mediante la siguiente consulta `@appsec.security_activity:business_logic.users.login.success` o `@appsec.security_activity:business_logic.users.login.failure`. + +{{% collapse-content title="Inicio de sesión exitoso" level="h4" expanded="true" %}} +```ruby +require 'datadog/kit/appsec/events' + +trace = Datadog::Tracing.active_trace +# Replace `my_user_id` by a unique identifier of the user (numeric, username, email...) +Datadog::Kit::AppSec::Events.track_login_success(trace, user: { id: 'my_user_id' }, { 'usr.login': 'my_user_email' }) +``` +{{% /collapse-content %}} + +{{% collapse-content title="Inicio de sesión fallido" level="h4" expanded="false" id="ruby-login-failure" %}} +```ruby +require 'datadog/kit/appsec/events' +trace = Datadog::Tracing.active_trace + +# Replace `my_user_id` by a unique identifier of the user (numeric, username, email...) + +# if the user exists +Datadog::Kit::AppSec::Events.track_login_failure(trace, user_id: 'my_user_id', user_exists: true, { 'usr.login': 'my_user_email' }) + +# if the user doesn't exist +Datadog::Kit::AppSec::Events.track_login_failure(trace, user_id: 'my_user_id', user_exists: false, { 'usr.login': 'my_user_email' }) +``` +{{% /collapse-content %}} + +{{% collapse-content title="Lógica de negocio personalizada" level="h4" expanded="false" id="ruby-custom-business" %}} +```ruby +require 'datadog/kit/appsec/events' +trace = Datadog::Tracing.active_trace + +# Replace `my_user_id` by a unique identifier of the user (numeric, username, email...) + +# Leveraging custom business logic tracking to track user signups +Datadog::Kit::AppSec::Events.track('users.signup', trace, nil, { 'usr.id': 'my_user_id'}) +``` +{{% /collapse-content %}} + +{{< /programming-lang >}} + +{{< programming-lang lang="php" >}} +Empezando en dd-trace-php v0.84.0, se puede utilizar la API del rastreador de PHP para rastrear los eventos de los usuarios. + +En los siguientes ejemplos se muestra cómo rastrear los eventos de inicio de sesión o los eventos personalizados (utilizando el registro como ejemplo). + +{{% collapse-content title="Inicio de sesión exitoso" level="h4" expanded="true" %}} +```php + $email]) +?> +``` +{{% /collapse-content %}} + +{{% collapse-content title="Inicio de sesión fallido" level="h4" expanded="false" id="php-login-failure" %}} +```php + $email]) +?> +``` +{{% /collapse-content %}} + +{{% collapse-content title="Lógica de negocio personalizada" level="h4" expanded="false" id="php-custom-business" %}} +```php + $id]); +?> +``` +{{% /collapse-content %}} + +{{< /programming-lang >}} + +{{< programming-lang lang="nodejs" >}} + +A partir de dd-trace-js v3.13.1, puedes utilizar la API del rastreador de Node.js para realizar un seguimiento de los eventos de usuario. La versión v5.48.0 de dd-trace-js introduce nuevos métodos bajo el espacio de nombres `eventTrackingV2`. Los métodos de seguimiento de eventos existentes se mantienen por motivos de compatibilidad. + + +En los siguientes ejemplos se muestra cómo rastrear los eventos de inicio de sesión o los eventos personalizados (utilizando el registro como ejemplo). + +{{% collapse-content title="Inicio de sesión exitoso" level="h4" expanded="true" %}} +```javascript +const tracer = require('dd-trace') + +// in a controller: +const user = { +id: 'user-id', // id is mandatory. If no ID is available, any unique identifier works (username, email...) + email: 'user@email.com' // other fields are optional +} +const user = 'user-id' // user could be just the ID +const login = 'user@email.com' +const metadata = { 'key': 'value' } // you can add arbitrary fields + +// Log a successful user authentication event +// user and metadata are optional +tracer.appsec.eventTrackingV2.trackUserLoginSuccess(login, user, metadata) +``` +{{% /collapse-content %}} + +{{% collapse-content title="Inicio de sesión fallido" level="h4" expanded="false" id="nodejs-login-failure" %}} +```javascript +const tracer = require('dd-trace') + +// in a controller: +const login = 'user-id' // the string used by the user to log in +const userExists = true // if the user login exists in database for example +const metadata = { 'key': 'value' } // you can add arbitrary fields + +// Log a failed user authentication event +// userExists is optional and it is defaulted to false +// metadata is optional +tracer.appsec.eventTrackingV2.trackUserLoginFailure(login, userExists, metadata) +``` +{{% /collapse-content %}} + +{{% collapse-content title="Lógica de negocio personalizada" level="h4" expanded="false" id="nodejs-custom-business" %}} +```javascript +const tracer = require('dd-trace') + +// en un controlador: +const eventName = 'users.signup' +const metadata = { 'usr.id': 'user-id' } + +tracer.appsec.trackCustomEvent(eventName, metadata) +``` +{{% /collapse-content %}} + +#### Migración a los nuevos métodos de inicio de sesión exitosos y fallidos + +Los nuevos métodos de `eventTrackingV2` introducen un orden de parámetros más intuitivo y una separación más clara de las problemáticas. Estos son los cambios clave: + +1. El identificador de inicio de sesión (correo electrónico, nombre de usuario) es el primer parámetro y es obligatorio. +2. El objeto/ID de usuario es opcional en los eventos exitosos y se ha eliminado de los eventos fallidos. +3. Los metadatos se han simplificado y ya no requieren el campo `usr.login`. + +**Nota**: Los antiguos métodos `trackUserLoginSuccessEvent` y `trackUserLoginFailureEvent` quedan obsoletos en favor de los nuevos métodos `eventTrackingV2.trackUserLoginSuccess` y `eventTrackingV2.trackUserLoginFailure`, respectivamente. + +En el siguiente ejemplo, el código comentado ya no es necesario. + +{{% collapse-content title="Inicio de sesión exitoso" level="h4" expanded="true" %}} +```javascript +const tracer = require('dd-trace') + +// in a controller: +const user = { + id: 'user-id', + email: 'user@email.com' +} // same as before, but now the object is optional. Providing a user ID will nonetheless help with post-compromised activity correlation + +const login = 'user@email.com' // new mandatory argument + +const metadata = { +// 'usr.login': 'user@email.com', this is no longer necessary in metadata. Must be the main argument + 'key': 'value' +} + +// tracer.appsec.trackUserLoginSuccessEvent(user, metadata) // deprecated +tracer.appsec.eventTrackingV2.trackUserLoginSuccess(login, user, metadata) +``` +{{% /collapse-content %}} + +{{% collapse-content title="Inicio de sesión fallido" level="h4" expanded="false" id="nodejs-migration-login-failure" %}} +```javascript +const tracer = require('dd-trace') + +// in a controller with the deprecated method: +const userId = 'user-id' // No longer mandatory, but helpful when available +const login = 'user@email.com' // new mandatory argument +const userExists = true +const metadata = { +// 'usr.login': 'user@email.com', this is no longer necessary in metadata. Must be the first argument + 'usr.id': userId, // Helps with correlating login failures with the rest of the user activity + 'key': 'value' +} + +// tracer.appsec.trackUserLoginFailureEvent(userId, userExists, metadata) // deprecated +tracer.appsec.eventTrackingV2.trackUserLoginFailure(login, userExists, metadata) +``` +{{% /collapse-content %}} + +{{< /programming-lang >}} + +{{< programming-lang lang="python" >}} + +Empezando en dd-rastrear-py v1.9.0, se puede utilizar la API del rastreador de Python para rastrear los eventos del usuario. + +En los siguientes ejemplos se muestra cómo rastrear los eventos de inicio de sesión o los eventos personalizados (utilizando el registro como ejemplo). + +{{% collapse-content title="Inicio de sesión exitoso" level="h4" expanded="true" %}} +```python +from ddtrace.appsec.trace_utils import track_user_login_success_event +from ddtrace import tracer +metadata = {"usr.login": "user@email.com"} +# name, email, scope, role, session_id and propagate are optional arguments which +# default to None except propagate that defaults to True. They'll be +# passed to the set_user() function +track_user_login_success_event(tracer, "userid", metadata) +``` +{{% /collapse-content %}} + +{{% collapse-content title="Inicio de sesión fallido" level="h4" expanded="false" id="python-login-failure" %}} +```python +from ddtrace.appsec.trace_utils import track_user_login_failure_event +from ddtrace import tracer +metadata = {"usr.login": "user@email.com"} +# exists indicates if the failed login user exists in the system +exists = False +# if no numeric userId is available, any unique identifier will do (username, email...) +track_user_login_failure_event(tracer, "userid", exists, metadata) +``` +{{% /collapse-content %}} + +{{% collapse-content title="Lógica de negocio personalizada" level="h4" expanded="false" id="python-custom-business" %}} +```python +from ddtrace.appsec.trace_utils import track_custom_event +from ddtrace import tracer +metadata = {"usr.id": "userid"} +event_name = "users.signup" +track_custom_event(tracer, event_name, metadata) +``` +{{% /collapse-content %}} + +{{< /programming-lang >}} + +{{< /programming-lang-wrapper >}} + +### Rastrear la información de la lógica empresarial sin modificar el código + +Si tu servicio tiene AAP activado y la [configuración remota][1] activada, puedes crear una regla WAF personalizada para marcar cualquier solicitud que coincida con una etiqueta de lógica de negocio personalizada. Esto no requiere ninguna modificación en tu aplicación, y puede hacerse completamente desde Datadog. + +Para empezar, ve a la [Página de la regla WAF personalizada][2] y haz clic en "Crear regla nueva". + +{{< img src="security/application_security/threats/custom-waf-rule-menu.png" alt="Accede al menú de Reglas personalizas de WAF desde la página de inicio de AAP haciendo clic en Protección, luego en WAF dentro de la aplicación y reglas personalizadas" style="width:100%;" >}} + +Esto abrirá un menú en el que podrás definir tu regla WAF personalizada. Seleccionando la categoría "Business Logic" (Lógica de negocio), podrás configurar un tipo de evento (por ejemplo, `users.password_reset`). A continuación, podrás seleccionar el servicio que deseas rastrear y un endpoint específico. También puedes utilizar la condición de la regla para apuntar a un parámetro específico para identificar el flujo de código que deseas _instrumentar_. Cuando la condición coincide, la biblioteca etiqueta la traza y la marca para reenviarla a AAP. Si no necesitas la condición, puedes establecer una condición amplia para que coincida con todo. + +{{< img src="security/application_security/threats/custom-waf-rule-form.png" alt="Captura de pantalla de la forma que aparece cuando haces clic en el botón Crear regla nueva" style="width:50%;" >}} + +Una vez guardada, la regla se despliega en las instancias del servicio que tienen habilitada la Configuración remota. + + +[1]: /es/agent/remote_config?tab=configurationyamlfile#application-security-management-asm +[2]: https://app.datadoghq.com/security/appsec/in-app-waf?config_by=custom-rules + +## Rastreo automático de los eventos de actividad de los usuarios + +Cuando AAP está activada, las bibliotecas de rastreo de Datadog intentan detectar automáticamente los eventos de actividad del usuario. + +Los eventos que se pueden detectar automáticamente son los siguientes: + +- `users.login.success` +- `users.login.failure` +- `users.signup` + +### Modos de rastreo automáticos de los eventos de actividad del usuario + +El rastreo automático de la actividad del usuario ofrece los siguientes modos: + +- `identification` (nombre abreviado: `ident`): + - Este modo es el predeterminado y siempre recopila el ID de usuario o la mejor posibilidad. + - El ID de usuario se recopila cuando el inicio de sesión es correcto y cuando es fallido. Cuando es fallido, el ID de usuario se recopila independientemente de si el usuario existe o no. + - Cuando el marco instrumentado no proporciona claramente un ID de usuario, sino un objeto de usuario estructurado, el ID de usuario se determina sobre la base del mejor esfuerzo basado en los nombres de campo del objeto. Se considera esta lista de nombres de campo, ordenados por prioridad: + - `id` + - `email` + - `username` + - `login` + - `user` + - Si no hay ID de usuario disponible o este no se encuentra, el evento del usuario no se emite. +- Modo `anonymization` (nombre abreviado: `anon`): + - Este modo es el mismo que `identification`, pero anonimiza el ID de usuario mediante un hash (SHA256) y recortando el hash resultante. +- Modo `disabled`: + - Las bibliotecas de AAP *no* recopilan ningún ID de usuario de sus instrumentaciones automatizadas. + - Los eventos de inicio de sesión del usuario no se emiten. + +
Todos los modos solo afectan a la instrumentación automatizada. Los modos no se aplican a la recopilación manual. Esta se configura mediante un SDK, y esos ajustes no se anulan por una instrumentación automatizada.
+ +### Configuración manual + +Las bibliotecas de Datadog permiten configurar la auto-instrumentación utilizando la variable de entorno `DD_APPSEC_AUTO_USER_INSTRUMENTATION_MODE` con el nombre abreviado del modo: `ident`|`anon`|`disabled`. + +El modo por defecto es el modo `identification` (nombre abreviado: `ident`). + +Por ejemplo, `DD_APPSEC_AUTO_USER_INSTRUMENTATION_MODE=anon`. + +### Modos obsoletos + +
Los modos anteriores están obsoletos, pero se mantendrá la compatibilidad hasta la próxima versión principal.
+ +Los siguientes modos están obsoletos: + +- Modo `safe`: La biblioteca de rastreo no incluye ninguna información PII en los metadatos de los eventos. La biblioteca del rastreador intenta recopilar el ID de usuario, y solo si este es un [GUID][10] válido. +- Modo `extended`: La biblioteca de rastreo intenta recopilar el ID de usuario y el correo electrónico del usuario. En este modo, Datadog no comprueba el tipo para que el ID de usuario sea un GUID. La biblioteca de rastreado reporta cualquier valor que se pueda ser extraer del evento. + +**Nota**: Podrían darse casos en los que la biblioteca de rastreo no sea capaz de extraer ninguna información del evento del usuario. El evento se reportaría con metadatos vacíos. En esos casos, utiliza el [SDK](#adding-business-logic-information-login-success-login-failure-any-business-logic-to-traces) para instrumentar manualmente los eventos del usuario. + +## Desactivación del seguimiento de la actividad del usuario + +Para desactivar la detección automática de la actividad del usuario a través de tu [Software Catalog de AAP][14], cambia la variable de entorno de modo de seguimiento automático `DD_APPSEC_AUTO_USER_INSTRUMENTATION_MODE` a `disabled` en el servicio que desees desactivar. Todos los modos solo afectan a la instrumentación automatizada y requieren que la [configuración remota][15] esté activada. + +Para la configuración manual, puedes establecer la variable de entorno `DD_APPSEC_AUTOMATED_USER_EVENTS_TRACKING_ENABLED` en `false` en tu servicio y reiniciarlo. Esto debe establecerse en la aplicación que aloja la biblioteca de rastreo de Datadog, y no en el Datadog Agent. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[3]: /es/tracing/trace_collection/custom_instrumentation/ +[4]: /es/security/default_rules/bl-rate-limiting/ +[5]: /es/security/default_rules/bl-privilege-violation-user/ +[6]: /es/security/default_rules/appsec-ato-groupby-ip/ +[7]: /es/security/default_rules/bl-signup-ratelimit/ +[8]: /es/security/default_rules/bl-account-deletion-ratelimit/ +[9]: /es/security/default_rules/bl-password-reset/ +[10]: /es/security/default_rules/bl-payment-failures/ +[11]: https://guid.one/guid +[12]: /es/security/default_rules/appsec-ato-bf/ +[13]: /es/security/default_rules/distributed-ato-ua-asn/ +[14]: https://app.datadoghq.com/security/appsec/inventory/services?tab=capabilities +[15]: /es/agent/remote_config/ \ No newline at end of file diff --git a/content/es/security/application_security/threats/setup/standalone/envoy.md b/content/es/security/application_security/threats/setup/standalone/envoy.md new file mode 100644 index 0000000000000..e526c5088b71d --- /dev/null +++ b/content/es/security/application_security/threats/setup/standalone/envoy.md @@ -0,0 +1,118 @@ +--- +code_lang: envoy +code_lang_weight: 50 +further_reading: +- link: https://github.com/DataDog/dd-trace-go/tree/main/contrib/envoyproxy/go-control-plane/cmd/serviceextensions + tag: Código fuente + text: Código source (fuente) de la integración de Envoy +- link: /security/default_rules/?category=cat-application-security + tag: Documentación + text: Normas predefinidas de protección de aplicaciones y API +- link: /security/application_security/troubleshooting + tag: Documentación + text: Solucionar problemas con la protección de aplicaciones y API +title: Activar la protección de aplicaciones y API para Envoy +type: lenguaje de código múltiple +--- + +{{< callout url="#" btn_hidden="true" header="Application & API Protection for Envoy is in Preview" >}} +Para probar la vista previa de la protección de aplicaciones y API para Envoy, sigue las instrucciones de configuración que se indican a continuación. +{{< /callout >}} + +Puedes activar la seguridad de las aplicaciones para el proxy Envoy. La integración de Datadog y Envoy admite la detección y el bloqueo de amenazas. + +## Requisitos previos + +- El [Datadog Agent ][1] está instalado y configurado para el sistema operativo o contenedor, nube o entorno virtual de tu aplicación. +- [Configura el Agent con configuración remota][2] para bloquear a los atacantes que utilizan la interfaz de usuario Datadog. + +## Activar la protección de aplicaciones y API +### Para empezar + +La integración de la protección de aplicaciones y API de Envoy utiliza el filtro de procesamiento externo Envoy. + +1. **Configura Envoy** para utilizar el [filtro de procesamiento externo][3]. +Por ejemplo: + + ```yaml + http_filters: + # ... other filters + - name: envoy.filters.http.ext_proc + typed_config: + "@type": type.googleapis.com/envoy.extensions.filters.http.ext_proc.v3.ExternalProcessor + config: + grpc_service: + envoy_grpc: + cluster_name: datadog_ext_proc_cluster + timeout: 1s + + clusters: + # ... other clusters + - name: datadog_ext_proc_cluster + type: STRICT_DNS + lb_policy: ROUND_ROBIN + http2_protocol_options: {} + transport_socket: + name: envoy.transport_sockets.tls + typed_config: + "@type": type.googleapis.com/envoy.extensions.transport_sockets.tls.v3.UpstreamTlsContext + load_assignment: + cluster_name: datadog_ext_proc_cluster + endpoints: + - lb_endpoints: + - endpoint: + address: + socket_address: + address: Your Datadog image host from step 2 + port_value: 443 + ``` + + **Nota**: debes sustituir `Your Datadog image host from step 2` en el ejemplo anterior por el host donde se ejecuta la imagen de Datadog Envoy Docker. A continuación, configura el host. + + Encontrarás más opciones disponibles de configuración en la [documentación del procesador externo Envoy][4]. + +2. **Ejecuta un nuevo contenedor con la imagen de Datadog Envoy Docker.** La imagen está disponible en el [Registro de GitHub de Datadog][5]. + + La imagen Docker expone algunos parámetros específicos para la integración de Envoy: + | Variable de entorno | Valor predeterminado | Descripción | + |----------------------------------------|-----------------|-------------------------------------------------------------------| + | `DD_SERVICE_EXTENSION_HOST` | `0.0.0.0` | Dirección de escucha del servidor gRPC. | + | `DD_SERVICE_EXTENSION_PORT` | `443` | Puerto del servidor gRPC. | + | `DD_SERVICE_EXTENSION_HEALTHCHECK_PORT`| `80` | Puerto del servidor HTTP para checks de estado. | + + Configura el Datadog Agent para recibir trazas (traces) de la integración utilizando las siguientes variables de entorno: + | Variable de entorno | Valor predeterminado | Descripción | + |----------------------------------------|---------------|-----------------------------------------------------------------------| + | `DD_AGENT_HOST` | `localhost` | Nombre del host donde se ejecuta tu Datadog Agent . | + | `DD_TRACE_AGENT_PORT` | `8126` | Puerto de la colección de trazas (traces) del Datadog Agent. | + +{{% appsec-getstarted-2-plusrisk %}} + +{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Vídeo que muestra el explorador de señales y detalles y el explorador de vulnerabilidades y detalles." video="true" >}} + +## Integración de Datadog Go Tracer y Envoy + +
+ Nota: La integración de la protección de aplicaciones y API Envoy se crea sobre el Datadog Go Tracer. Sigue el mismo proceso de publicación que el rastreador y las imágenes de Docker están etiquetadas con la versión correspondiente del rastreador.. +
+ + La integración de Envoy utiliza el [Datadog Go Tracer][6] y hereda todas las variables de entorno del rastreador. Puedes encontrar más información en [Configuración de la biblioteca de rastreo de Go ][7] y [Configuración de la biblioteca de protección de aplicaciones y API][8]. + +## Limitaciones + +La funcionalidad disponible para la versión de Envoy `1.71.0` tiene las siguientes limitaciones importantes: + +* El cuerpo de la solicitud no se inspecciona, independientemente de su tipo de contenido. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/account/settings#agent +[2]: https://docs.datadoghq.com/es/agent/remote_config/?tab=configurationyamlfile#enabling-remote-configuration +[3]: https://www.envoyproxy.io/docs/envoy/latest/configuration/http/http_filters/ext_proc_filter +[4]: https://www.envoyproxy.io/docs/envoy/latest/api-v3/extensions/filters/http/ext_proc/v3/ext_proc.proto#extensions-filters-http-ext-proc-v3-externalprocessor +[5]: https://github.com/DataDog/dd-trace-go/pkgs/container/dd-trace-go%2Fservice-extensions-callout +[6]: https://github.com/DataDog/dd-trace-go +[7]: https://docs.datadoghq.com/es/tracing/trace_collection/library_config/go/ +[8]: https://docs.datadoghq.com/es/security/application_security/threats/library_configuration/ \ No newline at end of file diff --git a/content/es/security/application_security/threats/setup/standalone/ruby.md b/content/es/security/application_security/threats/setup/standalone/ruby.md new file mode 100644 index 0000000000000..d99fda96bac39 --- /dev/null +++ b/content/es/security/application_security/threats/setup/standalone/ruby.md @@ -0,0 +1,233 @@ +--- +aliases: +- /es/security_platform/application_security/getting_started/ruby +- /es/security/application_security/getting_started/ruby +- /es/security/application_security/enabling/tracing_libraries/threat_detection/ruby/ +code_lang: ruby +code_lang_weight: 30 +further_reading: +- link: /security/application_security/add-user-info/ + tag: Documentación + text: Añadir información del usuario a trazas +- link: https://github.com/DataDog/dd-trace-rb + tag: Código fuente + text: Código fuente de la biblioteca Ruby de Datadog +- link: /security/default_rules/?category=cat-application-security + tag: Documentación + text: Reglas predeterminadas de App & API Protection +- link: /security/application_security/troubleshooting + tag: Documentación + text: Solucionar problemas de App & API Protection +title: Activar Application & API Protection para Ruby +type: lenguaje de código múltiple +--- + +Puedes monitorizar la seguridad de las aplicaciones Ruby que se ejecutan en Docker, Kubernetes, Amazon ECS y AWS Fargate. + +{{% appsec-getstarted-standalone %}} + +## Activar Application & API Protection +### Para empezar + +1. **Actualiza tu Gemfile para incluir la biblioteca de Datadog**: + + ```ruby + gem 'datadog', '~> 2.0' # Use 'ddtrace' if you're using v1.x + ``` + + Para comprobar que las versiones del lenguaje y del marco de trabajo de tu servicio son compatibles con las funciones de Application & API Protection, consulta [Compatibilidad][1]. + + Para obtener más información sobre la actualización a la v2 desde una versión `dd-trace` 1.x, consulta [la guía de actualización del rastreador Ruby][2]. + +2. **Activa Application & API Protection** activando el rastreador de APM. Las siguientes opciones describen una configuración rápida que cubre los casos más comunes. Lee [la documentación del rastreador de Ruby][3] para obtener más detalles. + + Puedes activar Application & API Protection en tu código: + + {{< tabs >}} + +{{% tab "Rails" %}} + Habilita el rastreador de APM añadiendo un inicializador en el código de la aplicación: + + ```ruby + # config/initializers/datadog.rb + + require 'datadog/appsec' + + Datadog.configure do |c| + # enable the APM tracer but disable trace processing - for security-only use + c.tracing.instrument :rails + c.tracing.enabled = false + + # enable Application & API Protection + c.appsec.enabled = true + c.appsec.instrument :rails + end + ``` + + O habilita el rastreador de APM a través de la instrumentación automática actualizando tu Gemfile para instrumentar automáticamente: + + ```ruby + gem 'datadog', '~> 2.0', require: 'datadog/auto_instrument' + ``` + + Y también activar `appsec` y desactivar el rastreo: + + ```ruby + # config/initializers/datadog.rb + + require 'datadog/appsec' + + Datadog.configure do |c| + # the APM tracer is enabled by auto-instrumentation + c.tracing.enabled = false + + # enable Application & API Protection + c.appsec.enabled = true + c.appsec.instrument :rails + end + ``` + +{{% /tab %}} + +{{% tab "Sinatra" %}} + Habilita el rastreador de APM añadiendo lo siguiente al inicio de la aplicación: + + ```ruby + require 'sinatra' + require 'datadog' + require 'datadog/appsec' + + Datadog.configure do |c| + # enable the APM tracer but disable trace processing - for security-only use + c.tracing.instrument :sinatra + c.tracing.enabled = false + + # enable Application & API Protection for Sinatra + c.appsec.enabled = true + c.appsec.instrument :sinatra + end + ``` + + O habilita el rastreador de APM a través de la instrumentación automática: + + ```ruby + require 'sinatra' + require 'datadog/auto_instrument' + + Datadog.configure do |c| + # the APM tracer is enabled by auto-instrumentation + c.tracing.enabled = false + + # enable Application & API Protection for Sinatra + c.appsec.enabled = true + c.appsec.instrument :sinatra + end + ``` +{{% /tab %}} + +{{% tab "Rack" %}} + Habilita el rastreador de APM añadiendo lo siguiente al archivo `config.ru`: + + ```ruby + require 'datadog' + require 'datadog/appsec' + + Datadog.configure do |c| + # enable the APM tracer but disable trace processing - for security-only use + c.tracing.instrument :rack + c.tracing.enabled = false + + # enable Application & API Protection for Rack + c.appsec.enabled = true + c.appsec.instrument :rack + end + + use Datadog::Tracing::Contrib::Rack::TraceMiddleware + use Datadog::AppSec::Contrib::Rack::RequestMiddleware + ``` +{{% /tab %}} + +{{< /tabs >}} + + O uno de los siguientes métodos, dependiendo de dónde se ejecute la aplicación: + + {{< tabs >}} +{{% tab "Docker CLI" %}} + +Actualiza tu contenedor de configuración para APM añadiendo los siguientes argumentos en tu comando `docker run`: + +```shell +docker run [...] -e DD_APPSEC_ENABLED=true -e DD_APM_TRACING_ENABLED=false [...] +``` + +{{% /tab %}} +{{% tab "Dockerfile" %}} + +Añade los siguientes valores de variable de entorno a tu archivo de contenedor de Docker: + +```Dockerfile +ENV DD_APPSEC_ENABLED=true +ENV DD_APM_TRACING_ENABLED=false +``` + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +Actualiza el contenedor de tu archivo yaml de configuración para APM y añade las variables de entorno: + +```yaml +spec: + template: + spec: + containers: + - name: + image: / + env: + - name: DD_APPSEC_ENABLED + value: "true" + - name: DD_APM_TRACING_ENABLED + value: "false" +``` + +{{% /tab %}} +{{% tab "Amazon ECS" %}} + +Actualiza tu archivo JSON de definición de tareas de ECS, añadiendo esto en la sección de entorno: + +```json +"environment": [ + ..., + { + "name": "DD_APPSEC_ENABLED", + "value": "true" + }, + { + "name": "DD_APM_TRACING_ENABLED", + "value": "false" + } +] +``` + +{{% /tab %}} +{{% tab "AWS Fargate" %}} + +Inicializa Application & API Protection en tu código o establece las variables de entorno en tu invocación de servicio: +```shell +env DD_APPSEC_ENABLED=true DD_APM_TRACING_ENABLED=false rails server +``` + +{{% /tab %}} + +{{< /tabs >}} + +{{% appsec-getstarted-2-canary %}} + +{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Vídeo que muestra el explorador de señales y detalles y el explorador de vulnerabilidades y detalles." video="true" >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/security/application_security/setup/compatibility/ruby/ +[2]: https://github.com/DataDog/dd-trace-rb/blob/master/docs/UpgradeGuide2.md +[3]: /es/tracing/trace_collection/dd_libraries/ruby/ \ No newline at end of file diff --git a/content/es/security/cloud_security_management/guide/custom-rules-guidelines.md b/content/es/security/cloud_security_management/guide/custom-rules-guidelines.md index 9ec473808809c..b02f41fbcedfd 100644 --- a/content/es/security/cloud_security_management/guide/custom-rules-guidelines.md +++ b/content/es/security/cloud_security_management/guide/custom-rules-guidelines.md @@ -1,15 +1,15 @@ --- further_reading: -- link: /security/threats/workload_security_rules +- link: /security/workload_protection/workload_security_rules tag: Documentación - text: Gestión de las reglas de CSM Threats -- link: /security/threats/agent_expressions + text: Gestión de las reglas de Workload Protection +- link: /security/workload_protection/agent_expressions tag: Documentación text: Sintaxis de expresiones del Agent -title: Directrices para la escritura de reglas personalizadas de CSM Threats +title: Directrices para la redacción de reglas personalizadas de Workload Protection --- -En algún momento, es posible que quieras escribir tus propias [reglas personalizadas de Cloud Security Management Threats (CSM Threats)][1]. Cuando escribas tus propias reglas, hay algunas estrategias que puedes utilizar para optimizar la eficiencia. +En algún momento, es posible que desees escribir tus propias [reglas personalizadas de Workload Protection Agent ][1]. Cuando escribas tus propias reglas, hay algunas estrategias que puedes utilizar para optimizar la eficiencia. ## Atributos @@ -31,7 +31,7 @@ Utiliza los comodines (`*`) con cuidado. Por ejemplo, no utilices nunca `open.fi ## Aprobadores y descartadores -CSM Threats utiliza el concepto de aprobadores y descartadores para filtrar eventos que no deberían activar ninguna regla en una política. Los aprobadores y descartadores permiten o deniegan eventos sólo a nivel de política. No actúan sobre reglas individuales. +Workload Protection utiliza el concepto de aprobadores y descartadores para filtrar eventos que no deberían activar ninguna regla en una política. Los aprobadores y descartadores permiten o deniegan eventos solo a nivel de las políticas. No actúan sobre reglas individuales. Los aprobadores actúan como una lista de permisos a nivel del kernel en el Datadog Agent. Por ejemplo, la apertura de un archivo específico podría ser un aprobador en el evento `open` , mientras que los eventos `open` en archivos sin aprobadores serían filtrados. Del mismo modo, los descartadores actúan como una lista de denegaciones en el Agent. Los descartadores filtran intencionalmente los eventos que nunca pueden coincidir con una regla. El Agent aprende qué eventos filtrar con descartadores durante el tiempo de ejecución. @@ -45,5 +45,5 @@ Los aprobadores suelen ser más potentes y preferibles. Con los aprobadores, el {{< partial name="whats-next/whats-next.html" >}} -[1]: /es/security/threats/workload_security_rules -[2]: /es/security/threats/agent_expressions/#operators \ No newline at end of file +[1]: /es/security/workload_protection/workload_security_rules +[2]: /es/security/workload_protection/agent_expressions/#operators \ No newline at end of file diff --git a/content/es/security/cloud_security_management/review_remediate/mute_issues.md b/content/es/security/cloud_security_management/review_remediate/mute_issues.md index 0d9b55d06cfca..215097e2bebf1 100644 --- a/content/es/security/cloud_security_management/review_remediate/mute_issues.md +++ b/content/es/security/cloud_security_management/review_remediate/mute_issues.md @@ -7,62 +7,65 @@ further_reading: text: Explorar las reglas de detección de seguridad predefinidas products: - icon: cloud-security-management - name: CSM Misconfigurations + name: Errores de configuración en Cloud Security url: /security/cloud_security_management/misconfigurations/ - icon: cloud-security-management - name: Riesgos de identidad de CSM + name: Riesgos de identidad en Cloud Security url: /security/cloud_security_management/identity_risks/ -title: Silenciar problemas en Cloud Security Management +title: Silenciar incidentes en Cloud Security --- {{< product-availability >}} -Puede haber ocasiones en las que una configuración errónea, un problema o un riesgo de identidad no coincidan con el caso de uso de tu empresa, o que decidas aceptarlo como un riesgo conocido. Para ignorarlos, puedes silenciar la configuración errónea, el problema o el riesgo de identidad subyacentes para los recursos afectados. +Puede haber ocasiones en las que un error de configuración, un incidente o un riesgo de identidad no coincidan con el caso de uso de tu empresa, o que decidas aceptarlo como un riesgo conocido. Para ignorarlo, puedes silenciar el error de configuración, el incidente o el riesgo de identidad subyacentes para los recursos afectados. -Por ejemplo, la regla de CSM Misconfigurations ['Block Public Access' feature is enabled for S3 bucket][1] evalúa si un bucket de S3 es de acceso público. Si tienes un bucket de S3 con activos estáticos destinados a ser compartidos públicamente, puedes silenciar la configuración errónea para el bucket de S3. +Por ejemplo, la regla Errores de configuración en Cloud Security [los buckets deberían tener activada la opción 'Block Public Access' (Bloquear el acceso público)][1] evalúa si un bucket S3 es de acceso público. Si tienes un bucket S3 con recursos estáticos que están destinados a ser compartidos públicamente, puedes silenciar el error de configuración para el bucket S3. **Nota**: Silenciar una configuración errónea la elimina del cálculo de tu puntuación de posición. -{{< img src="security/csm/mute_issue.png" alt="El cuadro de diálogo Silenciar problema contiene campos para especificar la razón y duración de la silenciamiento" style="width:100%;">}} +{{< img src="security/csm/mute_issue-3.png" alt="El cuadro Mute Issue (Silenciar incidente) contiene campos para especificar el motivo y la duración del silencio" style="width:70%;">}} -1. En el panel lateral de configuración errónea, problema o riesgo de identidad, selecciona uno o más recursos. -2. Selecciona **Actions** > **Mute for...** (Acciones > Silenciar para...). -3. Selecciona un motivo para el silenciamiento, por ejemplo, está pendiente una solución, es un falso positivo o es un riesgo aceptado. +1. Busca el desplegable de estado de clasificación del recurso. + - En los exploradores de errores de configuración, de riesgos de identidad o de vulnerabilidades, el desplegable se encuentra en la columna **Triage** (Clasificación) de cada recurso. Como alternativa, puedes seleccionar uno o más recursos y hacer clic en el desplegable **Set State** (Definir estado) que aparece, para poder silenciar toda la selección a la vez. + - Cuando visualizas un recurso en un panel lateral, en **Next Steps** (Siguientes pasos), el desplegable está en **Triage** (Clasificación). +2. Abre el desplegable con el estado de clasificación actual y haz clic en **Muted** (Silenciado). Se abre la ventana **Mute issue** (Silenciar incidente). +3. Selecciona un motivo para el silencio, por ejemplo si es un falso positivo, si es un riesgo aceptado o si está pendiente de corrección. 4. Introduce una **Descripción** opcional. 5. Selecciona la duración del silenciamiento. -6. Haz clic en **Mute** (Silenciar). +6. Haz clic en **Mute** (Silenciar). Se cierra la ventana **Mute issue** (Silenciar incidente). -### Anular el silenciamiento de un problema +Para silenciar automáticamente los incidentes que cumplen determinados criterios, consulta [Reglas de silenciado][2]. -Los problemas silenciados se anulan automáticamente una vez transcurrido el tiempo especificado. También puedes anular el silenciamiento de un problema manualmente. +## Anular el silencio de un incidente -1. En el panel lateral de error de configuración, problema o riesgo de identidad, selecciona los recursos con el problema silenciado. -2. Selecciona **Actions** > **Unmute** (Acciones > Desactivar silenciamiento). -3. Selecciona un motivo para la anulación del silenciamiento, por ejemplo, no hay ninguna corrección pendiente, fue un error humano o ya no es un riesgo aceptado. -4. Introduce una **Descripción** opcional. -5. Haz clic en **Unmute** (Desactivar silenciamiento). +Los incidentes silenciados se anulan automáticamente una vez transcurrido el tiempo especificado. También puedes anular el silencio de un incidente manualmente. + +1. Busca el desplegable de estado de clasificación del recurso. + - En los exploradores de errores de configuración, de riesgos de identidad o de vulnerabilidades, el desplegable se encuentra en la columna **Triage** (Clasificación) de cada recurso. Como alternativa, puedes seleccionar uno o más recursos y hacer clic en el desplegable **Set State** (Definir estado) que aparece, para poder anular el silencio de toda la selección a la vez. + - Cuando visualizas un recurso en un panel lateral, en **Next Steps** (Siguientes pasos), el desplegable está en **Triage** (Clasificación). +2. Haz clic en **Muted** (Silenciado) para abrir el desplegable y luego selecciona un nuevo estado de clasificación. El estado de clasificación se actualiza inmediatamente para los recursos seleccionados. -### Auditar tus problemas silenciados +## Auditar tus incidentes silenciados -Para ver los problemas silenciados de tu organización: +Para ver los incidentes silenciados de tu organización: -- Ordenar por la columna **Silenciado** en el explorador de incidencias de Security Inbox y Misconfigurations. -- Filtra el explorador de incidencias de Security Inbox, Misconfigurations e Identity Risks utilizando la faceta **Muted** (Silenciado). +1. Por defecto, todos los exploradores de incidentes ocultan los incidentes silenciados. Para ver los incidentes silenciados en los exploradores de incidentes de errores de configuración y riesgos de identidad, elimina el filtro `@workflow.triage.status:(open OR in-progress)` de la barra de búsqueda. +1. Dependiendo del explorador de incidentes que estés utilizando, ordena o filtra los incidentes: + - En el explorador de incidentes de errores de configuración, ordena por la columna **Muted** (Silenciado). + - En los exploradores de incidentes de errores de configuración o riesgos de identidad, filtra los incidentes utilizando la faceta **Muted** (Silenciado). + - En el explorador de incidentes de vulnerabilidades, haz clic en la pestaña **Muted** (Silenciado). Para auditar el historial de silenciamiento de una configuración errónea: 1. Abre el panel lateral de errores de configuración. 2. Selecciona el recurso con la configuración errónea silenciada. -3. En la pestaña **Overview** (Vista general), utiliza la **Resource evaluation over time** (Evaluación de recursos a lo largo del tiempo) para ver cuándo se silenció o desbloqueó la configuración errónea durante un periodo determinado (hasta seis meses). - -{{< img src="security/csm/muted_finding_evaluation_over_time.png" alt="La evaluación del recurso a lo largo del tiempo muestra el historial de la configuración errónea incluidos periodos en los que estuvo silenciada" style="width:90%;">}} - -4. Haz clic en la pestaña **Timeline** (Línea temporal) para ver un historial cronológico de la configuración errónea. Pasa el ratón por encima de una acción de silenciar o anular el silenciamiento para ver detalles adicionales, como el motivo del silenciamiento, cuánto tiempo está previsto que dure el silenciamiento y quién lo ha silenciado. +3. Haz clic en la pestaña **Timeline** (Línea temporal) para ver un historial cronológico de la configuración errónea. Pasa el ratón por encima de una acción de silenciar o anular el silencio para ver detalles adicionales, como el motivo del silencio, cuánto tiempo está previsto que dure el silencio y quién lo ha silenciado. -{{< img src="security/csm/muted_finding_timeline.png" alt="La pestaña Línea temporal muestra un historial cronológico del error de configuración, incluidos los detalles de cuándo se silenció una configuración errónea" style="width:90%;">}} +{{< img src="security/csm/muted_finding_timeline-2.png" alt="La pestaña Timeline (Cronología) muestra un historial cronológico del error de configuración, incluyendo detalles de cuándo fue silenciada una notificación" style="width:90%;">}} ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} -[1]: /es/security/default_rules/cis-aws-1.5.0-2.1.5/ \ No newline at end of file +[1]: /es/security/default_rules/hkp-p6b-f7w/ +[2]: /es/security/automation_pipelines/mute \ No newline at end of file diff --git a/content/es/security/cloud_security_management/security_graph.md b/content/es/security/cloud_security_management/security_graph.md new file mode 100644 index 0000000000000..afe0868485e4e --- /dev/null +++ b/content/es/security/cloud_security_management/security_graph.md @@ -0,0 +1,56 @@ +--- +further_reading: +- link: https://www.datadoghq.com/blog/datadog-security-graph/ + tag: Blog + text: Visualizar relaciones de seguridad en la nube con Datadog Security Graph +title: Visualizar relaciones con Security Graph +--- + +{{< callout url="https://www.datadoghq.com/product-preview/security-graph" header="Únete a la vista previa">}} + Security Graph tiene una disponibilidad limitada. +{{< /callout >}} + +{{< site-region region="gov" >}} +
Security Graph no está disponible en el sitio seleccionado ({{< region-param key="dd_site_name" >}}).
+{{< /site-region >}} + +Uno de los retos más persistentes de la seguridad en la nube es comprender cómo interactúan entre sí los componentes de cálculo, almacenamiento, identidad y redes. Con Security Graph, puedes modelar tu entorno de nube como un gráfico de relaciones. Visualiza y consulta las conexiones entre tus recursos en la nube, como instancias EC2, roles IAM, buckets S3 y grupos de seguridad, combinando datos de tus análisis en la nube basados en el Agent y sin el Agent. Investiga estas relaciones para poder descubrir rutas de acceso indirectas, evaluar los riesgos de identidad y responder con mayor eficacia a las amenazas emergentes. + +**Nota**: Security Graph solo admite recursos de AWS. + +{{< img src="security/csm/security_graph.png" alt="Security Graph que muestra una instancia EC2" width="100%">}} + +## Seleccionar o crear una consulta + +Existen dos formas de especificar los tipos de recursos y las relaciones que quieres ver en Security Graph: + +- Selecciona una consulta preelaborada en la página de inicio. +- Crea tu propia consulta, especificando los tipos de recursos y las relaciones entre ellos. + + + +Si utilizas una consulta preelaborada, los detalles técnicos se rellenan automáticamente en la consulta. Puedes modificar la consulta para afinar tus resultados. + +### Crear y modificar consultas + +Tanto si utilizas una consulta generada automáticamente como si creas la tuya propia, puedes utilizar el generador de consultas para afinar los resultados. + +1. En **Build your own query** (Crear tu propia consulta), junto a **Search for** (Buscar), selecciona un tipo de recurso de la lista. +1. (Opcional) Para añadir detalles adicionales sobre el tipo de recurso seleccionado, haz clic en **+** y luego en **Where** (Dónde). En el campo que aparece, selecciona una etiqueta (tag) e introduce un valor para esa etiqueta por el que filtrar. +1. (Opcional) Para filtrar por un tipo de recurso adicional, haz clic en **+** y luego en **That** (Ese). En el campo que aparece, selecciona la relación que quieres que tenga el tipo de recurso adicional con el anterior. Si aparece otro campo **Where** (Dónde), especifica valores de etiqueta adicionales para este tipo de recurso. +1. Añade tipos de recursos y valores de etiqueta adicionales según sea necesario. También puedes hacer clic en el icono **Delete** (Borrar), para eliminar una condición, o en **Clear query** (Eliminar consulta), para empezar de nuevo. + +A medida que modificas la consulta, Security Graph se actualiza automáticamente para mostrar los recursos pertinentes. Junto a **View** (Vista), puedes hacer clic en **Graph** (Gráfico), para ver los recursos en un gráfico de relaciones, o en **Table** (Tabla), para verlos en una tabla. + +## Más información sobre un recurso + +- Cuando visualices recursos en un gráfico, puedes hacer clic en uno de ellos para ver más información: + - Copiar información clave sobre el recurso, como el ID, la cuenta o el equipo. + - Filtrar los recursos de la consulta actual por un valor de etiqueta específico. + - Ver más detalles sobre el recurso. + - Ver resultados de seguridad asociados al recurso. +- Cuando visualices recursos en una tabla, puedes hacer clic en uno de ellos para ver información adicional en el panel lateral. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/security/cloud_security_management/setup/supported_deployment_types.md b/content/es/security/cloud_security_management/setup/supported_deployment_types.md new file mode 100644 index 0000000000000..22c017ab7d874 --- /dev/null +++ b/content/es/security/cloud_security_management/setup/supported_deployment_types.md @@ -0,0 +1,40 @@ +--- +title: Tipos de despliegue de Cloud Security compatibles +--- + +{{< partial name="security-platform/CSW-billing-note.html" >}} + +La siguiente tabla resume las funciones de Cloud Security disponibles en relación con cada tipo de despliegue. + +| Tipo de despliegue | Agent obligatorio (7.46 o posterior) | Errores de configuración | Vulnerabilidades | Riesgos de identidad | Agentless Scanning | +|---------------------|------------------------|-------------------|------------------------------|----------------|--------------------| +| Cuenta de AWS | | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | +| Cuenta de Azure | | {{< X >}} | Agentless Scanning (Vista previa) | {{< X >}} | | +| Cuenta de GCP | | {{< X >}} | | | | +| Terraform | | | | | {{< X >}} | +| Docker | {{< X >}} | {{< X >}} | | | | +| Kubernetes | {{< X >}} | {{< X >}} | {{< X >}} | | | +| Linux | {{< X >}} | {{< X >}} | {{< X >}} | | | +| Amazon ECS/EKS | {{< X >}} | {{< X >}} | {{< X >}} | | | +| Windows | {{< X >}} | | {{< X >}} | | | +| AWS Fargate ECS/EKS | {{< X >}} | | | | | + +La siguiente tabla resume el alcance de la cobertura disponible relativa a cada función de Cloud Security. +| Recursos monitorizados | Errores de configuración | Vulnerabilidades | Riesgos de identidad | Agentless Scanning | +|---------------------------------|-------------------|-----------------|----------------|--------------------| +| Recursos en cuenta de AWS | {{< X >}} | {{< X >}} | | {{< X >}} | +| Recursos en suscripción de Azure | {{< X >}} | | | | +| Recursos en proyecto de GCP | {{< X >}} | | | | +| Clúster Kubernetes | {{< X >}} | | | | +| Host Docker | {{< X >}} | | | | +| Host Linux | {{< X >}} | {{< X >}} | | {{< X >}} | +| Host Windows | | {{< X >}} | | | +| Contenedor Docker | | | | | +| Imagen de contenedor | | {{< X >}} | | {{< X >}} | +| IAM en cuenta de AWS | | | {{< X >}} | | + +**Nota**: Cloud Security Misconfigurations monitoriza además los recursos comunes utilizados en tus cuentas en la nube que ejecutan Windows y AWS Fargate, como las instancias EC2, RDS, S3 y ELB. + +[1]: /es/security/cloud_security_management/setup/#cloud-security-threats +[2]: /es/security/cloud_security_management/setup/#cloud-security-vulnerabilities +[3]: /es/security/cloud_security_management/setup/#cloud-security-identity-risks \ No newline at end of file diff --git a/content/es/security/code_security/static_analysis/custom_rules/guide.md b/content/es/security/code_security/static_analysis/custom_rules/guide.md new file mode 100644 index 0000000000000..a1a40138459f8 --- /dev/null +++ b/content/es/security/code_security/static_analysis/custom_rules/guide.md @@ -0,0 +1,744 @@ +--- +description: Una guía completa para escribir reglas personalizadas para Datadog. +title: Guía de reglas personalizadas para el análisis de código estático +--- + +Esta guía se basa en el [tutorial de reglas personalizadas para el análisis de código estático][1], proporcionando una descripción completa de cómo escribir reglas personalizadas, junto con consejos, trucos y errores comunes a evitar. + +## Información general + +Una regla de analizador estático consta de tres partes: una consulta Tree-sitter para encontrar construcciones de código relevantes, una función JavaScript para analizar el código y generar conclusiones, y tests que comprueban si la regla funciona correctamente. + +Cuando ejecutas un análisis estático, el analizador toma cada archivo de tu repositorio de código, comprueba su extensión de nombre de archivo para determinar su lenguaje, analiza el archivo con Tree-sitter y, a continuación, ejecuta las reglas de ese lenguaje. + +Para ejecutar una regla, el analizador consulta el árbol de análisis generado utilizando la [consulta Tree-sitter][3] proporcionada por la regla. De este modo se obtienen cero o más nodos del Tree-sitter. A continuación, para cada nodo, el analizador ejecuta la función `visit()` del código JavaScript de la regla. Esta función puede llamar a `addError()` para generar conclusiones para esa regla. + +## Consulta Tree-sitter + +Una consulta contiene uno o más patrones, donde cada uno de ellos es una expresión que declara la forma de los nodos con los que coincide. El motor de consulta recorre el árbol de análisis en busca de nodos que coincidan con el patrón y devuelve cada ocurrencia. + +### Patrones de nodos + +El patrón básico consiste en un tipo de nodo entre paréntesis. Este patrón coincide con todos los nodos que pertenecen a ese tipo. + +El siguiente ejemplo muestra una consulta que busca nodos de tipo `func-decl`: + +```scheme +(func-decl) +``` + +Puedes añadir patrones después del tipo de nodo y antes del paréntesis de cierre. El patrón resultante coincidirá con los nodos cuyos nodos secundarios coincidan con esos patrones. + +```scheme +(func-decl (arg-list) (body)) +``` + +Este ejemplo coincide con nodos de tipo `func-decl` que contienen un nodo de tipo `arg-list`, seguido de un nodo de tipo `body`, posiblemente con otros nodos intermedios. En el siguiente árbol de análisis, esta consulta coincidiría con los subárboles marcados en azul, pero no con el subárbol marcado en naranja. + +{{< img src="/security/code_security/custom_rule_guide_parse_trees.png" alt="Ejemplo de árbol de análisis con dos ejemplos resaltados." style="height:20em;" >}} + +Puedes anidar patrones secundarios tan profundamente como necesites. + +```scheme +(func-decl + (arg-list + (argument) + ) + (body + (statement + (function-call) + ) + ) +) +``` + +Como puedes ver, puedes añadir espacios en blanco y saltos de línea a tu consulta Tree-sitter. Puedes adaptarlos para que tu consulta sea más legible. También puedes añadir comentarios, que empiezan con punto y coma, y van hasta el final de la línea. + +```scheme +; Another way to format the previous example +(func-decl + (arg-list (argument)) ; The arg-list contains at least one argument + (body + (statement (function-call)) ; The body contains a function call + ) +) +``` + +Puedes utilizar puntos (`.`) para especificar que dos nodos hermanos deben aparecer juntos; de lo contrario, coincidirán aunque haya otros nodos entre ellos. También puedes utilizar puntos para especificar que un nodo debe ser el primer o el último nodo secundario. + +```scheme +(func-decl (arg-list) . (body)) +; The `func-decl` contains an `arg-list` followed immediately by a `body`. + +(func-decl . (body)) +; The first child of the `func-decl` is a `body`. + +(func-decl (return-type) . ) +; The last child of the `func-decl` is a `return-type`. +``` + +Algunos nodos tienen campos, que puedes hacer coincidir especificando el nombre del campo, dos puntos y, a continuación, un patrón para el contenido del campo. + +```scheme +(unary-operator + operand: (identifier)) +; Matches `unary-operator` nodes with a field `operand` +; that contains an `identifier` +``` + +También puedes buscar nodos que carezcan de un campo especificando un signo de exclamación (`!`) seguido del nombre del campo. + +```scheme +(if-statement + !else) +; Matches an `if-statement` that doesn't have an `else` field. +``` + +Hasta ahora hemos visto "nodos con nombre", que son nodos que tienen un tipo. Tree-sitter también añade "nodos anónimos" a los árboles de análisis. Estos nodos no tienen un tipo y a menudo contienen elementos sintácticos; por ejemplo, los operadores "`+`" o "`/`", paréntesis, dos puntos, etc. + +Puedes hacer coincidir nodos anónimos especificando su texto entre comillas dobles. + +```scheme +(binary-operation + (identifier) + "+" + (binary-operation) +) +; Matches a `binary-operation` that contains an `identifier`, +; a "+" token, and another `binary-operation`. +``` + +### Comodines + +Puedes utilizar un guión bajo (`_`) como comodín. Un guión bajo por sí solo coincide con cualquier nodo, ya sea con nombre o anónimo. Un guión bajo como nombre de un nodo coincide con cualquier nodo con nombre, pero no con nodos anónimos. + +```scheme +(binary-operation . (_) "+" (identifier) . ) +; Matches a `binary-operation` node where the first child node +; is a named node of any type. + +(binary-operation . (identifier) _ (identifier) . ) +; Matches a `binary-operation` node where the middle child node +; can be any node, anonymous or not. + +(_ . (identifier) "+" (identifier) . ) +; Matches a named node of any type that contains an `identifier`, +; a "+" anonymous node, and another `identifier`. +``` + +### Alternativas + +Si especificas más de un patrón en el nivel superior de tu consulta Tree-sitter, la consulta encontrará nodos que coincidan con cualquiera de los patrones. + +```scheme +(program) +(module) +; Matches nodes of type `program` or `module` +``` + +Si quieres especificar coincidencias alternativas para nodos secundarios, escribe tus alternativas entre corchetes (`[]`). Ten en cuenta que las alternativas se enumeran una tras otra, sin comas entre ellas. + +```scheme +(func-decl + [ + (func-prototype) + (func-definition) + ] +) +; Matches nodes of type `func-decl` that contain a child +; of type `func-prototype` or `func-definition`. +``` + +Si un nodo contiene nodos secundarios que podrían cumplir varias alternativas, el motor de consulta devolverá un resultado por cada alternativa coincidente. Si tienes varias alternativas en una sola consulta, puede producirse una explosión combinatoria, ya que el motor de consulta devuelve coincidencias por cada combinación de alternativas. Como resultado, el análisis estático tardará más tiempo en ejecutarse y la regla puede agotarse. + +### Capturas + +Puedes "capturar" nodos coincidentes para que estén disponibles en el código JavaScript de la regla o para utilizarlos en predicados (descritos más adelante). Para capturar un nodo, añade un signo arroba (`@`) seguido de un nombre de captura después del patrón que quieres capturar. + +```scheme +(binary-operation + (identifier) @id + "+" @op + _ @operand +) @operation +; Matches `binary-operation` nodes (captured under the name `operation`) +; that contain an `identifier` (captured as `id`), an anonymous node +; containing "+" (captured as `op`), and any other child node +; (captured as `operand`.) +``` + +### Coincidencias opcionales y repetidas + +Puedes indicar que un nodo puede aparecer opcionalmente, especificando el modificador de interrogación (`?`) después de su patrón. + +```scheme +(exit-statement + (integer)? +) +; Matches an `exit-statement` node containing an optional `integer` node. +``` + +Puedes capturar un nodo opcional. La captura estará vacía si el nodo no está presente. + +```scheme +(exit-statement + (integer)? @retCode +) +; If the `integer` exists, `retCode` will contain the node; +; otherwise it will be empty. +``` + +Puedes indicar que un nodo puede aparecer cero o más veces, especificando el modificador asterisco (`*`) después de su patrón. + +```scheme +(list + _* @items +) +; Matches a `list` node with zero or more children, capturing them as `items`. +``` + +Como puedes ver, estos modificadores son muy útiles con las capturas. Si no te interesara capturar los nodos secundarios, podrías simplemente reescribir la consulta anterior como "`(list)`". + +Puedes indicar que un nodo debe aparecer una o más veces, especificando el modificador de signo más (`+`) después de su patrón. + +```scheme +(array-index + (integer)+ @indices +) +; Matches an `array-index` node that contains one or more `integer` nodes, +; capturing them as `indices`. +``` + +También puedes aplicar estos modificadores a grupos de patrones. Para ello, encierra el grupo entre paréntesis y, a continuación, aplica el modificador después del paréntesis de cierre. + +```scheme +(array-dimensions + (integer) + ("," integer)* +) +; Matches an `array-dimensions` node that contains an `integer` node +; followed by zero or more `integer` nodes preceded by commas. +``` + +Las diferencias entre los tres modificadores pueden ser sutiles, así que revisémoslos nuevamente desde otro punto de vista. + +* La diferencia entre "`?`" y "`*`" es que, cuando hay nodos repetidos que coinciden con un patrón, "`*`" producirá un único resultado que contiene todas las repeticiones, pero "`?`" producirá un resultado por cada repetición. + +Por ejemplo, si el árbol de análisis tuviera un nodo `list` con cinco nodos secundarios, un patrón "`(list _?)`" produciría cinco resultados diferentes, uno para cada nodo secundario, mientras que un patrón "`(list _*)`" produciría un único resultado para toda la lista de nodos secundarios. + +* La diferencia entre "`*`" y "`+`" es que, cuando no hay nodos coincidentes, el patrón "`*`" devuelve un resultado, mientras que el patrón "`+`" no devuelve ningún resultado. + +Por ejemplo, si el árbol de análisis tuviera un nodo `list` sin nodos secundarios, un patrón "`(list _*)`" produciría un resultado, mientras que un patrón "`(list _+)`" produciría cero resultados. + +### Predicados + +Puedes especificar condiciones adicionales que deben cumplir los nodos para coincidir. Estas condiciones se expresan en forma de predicados que se añaden dentro de los paréntesis de un patrón. + +```scheme +(binary-operator + (identifier) @id + (#match? @id "[a-z]+([A-Z][a-z]*)*") +) +; Matches a `binary-operator` node that contains an `identifier` node +; whose content matches the provided regular expression. +``` + +Los predicados tienen la forma `(#pred? arg1 arg2)`, donde `#pred?` es el nombre de un predicado, `arg1` es una captura y `arg2` puede ser otra captura o una cadena. + +```scheme +(assign-statement + left: _ @target + right: _ @source + (#eq? @target @source) +) +; Matches `assign-statement` nodes whose `left` and `right` fields are equal. +``` + +Algunos predicados comunes son: + +* `#eq?`, `#not-eq?`: la captura es igual/no es igual al segundo argumento. +* `#match?`, `#not-match?`: la captura coincide/no coincide con la expresión regular proporcionada como segundo argumento. + +Si tu captura contiene varios nodos (por ejemplo, si utilizaste los modificadores `*` o `?` ), puedes utilizar los siguientes predicados: + +* `#any-eq?`, `#any-not-eq?`: cualquiera de los nodos capturados es igual/no es igual al segundo argumento. +* `#any-match?`, `#any-not-match?`: cualquiera de los nodos capturados coincide/no coincide con la expresión regular proporcionada como segundo argumento. + +```scheme +(array-index + (identifier)* @ids + (#any-eq? @ids "exit") +) +; Matches `array-index` nodes with an `identifier` child node +; that contains "exit". +``` + +Si necesitas comprobar si un argumento es igual a uno de varios valores, también existe un predicado para ello: + +* `#any-of?`, `#not-any-of?`: la captura es igual/no es igual a cualquiera del segundo, tercero, cuarto, etc., argumento. + +```scheme +(function-call + name: _ @fn + (#any-of? @fn "system" "exit" "quit") +) +; Matches `function-call` nodes whose name field is equal +; to "system", "exit", or "quit". +``` + +## Código JavaScript + +El código JavaScript de tu regla tendrá normalmente este aspecto: + +```javascript +function visit(query, filename, code) { + const { cap1, cap2, cap3 } = query.captures; + const { cap4, cap5, cap6 } = query.capturesList; + /* check the captured nodes */ + const err = /* generate a message for a finding */; + addError(err); +} +``` + +### Función `visit()` + +Tras ejecutar la consulta, el analizador estático ejecuta la función `visit()` para cada coincidencia. Esta función recibe tres argumentos: + +* `query`: información sobre la coincidencia actual. +* `filename`: nombre del archivo analizado. +* `code`: contenido del archivo analizado. + +Los argumentos `filename` y `code` son cadenas. Sin embargo, el argumento `query` es un objeto que contiene las siguientes propiedades: + +* `captures`: un objeto que contiene los nodos capturados por la consulta, codificados por el nombre de la captura. Si una captura contiene más de un nodo, aquí solo aparece el primero. +* `capturesList`: similar a `captures`, pero contiene listas de todos los nodos capturados con un nombre. Es adecuado para la captura de nodos repetidos mediante los modificadores `+` y `*`. + +Por ejemplo, con una consulta como esta: + +```scheme +(var-assignment + left: (identifier)+ @ids + right: _ @expr +) @assignment +``` + +El argumento `query` contendría algo similar a lo siguiente: + +```javascript +query = { + captures: { + ids: /* the first `identifier` node in field `left` */, + expr: /* the node in field `right` */ + }, + capturesList: { + ids: [ + /* first `identifier` node from `left` */, + /* second `identifier` node from `left` */, + /* etc */ + ], + expr: [ + /* the node in field `right` */ + ] + } +} +``` + +### Trabajar con capturas + +Los nombres de las capturas se utilizan como claves en los objetos `query.captures` y `query.capturesList`. Si asignas a esas capturas nombres compatibles con nombres de variables JavaScript, podrás encontrarlas fácilmente: + +```javascript +const { id, expr, node } = query.captures; +``` + +El código anterior extrae las propiedades `id`, `expr` y `node` de `query.captures` y las asigna a constantes con los mismos nombres. + +Si los nombres de las capturas no son compatibles con nombres de variables JavaScript, aún podrás extraerlas, pero de forma un poco menos conveniente. + +```javascript +const id = query.captures["id-node"]; +const expr = query.captures["20394]; +``` + +Un nodo capturado está representado mediante un objeto que contiene las siguientes propiedades: + +* `cstType`: el tipo de nodo. +* `start`: un objeto que contiene la posición inicial del nodo en el código fuente. +* `end`: un objeto que contiene la posición del carácter que sigue al final del nodo. +* `text`: el contenido del nodo. + +Las propiedades `start` y `end` son objetos que contienen propiedades `line` y `col`. Estas propiedades están basadas en 1: la primera línea de un archivo y la primera columna de una línea tienen el número 1. La posición en la propiedad `start` es inclusiva: apunta al primer carácter del nodo. La posición en la propiedad `end` es exclusiva: apunta al primer carácter después del nodo. + +Puedes utilizar las propiedades `start` y `end` para comprobar la longitud de un nodo o las posiciones relativas de dos nodos. Por ejemplo, si las propiedades `start` y `end` de un nodo tienen los mismos valores, el nodo está vacío. Si la propiedad `end` de un nodo tiene los mismos valores que la propiedad `start` de otro nodo, los nodos se suceden inmediatamente. + +(Nota sobre el código antiguo: puede que veas algunas reglas que utilizan la propiedad `astType` en lugar de `cstType`. Esas reglas son antiguas, y deberías utilizar `cstType`. También es posible que veas algunas reglas que utilizan `getCodeForNode(node, code)` o `getCodeForNode(node)` en lugar de `node.text`. Deberías utilizar `node.text`). + +### Navegación por el árbol de análisis + +Puedes utilizar las funciones `ddsa.getParent(node)` y `ddsa.getChildren(node)` para obtener los nodos primario y secundarios de un nodo, respectivamente. + +```javascript +function visit(query, filename, code) { + const { funcDecl } = query.captures; + const parent = ddsa.getParent(funcDecl); + // Do something with the `funcDecl` node's parent + const children = ddsa.getChildren(funcDecl); + for (let child of children) { + // Do something with the `funcDecl` node's children + } +} +``` + +Puedes seguir llamando a `ddsa.getParent(node)` y `ddsa.getChildren(node)` en los nodos devueltos por estas funciones para navegar por el árbol de análisis. Si se llama a `ddsa.getParent()` en el nodo raíz, se obtiene `undefined`, mientras que si se llama a `ddsa.getChildren()` en un árbol de hojas, se obtiene una lista vacía. + +```javascript +function visit(query, filename, code) { + const { funcDecl } = query.captures; + let root = getRoot(funcDecl); + // Now `root` contains the parse tree's root + displayLeaves(root); +} + +function getRoot(node) { + let parent = ddsa.getParent(node); + while (parent) { + node = parent; + parent = ddsa.getParent(node); + } + return node; +} + +function displayLeaves(node) { + let children = ddsa.getChildren(root); + if (children.length == 0) console.log(node); + for (let child of children) { + displayLeaves(child); + } +} +``` + +Si se llama a `ddsa.getChildren(node)` en un nodo con campos, los nodos contenidos en esos campos serán devueltos entre los secundarios y contendrán una propiedad adicional `fieldName`. + +```javascript +// Get the content of the `then` and `else` fields of an `if_statement` node. +let children = ddsa.getChildren(ifStatementNode); +let thenField = children.find(n => n.fieldName === 'then'); +let elseField = children.find(n => n.fieldName === 'else'); +``` + +Puedes comparar dos objetos de nodo con `==` para saber si apuntan al mismo nodo. + +```javascript +function visit(query, filename, code) { + const { funcDecl } = query.captures; + displaySiblings(funcDecl); +} + +// Prints out all siblings of this node, not counting itself +function displaySiblings(node) { + let parent = ddsa.getParent(node); + if (!parent) return; + let allSiblings = ddsa.getChildren(parent); + for (let sibling of allSiblings) { + if (sibling != node) console.log(sibling); + } +} +``` + +### Comunicación de resultados y sugerencias + +Utiliza la función `addError()` para informar de un hallazgo al usuario. Esta función toma un objeto `Violation` que puedes crear con la función `buildError()`. Esta función toma cinco argumentos: `startLine`, `startCol`, `endLine`, `endCol` y `message`. Generalmente, se utilizan las propiedades `start` y `end` de un nodo para obtener los valores de los cuatro primeros argumentos. + +```javascript +function visit(query, filename, code) { + const { funcCall } = query.captures; + addError( + buildError( + funcCall.start.line, funcCall.start.col, + funcCall.end.line, funcCall.end.col, + "Function calls are not allowed" + ) + ); +} +``` + +Sin embargo, puedes utilizar las posiciones `start` y `end` de varios nodos, o incluso calcular las tuyas propias, si es necesario. + +El `message` que proporciones se mostrará al usuario. + +También puedes adjuntar propuestas de corrección al mensaje de error. Para ello, llama al método `addFix()` del objeto `Violation`. Este método toma un objeto `Fix` que puedes crear con la función `buildFix()`. Esta función toma dos argumentos: una `description` y `edits`, una matriz de ediciones propuestas. + +Puede crear las ediciones propuestas con las funciones `buildEditAdd()`, `buildEditRemove()` y `buildEditUpdate()`. + +* `buildEditAdd()` genera una sugerencia para insertar texto. Toma tres argumentos: `startLine`, `startCol` y `newContent`. +* `buildEditRemove()` genera una sugerencia para borrar texto. Toma cuatro argumentos: `startLine`, `startCol`, `endLine` y `endCol`. +* `buildEditUpdate()` genera una sugerencia para modificar el texto. Toma cinco argumentos: `startLine`, `startCol`, `endLine`, `endCol` y `newContent`. + +```javascript +function visit(query, filename, code) { + const { fname } = query.captures; + if (fname.text != "oldFunction") return; + addError( + buildError( + fname.start.line, fname.start.col, + fname.end.line, fname.end.col, + "This function is deprecated" + ).addFix( + buildFix( + "Use the new function instead", + [ + buildEditUpdate( + fname.start.line, fname.start.col, + fname.end.line, fname.end.col, + "newFunction") + ] + ) + ) + ); +} +``` + +## Trucos y consejos + +### Coincidencia con un nodo que no tiene un secundario determinado + +Aunque puedes utilizar un signo de exclamación (`!`) para buscar un nodo que no tiene un campo concreto, no hay forma de escribir una consulta para un nodo que no tiene un nodo secundario concreto. Por ejemplo, no puedes escribir una consulta para "un nodo `function_declaration` que no contenga un nodo secundario `return_statement`". + +Sin embargo, puedes combinar una consulta y código JavaScript para lograr ese resultado. + +Para ello, utiliza el modificador de interrogación (`?`) y una captura en el nodo secundario que quieras excluir. Luego, tu código JavaScript puede comprobar si el nodo fue capturado. Si no lo fue, significa que el nodo no está presente. + +```scheme +; Query: +(function_declaration + name: (identifier) @id + result: _ + body: + (block + (return_statement)? @ret ; This is the node we want to exclude + ) +) +``` + +```javascript +// Code: +function visit(query, filename, code) { + const { id, ret } = query.captures; + if (ret) return; // The return statement is present, so exit + addError( + buildError( + id.start.line, id.start.col, + id.end.line, id.end.col, + "Missing return statement" + ) + ); +} +``` + +### Navegar por el árbol de análisis para buscar nodos + +Es tentador intentar escribir una consulta que seleccione y capture todos los nodos que necesitas, pero a veces es más fácil encontrar un nodo y luego utilizar `ddsa.getParent()` y `ddsa.getChildren()` para encontrar el resto. + +Por ejemplo, si quieres encontrar una definición de función que contenga una llamada a función, no puedes hacerlo en una consulta Tree-sitter sin especificar patrones para la llamada a función en diferentes niveles de anidamiento. Sin embargo, puedes hacerlo muy fácilmente si buscas la llamada a función en la consulta Tree-sitter y luego, en el código JavaScript, asciendes por el árbol de análisis utilizando `ddsa.getParent()` para encontrar la definición de la función. + +```scheme +; Query: +(call_expression + function: + (_ field: _ @methodName + (@eq? @methodName "DoSomething") + ) +) @fn +``` + +```javascript +// Code: +function visit(query, filename, code) { + const { fn } = query.captures; + let decl = ddsa.getParent(fn); + while (decl && decl.cstType != 'function_declaration') + decl = ddsa.getParent(decl); + // `decl` is now the `function_declaration` or undefined +} +``` + +Puedes hacer muchas cosas con `ddsa.getParent()` y `ddsa.getChildren()`. Por ejemplo, puedes examinar los hermanos de un nodo: + +```javascript +function getSiblings(node) { + return ddsa.getChildren(ddsa.getParent(node)).filter(n => n != node); +} + +function getSiblingsAfter(node) { + return ddsa.getChildren(ddsa.getParent(node)). + reduce((a, n) => n == node ? [] : a && a.concat([n]), undefined); +} + +function getSiblingsBefore(node) { + return ddsa.getChildren(ddsa.getParent(node)). + reduceRight((a, n) => n == node ? [] : a && [n].concat(a), undefined); +} +``` + +A continuación, puedes inspeccionar y seleccionar los nodos que te interesen, comprobando sus propiedades `cstType` y `text`. + +## Errores + +### Añadir predicados no acelera la consulta + +Si tu consulta Tree-sitter es lenta, puedes intentar acelerarla añadiendo predicados para podar el árbol de búsqueda. Sin embargo, este método no funciona con el motor de consulta Tree-sitter. El motor ignora todos los predicados cuando recorre el árbol en busca de nodos que coincidan con el patrón y solo aplica los predicados al final para filtrar la lista de resultados. + +Por lo tanto, aunque añadir predicados puede reducir el número de veces que se llama a tu función `visit()`, no se reducirá la cantidad de trabajo que realizará el analizador estático en el momento de la consulta. + +Ten en cuenta también que los predicados de consulta no son necesariamente más rápidos que el filtrado de nodos en la función `visit()`. A veces es más fácil hacer el filtrado en el código que escribir un predicado complicado en la consulta. En este caso, no obtendrás una penalización de rendimiento, siempre que te asegures de hacer este filtrado lo antes posible en tu código. + +### Posible explosión combinatoria + +El motor de consulta Tree-sitter intenta devolver todas las combinaciones de nodos posibles que satisfagan la consulta. Esto significa que las consultas complicadas con dos o más alternativas podrían provocar una explosión combinatoria, ya que el motor de consulta explora todas las posibilidades de cada alternativa. + +Ten en cuenta que añadir predicados no ayudará, ya que solo se comprueban después de seleccionar los nodos. + +A continuación se analizan algunas causas. + +#### Dos patrones similares de nodos secundarios + +Algunos autores de reglas intentan hacer coincidir dos nodos a la vez utilizando patrones iguales o muy similares. Esto podría causar problemas si el archivo tiene muchos nodos que coinciden con todos esos patrones. + +Por ejemplo, puedes escribir una consulta como esta para capturar pares de métodos en una declaración de clase: + +```scheme +(class_declaration + (method_declaration) @method1 + (method_declaration) @method2 +) +``` + +Para una clase con solo dos métodos, esta consulta solo devolverá un nodo. Sin embargo, para una clase con 10 métodos, devolverá 45. Para una clase con 100 métodos, devolverá 4950 nodos. Para una clase con 100 métodos, devolverá 4950 nodos. + +Para evitar este problema, utiliza modificadores como `+` o `*` para capturar toda la lista de métodos en un único resultado de consulta. Alternativamente, utiliza `.` para indicar que los nodos secundarios deben aparecer uno al lado del otro. + +```scheme +(class_declaration + (method_declaration)+ @methods +) + +; or + +(class_declaration + (method_declaration) @method1 + . + (method_declaration) @method2 +) +``` + +#### Intentar hacer coincidir dos nodos en la consulta + +Un tipo común de regla trata de encontrar variables de un tipo particular que se utilizan de una manera particular. La gente tiende a escribir la consulta como "encontrar todas las definiciones de variables y capturar el nombre, encontrar todos los usos de variables, capturar el nombre y comprobar que los nombres coinciden". + +```scheme +(_ + (var_declaration + (var_spec + name: _ @varName + type: _ @typeName + ) + ) + + (_ + (call_expression + function: + (_ + operand: _ @opName + field: _ @methodName + ) + ) + ) + + (#eq? @typeName "myType") + (#eq? @methodName "DoSomething") + (#eq? @varName @opName) +) +``` + +El problema es que el motor de consulta Tree-sitter obtendrá cada nodo de `var_declaration` y cada nodo de `call_expression`, los hará coincidir en pares y luego comprobará los predicados de cada par. Esto resulta en una operación O(nm). + +Una solución es escribir una consulta que encuentre uno de los nodos y luego utilizar `ddsa.getParent()` y `ddsa.getChildren()` para encontrar el otro nodo. + +Otra posible solución consiste en reunir todos los nodos candidatos sin intentar hacerlos coincidir y, a continuación, procesarlos en el código JavaScript. + +#### Intentar hacer coincidir un patrón en varios niveles de anidamiento + +Puedes escribir un patrón para encontrar un nodo que contenga un nodo secundario que coincida con un patrón. Sin embargo, no puedes escribir un patrón para encontrar un nodo que contenga un descendiente en un nivel de anidamiento arbitrario. + +Algunos redactores de reglas intentaron resolver esto especificando varias alternativas, cada una con el patrón de interés en un nivel de anidamiento diferente. + +```scheme +; Query: +(function_declaration + [ + ; Find the same pattern at nesting levels 1 through 4 + (_ + (call_expression + function: (_ field: _ @methodName) + ) @fn + ) + + (_ (_ + (call_expression + function: (_ field: _ @methodName) + ) @fn + )) + + (_ (_ (_ + (call_expression + function: (_ field: _ @methodName) + ) @fn + ))) + + (_ (_ (_ (_ + (call_expression + function: (_ field: _ @methodName) + ) @fn + )))) + ] + + (#eq? @methodName "DoSomething") +) @decl +``` + +```javascript +// Code: +function visit(query, filename, code) { + const { decl, fn } = query.captures; + // ... do something with decl and fn +} +``` + +Ya mencionamos los problemas de esta estrategia. En primer lugar, el motor de consulta recorre cada rama del árbol de análisis para intentar encontrar una coincidencia, lo que puede llevar mucho tiempo. Además, si hay dos o más alternativas, el motor de consulta devolverá una coincidencia por cada conjunto de nodos que coincida con una combinación de opciones. + +Una solución para este problema es escribir una consulta para el nodo secundario y luego utilizar `ddsa.getParent()` para encontrar el nodo antepasado. Esta acción también tiene la ventaja de que nos proporciona niveles de anidamiento ilimitados. + +```scheme +; Query: +(call_expression + function: (_field: _ @methodName (#eq? @methodName "doSomething)) +) +``` + +```javascript +// Code: +function visit(query, filename, code) { + const { fn } = query.captures; + let decl = ddsa.getParent(fn); + while (decl && decl.cstType != 'function_declaration') { + decl = ddsa.getParent(decl); + } + // ... do something with decl and fn +} +``` + + + +[1]: /es/security/code_security/static_analysis/custom_rules/tutorial/ +[2]: https://tree-sitter.github.io/ +[3]: https://tree-sitter.github.io/tree-sitter/using-parsers/queries/index.html \ No newline at end of file diff --git a/content/es/security/sensitive_data_scanner/guide/redact_uuids_in_logs.md b/content/es/security/sensitive_data_scanner/guide/redact_uuids_in_logs.md new file mode 100644 index 0000000000000..a3c502df1ac98 --- /dev/null +++ b/content/es/security/sensitive_data_scanner/guide/redact_uuids_in_logs.md @@ -0,0 +1,72 @@ +--- +disable_toc: false +further_reading: +- link: /security/sensitive_data_scanner/scanning_rules/custom_rules + tag: Documentación + text: Expresión regular para reglas de escaneo personalizadas +title: Redactar identificadores únicos universales (UUID) en logs +--- + +## Información general + +Esta guía explica cómo crear una regla de escaneo personalizada utilizando un patrón de expresión regular (regex) para que coincida con un Identificador Único Universal (UUID) y lo redacte. Por ejemplo, tu organización puede tener un UUID para la identificación interna, con información adicional añadida, como la del usuario: +- ID del usuario +- Código del departamento +- Código de estado + +Si deseas que los usuarios internos accedan a estos log sin exponer el UUID y el ID de usuario, puedes crear una regla de escaneo personalizada para redactar la información. + +## Configurar una regla personalizada para que coincida con un UUID + +Para esta guía, `01e2402104ca99-8641-43ba-b499-642610-0012` es el identificador interno de ejemplo que se utiliza, donde: +- `01e2402104ca99-8641-43ba-b499` es el UUID. +- `6462610` es un valor de 6 dígitos que representa el ID en formato byte. +- `0012` es un código de departamento de 2 dígitos y un código de estado de 2 dígitos de un usuario: + - `00` se utiliza para un usuario activo. + - `12` para el código del departamento. + +En este ejemplo, deseas que coincida con el formato del identificador de ejemplo (`01e2402104ca99-8641-43ba-b499-642610-0012`) y: +- Redacta el UUID, el ID de usuario y el ID en formato byte. +- Pero no redactes el código de departamento y de estado del usuario. + +Puedes utilizar la siguiente expresión regular básica para hacer coincidir el UUID y el ID de usuario que deseas redactar: + +``` +[a-z0-9]{14}-\d{4}-[a-z0-9]{4}-[a-z0-9]{4}-\d{6} +``` + +1. Ve a la página de [configuración de Sensitive Data Scanner][1]. +1. Haz clic en **Add** (Añadir) y selecciona **Add Scanning Rule** (Añadir regla de escaneo). +1. Haz clic en **Custom Rule** (Regla personalizada). +1. Selecciona el grupo de escaneo al que deseas añadir esta regla. +1. Introduce un nombre para la regla. +1. Selecciona la prioridad que deseas para la regla. +1. Introduce una descripción para la regla. +1. En la sección **Match conditions** (Condiciones de coincidencia), introduce `[a-z0-9]{14}-\d{4}-[a-z0-9]{4}-[a-z0-9]{4}-\d{6}` en el campo de expresión regular. + {{< img src="sensitive_data_scanner/guides/regex_text_matched.png" alt="La sección de test de expresión regular que el UUID y el ID de usuario coinciden" style="width:100%;" >}} +1. Utiliza un diccionario de palabras clave para refinar la precisión de la detección y evitar falsos positivos. En este ejemplo, deseas buscar coincidencias con un máximo de 10 caracteres de la palabra `user`: + 1. Introduce `user` como palabra clave. + 1. Introduce `10` para **Characters before match** (Caracteres antes de la coincidencia). +1. En la sección **Action on Match** (Acción sobre la coincidencia) y para este ejemplo: +1. Selecciona **Entire Event** (Evento completo) para saber qué parte del evento escanear. Si tienes el log analizado usando el Grok Parser, puedes escanear por atributos específicos. + 1. Selecciona **Redact** (Redactar) para la acción sobre la coincidencia. + 1. Introduce `[removed]` para el texto de sustitución. + 1. Introduce `matched_on:user_id` en el campo **Add tags** (Añadir etiquetas). +1. Haz clic en **Add rule** (Añadir regla). + +Si este log de ejemplo, que contiene los distintos componentes del UUID, se envía a Datadog: + +``` +2024-11-14 14:20:22 INFO [transaction-logger] 200 OK shoe:200.000, pen:42.95. iron, 221.55, tasty-sandwich:10.95, big-coffee:11.95, user.name:fred91, user.id:01e2402104ca99-8641-43ba-b499-642610-0012, user.email:fred.jones@scooby.com function:transaction-complete.js, payment.ccn:1111-1111-1111-1111, payment.ccexp:10/30} +``` + +El resultado es que `user.id` se borra y se sustituye por `[removed]`: + +{{< img src="sensitive_data_scanner/guides/redacted_log.png" alt="El evento de log con el UUID y el ID de usuario redactado y reemplazado con el eliminado" style="width:100%;" >}} + + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/organization-settings/sensitive-data-scanner/configuration \ No newline at end of file diff --git a/content/es/security/workload_protection/setup/agent/docker.md b/content/es/security/workload_protection/setup/agent/docker.md new file mode 100644 index 0000000000000..6679b8208c783 --- /dev/null +++ b/content/es/security/workload_protection/setup/agent/docker.md @@ -0,0 +1,50 @@ +--- +code_lang: Docker +code_lang_weight: 65 +title: Configuración de Workload Protection en Docker +type: lenguaje de código múltiple +--- + +Sigue estas instrucciones para activar Workload Protection. + +{{< partial name="security-platform/WP-billing-note.html" >}} + +## Requisitos previos + +- Datadog Agent versión `7.46` o posterior. + +## Instalación + +El siguiente comando inicia el Runtime Security Agent y `system-probe` en un entorno Docker: + +{{< code-block lang="shell" filename="docker-runtime-security.sh" >}} + +docker run -d --name dd-agent \ + --cgroupns host \ + --pid host \ + --security-opt apparmor:unconfined \ + --cap-add SYS_ADMIN \ + --cap-add SYS_RESOURCE \ + --cap-add SYS_PTRACE \ + --cap-add NET_ADMIN \ + --cap-add NET_BROADCAST \ + --cap-add NET_RAW \ + --cap-add IPC_LOCK \ + --cap-add CHOWN \ + -v /var/run/docker.sock:/var/run/docker.sock:ro \ + -v /proc/:/host/proc/:ro \ + -v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \ + -v /etc/passwd:/etc/passwd:ro \ + -v /etc/group:/etc/group:ro \ + -v /:/host/root:ro \ + -v /sys/kernel/debug:/sys/kernel/debug \ + -v /etc/os-release:/etc/os-release \ + -e DD_COMPLIANCE_CONFIG_ENABLED=true \ + -e DD_COMPLIANCE_CONFIG_HOST_BENCHMARKS_ENABLED=true \ + -e DD_RUNTIME_SECURITY_CONFIG_ENABLED=true \ + -e DD_RUNTIME_SECURITY_CONFIG_REMOTE_CONFIGURATION_ENABLED=true \ + -e HOST_ROOT=/host/root \ + -e DD_API_KEY= \ + gcr.io/datadoghq/agent:7 + +{{< /code-block >}} \ No newline at end of file diff --git a/content/es/security/workload_protection/troubleshooting/threats.md b/content/es/security/workload_protection/troubleshooting/threats.md new file mode 100644 index 0000000000000..17b79d66169e4 --- /dev/null +++ b/content/es/security/workload_protection/troubleshooting/threats.md @@ -0,0 +1,233 @@ +--- +title: Solucionar problemas de Workload Protection +--- + +Si experimentas inconvenientes con Workload Protection, utiliza las siguientes instrucciones para la resolución de problemas. Si necesitas más ayuda, ponte en contacto con el [servicio de asistencia de Datadog][1]. + +## Flare del Agent de seguridad + +De forma similar al [flare del Agent][1], puedes enviar la información necesaria de solucionar problemas al equipo de soporte de Datadog con un comando flare. + +El flare pide confirmación antes de la carga, por lo que puedes revisar el contenido antes de que el Agent de seguridad lo envíe. + +En los siguientes comandos, reemplaza `` con el identificador de tu caso de soporte de Datadog, si lo tienes, e introduce la dirección de correo electrónico asociada a él. + +Si no tienes el identificador, simplemente introduce la dirección de correo electrónico que utilizas para iniciar sesión en Datadog para crear uno nuevo. + +| Plataforma | Comando | +| -------- | ------- | +| Docker | `docker exec -it datadog-agent security-agent flare ` | +| Kubernetes | `kubectl exec -it -c security-agent -- security-agent flare ` | +| Host | `sudo /opt/datadog-agent/embedded/bin/security-agent flare ` | + +## Autotest del Agent + +Para garantizar que la comunicación entre `security-agent` y `system-probe` funciona según lo esperado y que Workload Protection es capaz de detectar eventos de sistema, puedes activar manualmente tests automáticos ejecutando el siguiente comando: + +| Plataforma | Comando | +| -------- | ------- | +| Docker | `docker exec -it datadog-agent security-agent runtime self-test` | +| Kubernetes | `kubectl exec -it -c security-agent -- security-agent runtime self-test` | +| Host | `sudo /opt/datadog-agent/embedded/bin/security-agent runtime self-test` | + +El procedimiento de autotest crea algunos archivos temporales y reglas para monitorizarlos y, a continuación, activa dichas reglas para asegurar que los eventos se propaguen correctamente. + +La siguiente respuesta aparece cuando se propagan las reglas. +``` +Runtime self test: OK +``` + +Ahora puedes ver eventos procedente de `runtime-security-agent` en el Log Explorer. + +{{< img src="security/cws/self_test_logs.png" alt="Eventos de autotest en el Log Explorer" style="width:90%;">}} + +## Compatibilidad con complementos de red personalizados de Kubernetes + +Las detecciones basadas en la red de Workload Protection dependen del subsistema de control de tráfico del kernel de Linux. Se sabe que este subsistema introduce condiciones de carrera si varios proveedores intentan insertar, sustituir o eliminar filtros en el qdisc de entrada "clsact". Sigue la siguiente lista de comprobación para asegurarte de que Workload Protection está configurado correctamente: + +* Comprueba si tu proveedor utiliza clasificadores de control de tráfico eBPF. Si no lo hace, puedes ignorar este párrafo. +* Comprueba si tu proveedor devuelve TC_ACT_OK o TC_ACT_UNSPEC después de conceder acceso en un paquete de red. Si devuelve TC_ACT_UNSPEC, puedes ignorar este párrafo. +* Comprueba a qué prioridad asigna tu proveedor sus clasificadores eBPF: + * Si utilizan la prioridad 1, las detecciones de red de Workload Protection no funcionan en tus contenedores. + * Si utilizan la prioridad 2 a 10, asegúrate de configurar `runtime_security_config.network.classifier_priority` a un número estrictamente inferior a la prioridad elegida por tu proveedor. + * Si utilizan prioridad 11 o superior, puedes ignorar este párrafo. + +Por ejemplo, existe un problema conocido con Cilium 1.9 e inferiores con Datadog Agent (versiones 7.36 a 7.39.1, excluida 7.39.2) que puede producirse cuando se inicia un nuevo pod. La acción race puede llevar a la pérdida de conectividad dentro del pod, según cómo esté configurado Ciliumred. + +En última instancia, si no se pueden configurar el Datadog Agent o tus proveedores externos para evitar que se produzca el problema, debes desactivar las detecciones basadas en la red de Workload Protection siguiendo los pasos que se indican a continuación: + +* Añade el siguiente parámetro a tu archivo de configuración `system-probe.yaml` en instalaciones basadas en host: +```yaml +runtime_security_config: + network: + enabled: false +``` +* Añade los siguientes valores si estás utilizando la Helm chart pública para desplegar el Datadog Agent: +```yaml +datadog: + securityAgent: + runtime: + network: + enabled: false +``` +* Añade la siguiente variable de entorno si vas a desplegar manualmente el contenedor del Datadog Agent: +```bash +DD_RUNTIME_SECURITY_CONFIG_NETWORK_ENABLED=false +``` + +## Solucionar problemas de sesión remota de Kubernetes o interrupciones en la admisión de pods + +Workload Protection recopila identidades de usuario de Kubernetes y enriquece tus eventos de Workload Protection con el contexto necesario para diferenciar los accesos remotos a tu infraestructura de la actividad generada por tus cargas de trabajo. Esta integración se basa en un [webhook mutante de Kubernetes](https://kubernetes.io/docs/reference/access-authn-authz/extensible-admission-controllers/) para instrumentar sesiones de `kubectl exec`. En caso de que esta instrumentación provoque interrupciones en la admisión de pods o en la creación de sesiones `kubectl exec`, sigue la siguiente guía para desactivar esta función. + +{{< tabs >}} + +{{% tab "Datadog Operador" %}} + +1. Añade lo siguiente a la sección `spec` del archivo `datadog-agent.yaml`: + + ```yaml + # datadog-agent.yaml file + apiVersion: datadoghq.com/v2alpha1 + kind: DatadogAgent + metadata: + name: datadog + spec: + features: + # Integrate with Kubernetes to enrich Workload Protection events with Kubernetes user identities + admissionController: + cwsInstrumentation: + enabled: false + ``` + +2. Aplica los cambios y reinicia el Agent. + +{{% /tab %}} + +{{% tab "Helm" %}} + +1. Añade lo siguiente a la sección `datadog` del archivo `datadog-values.yaml`: + + ```yaml + # datadog-values.yaml file + + # Integrate with Kubernetes to enrich Workload Protection events with Kubernetes user identities + clusterAgent: + admissionController: + cwsInstrumentation: + enabled: false + ``` + +2. Reinicia el Agent. + +{{% /tab %}} + +{{% tab "DaemonSet" %}} + +1. (Opcional) Añade el siguiente parámetro a la sección `env` de `cluster-agent` en el archivo `cluster-agent-deployment.yaml`: + + ```bash + # Source: datadog/templates/cluster-agent-deployment.yaml + apiVersion:app/1 + kind: Deployment + [...] + spec: + [...] + template: + [...] + spec: + [...] + containers: + [...] + - name: cluster-agent + [...] + env: + - name: DD_RUNTIME_ADMISSION_CONTROLLER_CWS_INSTRUMENTATION_ENABLED + value: "false" + ``` + +{{% /tab %}} +{{< /tabs >}} + +## Desactivar Workload Protection + +Para desactivar Workload Protection, sigue los pasos correspondientes a la plataforma de tu Agent. + +### Helm + +En `values.yaml` del Helm, configura `securityAgent.runtime` como `enabled: false` de la siguiente manera: + +{{< code-block lang="yaml" filename="values.yaml" disable_copy="false" collapsible="true" >}} + +# values.yaml file +datadog: + +# Set to false to Disable CWS +securityAgent: + runtime: + enabled: false +{{< /code-block >}} + +### Daemonset/Docker + +Aplica el siguiente cambio de variable de entorno al despliegue de la System Probe y del Security Agent para un Daemonset: + +{{< code-block lang="json" filename="daemon.json" disable_copy="false" collapsible="true" >}} + +DD_RUNTIME_SECURITY_CONFIG_ENABLED=false +{{< /code-block >}} + +### host + +Modifica `system-probe.yaml` y `security-agent.yaml` para desactivar la configuración en tiempo de ejecución: + +1. Desactiva Workload Protection en `/etc/datadog-agent/system-probe.yaml`. Asegúrate de que `runtime_security_config` está configurado como `enabled: false`: + {{< code-block lang="yaml" filename="system-probe.yaml" disable_copy="false" collapsible="true" >}} + + ########################################## + ## Security Agent Runtime Configuration ## + ## ## + ## Settings to send logs to Datadog are ## + ## fetched from section `logs_config` ## + ## in datadog-agent.yaml ## + ########################################## + + runtime_security_config: + ## @param enabled - boolean - optional - default: false + ## Set to true to enable full Workload Protection. + # + enabled: false + + ## @param fim_enabled - boolean - optional - default: false + ## Set to true to only enable the File Integrity Monitoring feature. + # fim_enabled: false + + ## @param socket - string - optional - default: /opt/datadog-agent/run/runtime-security.sock + ## The full path of the unix socket where the security runtime module is accessed. + # + # socket: /opt/datadog-agent/run/runtime-security.sock + {{< /code-block >}} +2. Desactiva Workload Protection en `/etc/datadog-agent/security-agent.yaml`. Asegúrate de que `runtime_security_config` está configurado como `enabled: false`: + {{< code-block lang="yaml" filename="security-agent.yaml" disable_copy="false" collapsible="true" >}} + + ########################################## + ## Security Agent Runtime Configuration ## + ## ## + ## Settings to send logs to Datadog are ## + ## fetched from section `logs_config` ## + ## in datadog-agent.yaml ## + ########################################## + + runtime_security_config: + ## @param enabled - boolean - optional - default: false + ## Set to true to enable the Security Runtime Module. + # + enabled: false + + ## @param socket - string - optional - default: /opt/datadog-agent/run/runtime-security.sock + ## The full path of the unix socket where the security runtime module is accessed. + # + # socket: /opt/datadog-agent/run/runtime-security.sock + {{< /code-block >}} +3. Reinicia tus Agents. + +[1]: /es/agent/troubleshooting/send_a_flare/?tab=agentv6v7 \ No newline at end of file diff --git a/content/es/serverless/guide/serverless_warnings.md b/content/es/serverless/guide/serverless_warnings.md index ffdaa464a94c8..92a03b49fccbc 100644 --- a/content/es/serverless/guide/serverless_warnings.md +++ b/content/es/serverless/guide/serverless_warnings.md @@ -7,6 +7,9 @@ further_reading: - link: https://www.datadoghq.com/blog/serverless-insights/ tag: Blog text: Lee más sobre la información de las aplicaciones serverless +- link: https://www.datadoghq.com/blog/identifying-deprecated-lambda-functions/ + tag: Blog + text: Identificar funciones obsoletas de Lambda con Datadog title: Advertencias de las aplicaciones serverless --- @@ -79,11 +82,11 @@ Al menos una invocación en el intervalo seleccionado caducó. Esto ocurre cuand Más del 10 % de las invocaciones en el intervalo seleccionado estuvieron limitadas. Las limitaciones se producen cuando las aplicaciones serverless de Lambda reciben altos niveles de tráfico sin la [simultaneidad][9] adecuada. -**Solución:** comprueba las [métricas de simultaneidad de Lambda][10] y confirma si `aws.lambda.concurrent_executions.maximum` se está acercando al nivel de simultaneidad de tu cuenta de AWS. Si es así, considera configurar la simultaneidad reservada o solicita un aumento de la cuota de servicio a AWS. Ten en cuenta que esto puede verse reflejado en tu factura de AWS. +**Solución:** Comprueba las [métricas de simultaneidad de Lambda][10] y confirma si `aws.lambda.concurrent_executions.maximum` se está acercando al nivel de simultaneidad de tu cuenta de AWS. Si es así, considera configurar la simultaneidad reservada o solicita un aumento de la cuota de servicio a AWS. Ten en cuenta que esto puede verse reflejado en tu factura de AWS. ### Duración prolongada del iterador -El iterador de la función tenía una duración de más de dos horas. La duración del iterador mide la duración del último registro de cada lote de registros procesados en un flujo (stream). Cuando este valor aumenta, significa que tu función no puede procesar datos lo suficientemente rápido. +La edad del iterador de la función era demasiado alta. La edad del iterador mide la edad del último registro de cada lote de registros procesados de un stream (flujo). Cuando este valor aumenta, significa que tu función no puede procesar datos lo suficientemente rápido. **Solución:** habilita el [rastreo distribuido][7] para aislar el motivo por el cual tu función recibe tantos datos. También puedes considerar aumentar el número de fragmentos y el tamaño de lotes en el flujo del que lee tu función. @@ -97,9 +100,41 @@ Ninguna invocación en el intervalo seleccionado utilizó más del 10 % de la m Se detectaron intentos de ataque dirigidos a la aplicación serverless. -**Solución:** investiga los intentos de ataque en ASM haciendo clic en el botón **Security Signals** (Señales de seguridad) para determinar cómo responder. Si es necesaria una acción inmediata, puedes bloquear la IP del ataque en WAF a través de la [integración de flujos de trabajo][11]. +**Solución:** Investiga los intentos de ataque en AAP haciendo clic en el botón **Security Signals** (Señales de seguridad) para determinar cómo responder. Si es necesaria una acción inmediata, puedes bloquear la IP atacante en tu WAF a través de la [Integración de workflows / procesos (generic)][11]. + +### Provisión insuficiente + +La utilización de la CPU para esta función superó el 80 % de la media. Esto significa que tu función puede obtener un mayor rendimiento de los recursos adicionales de la CPU. + +**Solución:** Considera aumentar la cantidad de [memoria asignada][12] en tu función Lambda. Aumentar la cantidad de memoria escala los recursos disponibles de la CPU. Ten en cuenta que esto puede afectar tu factura de AWS. + +### Concurrencia provisionada sobreasignada + +La utilización de la concurrencia provisionada de la función fue inferior al 60 %. Según AWS, [el costo de la concurrencia provisionada se optimiza mejor cuando la utilización es sistemáticamente superior al 60 %][13]. + +**Solución:** Considera la posibilidad de disminuir la cantidad de concurrencia provisionada configurada para tu función. + +### Tiempo de ejecución obsoleto + +El tiempo de ejecución de la función[ya no es compatible][14]. + +**Solución:** Actualiza al último tiempo de ejecución para asegurarte de que esté al día con los últimos estándares de seguridad, rendimiento y fiabilidad. + +### Alcanzar la duración máxima + +Al menos una invocación en el intervalo de tiempo seleccionado se acercó al límite máximo de duración de 15 minutos. + +El [rastreo distribuido][7] puede ayudarte a localizar las llamadas lentas a la API en tu aplicación. + +**Solución:** Las funciones de Lambda que se acercan al límite máximo de tiempo de espera de 15 minutos corren el riesgo de ser canceladas por el tiempo de ejecución de Lambda. Esto podría dar lugar a respuestas lentas o fallidas a las solicitudes entrantes. Considera la posibilidad de mejorar el rendimiento de tu función de Lambda, utilizando lambdas más pequeñas en una función step (UI) / paso (generic) o moviendo tu carga de trabajo a un entorno con un tiempo de ejecución más largo como ECS Fargate. + +### Se eliminan las invocaciones recursivas + +Las invocaciones de esta función tienen un bucle recursivo, generalmente causado por la activación recursiva entre entidades AWS (por ejemplo, Lambda -> SQS -> Lambda). Cuando esto excede tu `maxReceiveCount` (en forma predeterminada, 16), entonces se añade a este métrica. Para obtener más información, consulta [Utilizar la detección de bucles recursivos Lambda para evitar bucles infinitos][15]. + +**Solución:** Busca llamadas recursivas en tus entidades AWS relacionadas con esta función. Busca entidades relacionadas como [SQS, SNS y S3][16]. -## Referencias adicionales +## Para leer más {{< partial name="whats-next/whats-next.html" >}} @@ -113,4 +148,9 @@ Se detectaron intentos de ataque dirigidos a la aplicación serverless. [8]: https://www.datadoghq.com/blog/monitor-aws-lambda-provisioned-concurrency/ [9]: https://docs.aws.amazon.com/lambda/latest/dg/configuration-concurrency.html [10]: /es/integrations/amazon_lambda/#metrics -[11]: https://app.datadoghq.com/workflow/blueprints?selected_category=SECURITY \ No newline at end of file +[11]: https://app.datadoghq.com/workflow/blueprints?selected_category=SECURITY +[12]: https://docs.aws.amazon.com/lambda/latest/dg/configuration-memory.html +[13]: https://aws.amazon.com/blogs/compute/optimizing-your-aws-lambda-costs-part-1/ +[14]: https://docs.aws.amazon.com/lambda/latest/dg/lambda-runtimes.html +[15]: https://docs.aws.amazon.com/lambda/latest/dg/invocation-recursion.html +[16]: https://docs.aws.amazon.com/lambda/latest/dg/invocation-recursion.html#invocation-recursion-supported \ No newline at end of file diff --git a/content/es/service_management/events/pipelines_and_processors/aggregation_key.md b/content/es/service_management/events/pipelines_and_processors/aggregation_key.md new file mode 100644 index 0000000000000..ffcab382d5c40 --- /dev/null +++ b/content/es/service_management/events/pipelines_and_processors/aggregation_key.md @@ -0,0 +1,25 @@ +--- +title: Procesador de claves de agregación +--- + +Utiliza el procesador de claves de agregación para generar una clave de agregación personalizada (`@aggregation_key`) basada en atributos o etiquetas (tags) de eventos. Por ejemplo, puedes utilizar el procesador de claves de agregación para crear una clave de agregación personalizada basada en el título y la etiqueta de origen de un evento. Los eventos con valores coincidentes comparten la misma clave, lo que permite una deduplicación más eficaz y mejora la calidad de las [correlaciones de eventos][1]. + +**Notas**: + +- Los atributos deben comenzar con el símbolo `@` y seguir la ruta del atributo estándar tal y como aparece en tu JSON. Por ejemplo, `@evt.category`. +- Las claves de etiqueta deben seguir un formato de clave de etiqueta válido, como se indica en [Empezando con las etiquetas][2]. +- Se pueden añadir un máximo de 5 atributos o claves de etiqueta para generar una clave de agregación. +- Los eventos procedentes de diferentes fuentes o integraciones reciben claves de agregación distintas. +- Por defecto, este procesador sobrescribe las claves de agregación existentes. Ajusta el conmutador para configurar este comportamiento. + +
Las claves de agregación se incluyen por defecto en las alertas de monitor de Datadog y no son modificadas por el procesador de claves de agregación. Esto garantiza que los eventos de alerta de monitor conserven sus claves originales y no se sobrescriban.
+ +El procesador de claves de agregación realiza las siguientes acciones: + +* Comprueba si alguno de los atributos o las claves de etiqueta seleccionados tienen valores. Si es así, se puede generar una clave de agregación. +* En caso contrario, no se configura una clave de agregación en el evento procesado. +* Si hay varios valores en la clave de la etiqueta, todos los valores se ordenan alfabéticamente y se concatenan para generar la clave de agregación. +* Basándose en estos valores, genera un hash y añade la clave de agregación generada al evento. + +[1]: /es/service_management/events/correlation/ +[2]: /es/getting_started/tagging/ \ No newline at end of file diff --git a/content/es/software_catalog/customize.md b/content/es/software_catalog/customize.md new file mode 100644 index 0000000000000..bfe61b8a9bf7b --- /dev/null +++ b/content/es/software_catalog/customize.md @@ -0,0 +1,156 @@ +--- +aliases: +- /es/software_catalog/manage_entries/ +- /es/software_catalog/enrich_default_catalog/ +- /es/service_catalog/manage_entries/ +- /es/service_catalog/enrich_default_catalog/ +- /es/service_catalog/customize/ +- /es/software_catalog/best-practices +- /es/software_catalog/guides/best-practices +- /es/service_catalog/guides/best-practices +- /es/service_catalog/use_cases/best_practices +- /es/software_catalog/use_cases/best_practices +further_reading: +- link: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/service_definition_yaml + tag: Sitio externo + text: Crear y gestionar definiciones de servicio con Terraform +- link: /api/latest/service-definition/ + tag: API + text: Más información sobre la API de definición de servicio +- link: /integrations/github + tag: Documentación + text: Más información sobre la integración GitHub +- link: https://www.datadoghq.com/blog/service-catalog-backstage-yaml/ + tag: Blog + text: Importar archivos YAML de Backstage a Datadog +title: Personalizar Software Catalog +--- + +Personaliza la experiencia de tu equipo de ingenieros en Software Catalog con las siguientes funciones. + +## Crear una página de inicio personalizada con Developer Homepage (en vista previa) + +{{< callout url="https://forms.gle/nkAu2z4gc2dGWcGw5" d_target="#signupModal" btn_hidden="false" >}} +Developer Homepage es una experiencia personalizada de dashboard que permite a los desarrolladores acceder a tareas priorizadas, solicitudes pull, alertas e información, todo en un solo lugar. Solicita acceso para participar. +{{< /callout >}} + + +## Mejorar con metadatos los servicios autodetectados +Para especificar la disponibilidad, el código fuente o la documentación de tus servicios, puedes añadir metadatos a cualquier servicio existente mediante la interfaz de usuario, las APIs u [otro tipo de automatización][10]. v3 es la versión recomendada. + +### Entity Definition Schema (v3) (Recomendado) +Entity Definition Schema es una estructura que contiene información básica sobre un componente de software. + +Para más detalles, consulta [Definition Schema v3.0][3]. + +### Service Definition Schema (v2.2) + +Service Definition Schema es una estructura que contiene información básica sobre un servicio. Consulta el [esquema completo en GitHub][5]. + +#### Ejemplo +{{< code-block lang="yaml" filename="service.datadog.yaml" collapsible="true" >}} +schema-version: v2.2 +dd-service: shopping-cart +team: e-commerce +application: shopping-app +tier: "1" +type: web +languages: + - go + - python +contacts: + - type: slack + contact: https://yourorg.slack.com/archives/e-commerce + - type: email + contact: ecommerce@example.com + - type: microsoft-teams + contact: https://teams.microsoft.com/example +links: + - name: Runbook + type: runbook + url: http://runbook/shopping-cart + - name: Source + type: repo + provider: github + url: https://github.com/shopping-cart + - name: Deployment + type: repo + provider: github + url: https://github.com/shopping-cart + - name: Config + type: repo + provider: github + url: https://github.com/consul-config/shopping-cart + - name: E-Commerce Team + type: doc + provider: wiki + url: https://wiki/ecommerce + - name: Shopping Cart Architecture + type: doc + provider: wiki + url: https://wiki/ecommerce/shopping-cart + - name: Shopping Cart RFC + type: doc + provider: google doc + url: https://doc.google.com/shopping-cart +tags: + - business-unit:retail + - cost-center:engineering +integrations: + pagerduty: + service-url: https://www.pagerduty.com/service-directory/PSHOPPINGCART + opsgenie: + service-url: "https://www.opsgenie.com/service/uuid" + region: "US" +ci-pipeline-fingerprints: + - id1 + - id2 +extensions: + additionalProperties: + customField1: customValue1 + customField2: customValue2 +{{< /code-block >}} + +## Buscar acciones de Software Catalog +Para explorar el conjunto completo de acciones específicamente relacionadas con Software Catalog, navega hasta [Datadog Action Catalog][6]. Filtra las acciones que necesites: + +1. **Acceso a Action Catalog**: busca Action Catalog dentro de tu entorno de Datadog Workflow Automation. +2. **Buscar funcionalidad**: utiliza la barra de búsqueda para buscar palabras clave como "Software Catalog" o términos más específicos relacionados con las acciones deseadas (por ejemplo, "obtener dependencias de servicio"). + +### Acciones disponibles en el catálogo de software + +A continuación, encontrarás una lista completa de las acciones disponibles para Software Catalog en Datadog Workflow Automation. Ten en cuenta que esta lista puede modificarse a medida que se añadan nuevas acciones. + +- **Retrieve Service Information** (Recuperar información de servicio) + - "Get service definition" (Obtener definición de servicio) para un solo servicio + - "List service definitions" (Enumerar definiciones de servicio) para obtener todas las definiciones del catálogo de software de Datadog + - "Get service dependencies" (Obtener las dependencias de servicio) para consultar los servicios ascendentes y descendentes +- **Incident Triage** (Triaje de incidencias) + - "Get service PagerDuty on call" (Llamar al servicio PagerDuty de guardia) + - Cuando se integra con otras acciones, puedes desencadenar flujos de trabajo basados en eventos críticos (por ejemplo, ejecutar runbooks). + +## Cambiar el color de servicio +El color de servicio se utiliza en las visualizaciones de trazas. Haz clic en el icono de tipo de servicio para cambiarlo. + +{{< img src="tracing/software_catalog/change_service_color.png" alt="Haz clic en el icono de servicio para seleccionar un color de icono diferente." style="width:80%;" >}} + +## Actualizar el tipo y el lenguaje del servicio +Con el [Esquema de metadatos de Software Catalog 2.2][5], puedes especificar el tipo y el lenguaje de los servicios definidos por el usuario o sobrescribir el tipo y el lenguaje autodetectados de los servicios instrumentados. Etiqueta correctamente el tipo y el lenguaje de servicio para ayudar a que otros equipos comprendan mejor lo que tus servicios hacen y cómo interactuar con ellos. + + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/universal_service_monitoring/ +[2]: /es/tracing/ +[3]: /es/software_catalog/service_definitions/v3-0/ +[4]: https://forms.gle/zbLfnJYhD5Ab4Wr18 +[5]: https://github.com/DataDog/schema/tree/main/service-catalog/v2.2 +[6]: /es/actions/actions_catalog/ +[7]: /es/tracing/services/inferred_services +[8]: /es/tracing/guide/service_overrides/#remove-service-overrides +[9]: /es/tracing/guide/service_overrides/ +[10]: /es/software_catalog/service_definitions/#add-metadata-with-automation +[11]: /es/software_catalog/endpoints/discover_endpoints/ +[12]: /es/integrations/github/ \ No newline at end of file diff --git a/content/es/synthetics/api_tests/ssl_tests.md b/content/es/synthetics/api_tests/ssl_tests.md index 23d6b9242c6da..81f30abf22621 100644 --- a/content/es/synthetics/api_tests/ssl_tests.md +++ b/content/es/synthetics/api_tests/ssl_tests.md @@ -29,38 +29,50 @@ title: Tests SSL ## Información general -Los tests SSL/TLS te permiten monitorizar proactivamente la validez y la caducidad de tus certificados SSL/TLS para garantizar las conexiones seguras entre tus servicios claves y los usuarios. Si tu certificado está a punto de caducar o está en riesgo, Datadog te envía una alerta con los detalles del error. De esta manera podrás identificar rápidamente la causa del problema y solucionarlo. +Los tests SSL te permiten monitorizar proactivamente la validez y la caducidad de tus certificados SSL para garantizar las conexiones seguras entre tus servicios claves y los usuarios. Si tu certificado está a punto de caducar o está en riesgo, Datadog te envía una alerta con los detalles del error. De esta manera podrás identificar rápidamente la causa del problema y solucionarlo. Los tests SSL pueden ejecutarse tanto desde [localizaciones gestionadas](#select-locations) como [privadas][1], dependiendo de si prefieres ejecutarlos desde fuera o dentro de tu red. Los tests SSL pueden ejecutarse de forma programada, bajo demanda o directamente dentro de tus [pipelines CI/CD][2]. ## Configuración -Cuando decidas crear un test `SSL`, define la solicitud de tu test. +Puedes crear un test utilizando una de las siguientes opciones: -### Definición de la solicitud +- **Crea un test a partir de una plantilla**: -1. Especifica el **Host** y el **Puerto** donde se ejecutará el test. De forma predeterminada, el puerto SSL es `443`. -2. Añade **Opciones avanzadas** (opcional) a tu test: - * **Acepta certificados autofirmados**: Esta opción omite los errores de servidor relacionados con un certificado autofirmado. - * **Falla si el certificado está revocado en el stapling OCSP**: Falla el test si el certificado está etiquetado como revocado por el stapling OCSP. - * **Tiempo de espera**: Especifica la cantidad de tiempo en segundos antes de que se inicie un tiempo de espera en el test. - * **Nombre de servidor**: Especifica en qué servidor quieres iniciar el enlace TLS. Esto permite que el servidor presente uno de los múltiples certificados posibles en la misma dirección IP y el mismo número de puerto TCP. Por defecto, el valor del **Host** se utiliza para rellenar el parámetro. - * **Certificado de cliente**: Autentícate a través de mTLS cargando tu certificado de cliente (`.crt`) y la clave privada asociada (`.key`) en formato `PEM`. + 1. Pasa el ratón por encima de una de las plantillas ya rellenadas y haz clic en **View Template** (Ver plantilla). Se abrirá un panel lateral en el que se mostrará la información de configuración rellenada previamente, que incluye: detalles de tests, detalles de solicitudes, aserciones, condiciones de alerta y parámetros de monitor. + 2. Haz clic en **+Create Test** (+Crear test) para abrir la página **Define Request** (Definir solicitud), en la que podrás revisar y editar las opciones de configuración rellenadas previamente. Los campos presentados son idénticos a aquellos disponibles cuando se crea un test desde cero. + 3. Haz clic en **Save Details** (Guardar detalles) para enviar tu test de API.

+ {{< img src="getting_started/synthetics/synthetics_templates_api_video.mp4" alt="Vídeo de la página de inicio del test de la API de Synthetics" video="true" >}} - Puedes utilizar la librería `openssl` para convertir tus certificados. Por ejemplo, puedes convertir un certificado `PKCS12` en certificados y claves privadas en formato `PEM`. +- **Crea un test desde cero**: - ``` - openssl pkcs12 -in .p12 -out .key -nodes -nocerts - openssl pkcs12 -in .p12 -out .cert -nokeys - ``` + 1. Para crear un test desde cero, haz clic en la plantilla **+ Start from scratch** (+ Empezar desde cero) y selecciona el tipo de solicitud SSL. + 1. Especifica el **Host** y el **Puerto** donde se ejecutará el test. De forma predeterminada, el puerto SSL es `443`. + 1. Añade **Opciones avanzadas** (opcional) a tu test: + * **Acepta certificados autofirmados**: Esta opción omite los errores de servidor relacionados con un certificado autofirmado. + * **Falla si el certificado está revocado en el stapling OCSP**: Falla el test si el certificado está etiquetado como revocado por el stapling OCSP. + * **Falla si la cadena de certificados está incompleta**: Desactiva la obtención de AIA, haciendo que el test falle si falta algún certificado intermedio en la cadena de certificados del servidor. + * **Tiempo de espera**: Especifica la cantidad de tiempo en segundos antes de que se inicie un tiempo de espera en el test. + * **Nombre de servidor**: Especifica en qué servidor quieres iniciar el enlace TLS. Esto permite que el servidor presente uno de los múltiples certificados posibles en la misma dirección IP y el mismo número de puerto TCP. Por defecto, el valor del **Host** se utiliza para rellenar el parámetro. + * **Certificado de cliente**: Autentícate a través de mTLS cargando tu certificado de cliente (`.crt`) y la clave privada asociada (`.key`) en formato `PEM`. -3. **Pon nombre** a tu test SSL. + Puedes utilizar la biblioteca `openssl` para convertir tus certificados. Por ejemplo, puedes convertir un certificado `PKCS12` en certificados y claves privadas en formato `PEM`. -4. Añade **Etiquetas** (tags) `env` así como cualquier otra etiqueta a tu test SSL. Luego, puedes utilizar estas etiquetas para filtrar tus tests Synthetic en la [página de monitorización y tests continuos Synthetic][3]. + ``` + openssl pkcs12 -in .p12 -out .key -nodes -nocerts + openssl pkcs12 -in .p12 -out .cert -nokeys + ``` + + 1. **Pon nombre** a tu test SSL. + + 1. Añade **etiquetas** de entorno así como cualquier otra etiqueta a tu test SSL. A continuación, puedes utilizar estas etiquetas para filtrar a través de tus tests de Synthetic en la [página de Synthetic Monitoring y Continuous Testing][3]. + 1. Haz clic en **Test Certificate* (Probar certificado) para probar la configuración de la solicitud. Aparecerá una vista previa de la respuesta en la parte derecha de la pantalla.

+ + {{< img src="synthetics/api_tests/synthetics_ssl_test_cert.png" alt="Definir solicitud SSL" style="width:90%;" >}} + + 1. Haz clic en **Create Test** (Crear test) para enviar tu test de API. - {{< img src="synthetics/api_tests/ssl_test_config.png" alt="Definir la solicitud SSL" style="width:90%;" >}} -Haz clic en **URL del test** para probar la configuración de la solicitud. Aparecerá una vista previa de la respuesta en la parte derecha de la pantalla. ### Fragmentos @@ -70,7 +82,7 @@ Haz clic en **URL del test** para probar la configuración de la solicitud. Apar Las aserciones definen cuál es el resultado esperado de un test. Después de hacer clic en **URL del test**, se añaden aserciones básicas sobre la validez del certificado, la fecha de caducidad. la versión de TLS y el `response time` basadas en la respuesta obtenida. Debes definir al menos una aserción para que sea monitorizada por tu test. -| {{< img src="synthetics/browser_test.mp4" alt="Browser tests" video=true style="width:100%;">}} | Operador | Tipo de valor | +| Tipo | Operación | Tipo de valor | |-----------------------|----------------------------------------------------------------------------------------|----------------------------| | certificado | `expires in more than`, `expires in less than` | Entero (número de días) | | propiedad | `contains`, `does not contain`, `is`, `is not`,
`matches`, `does not match` | Cadena
[Expresión regular][4] | @@ -124,7 +136,7 @@ Entre las razones figuran las siguientes: `DNS`: No se ha encontrado la entrada DNS para la URL del test. Entre las posibles causas se incluyen una URL de test mal configurada o una configuración incorrecta de las entradas DNS. -`INVALID_REQUEST` +`INVALID_REQUEST` : La configuración del test no es válida (por ejemplo, un error tipográfico en la URL). `SSL` @@ -132,11 +144,11 @@ No se ha encontrado la entrada DNS para la URL del test. Entre las posibles caus `TIMEOUT` : La solicitud no se ha podido completar en un plazo razonable. Pueden ocurrir dos tipos de `TIMEOUT`: - - `TIMEOUT: The request couldn't be completed in a reasonable time.` indica que la duración de la solicitud ha alcanzado el tiempo de espera definido en el test (por defecto se define en 60 segundos). + - `TIMEOUT: The request couldn't be completed in a reasonable time.` indica que la duración de la solicitud ha alcanzado el tiempo de espera definido en el test (por defecto se establece en 60s). Para cada solicitud, en la cascada de la red sólo se muestran las etapas completadas de la solicitud. Por ejemplo, en el caso de que sólo se muestre `Total response time`, el tiempo de espera se produjo durante la resolución DNS. - `TIMEOUT: Overall test execution couldn't be completed in a reasonable time.` indica que la duración del test (solicitud + aserciones) alcanza la duración máxima (60,5 segundos). -## {{< img src="synthetics/mobile_app_tests.png" alt="Examples of the recording workflow for a Sintético Mobile Test" style="width:100%;">}} +## Permisos De manera predeterminada, sólo los usuarios con los roles de [administrador de Datadog y estándar de Datadog][11] pueden crear, editar y eliminar tests SSL Synthetic. Para crear, editar y eliminar tests SSL Synthetic, actualiza tu usuario a uno de esos dos [roles predeterminados][11]. @@ -144,15 +156,11 @@ Si estás utilizando la [función de rol personalizado][12], añade tu usuario a ### Restringir el acceso -La restricción del acceso está disponible para clientes que utilizan [roles personalizados][13] en sus cuentas. - -Puedes restringir el acceso a un test SSL en función de los roles de tu organización. Al crear un test SSL, elige qué roles (además de tu usuario) pueden leer y escribir tu test. - -{{< img src="synthetics/settings/restrict_access_1.png" alt="Establecer permisos para tu test" style="width:70%;" >}} +{{% synthetics_grace_permissions %}} -## Configurar tests de API y tests de API multupaso +## Referencias adicionales -Grabar pruebas de aplicaciones móviles +{{< partial name="whats-next/whats-next.html" >}} [1]: /es/synthetics/private_locations [2]: /es/synthetics/cicd_integrations @@ -165,5 +173,4 @@ Grabar pruebas de aplicaciones móviles [9]: /es/synthetics/settings/#global-variables [10]: /es/synthetics/api_tests/errors/#ssl-errors [11]: /es/account_management/rbac/ -[12]: /es/account_management/rbac#custom-roles -[13]: /es/account_management/rbac/#create-a-custom-role +[12]: /es/account_management/rbac#custom-roles \ No newline at end of file diff --git a/content/es/tests/setup/go.md b/content/es/tests/setup/go.md new file mode 100644 index 0000000000000..ad4d69ba1dd15 --- /dev/null +++ b/content/es/tests/setup/go.md @@ -0,0 +1,147 @@ +--- +aliases: +- /es/continuous_integration/setup_tests/go +- /es/continuous_integration/tests/go +- /es/continuous_integration/tests/setup/go +code_lang: go +code_lang_weight: 60 +further_reading: +- link: /continuous_integration/tests/containers/ + tag: Documentación + text: Reenvío de variables de entorno para tests en contenedores +- link: /continuous_integration/tests + tag: Documentación + text: Exploración de los resultados de tests y del rendimiento +- link: /tests/test_impact_analysis/go + tag: Documentación + text: Acelera tus tests con Test Impact Analysis +- link: /continuous_integration/troubleshooting/ + tag: Documentación + text: Solucionar problemas de CI Visibility +title: Tests de Go +type: lenguaje de código múltiple +--- + +## Compatibilidad + +Marcos para tests compatibles: + +- Paquete de `testing` + +## Configuración del método de notificación + +Para informar de los resultados de test a Datadog, debes configurar la biblioteca de Go Datadog: + +{{< tabs >}} + +{{% tab "CI Provider with Auto-Instrumentation Support" %}} +{{% ci-autoinstrumentation %}} +{{% /tab %}} + +{{% tab "Cloud CI Provider" %}} +{{% ci-agentless %}} +{{% /tab %}} + +{{% tab "On-Premises CI Provider" %}} +{{% ci-agent %}} +{{% /tab %}} + +{{< /tabs >}} + +## Instalación de Orchestrion + +Orchestrion es una herramienta para procesar código fuente de Go en tiempo de compilación e insertar automáticamente instrumentación mediante `dd-trace-go`. + +Instala `orchestrion` desde [https://github.com/datadog/orchestrion][1] con el comando: + +```bash +$ go install github.com/DataDog/orchestrion@latest +``` + + -
Optional: project go.mod registration + + > You can automatically add `orchestrion` to your project's dependencies by running: + > ```bash + > $ orchestrion pin + > ``` + > This command has the following effects: + > 1. Create a new `orchestrion.tool.go` file containing content similar to: + > ```go + > // Code generated by `orchestrion pin`; DO NOT EDIT. + > + > // This file is generated by `orchestrion pin`, and is used to include a blank import of the + > // orchestrion package(s) so that `go mod tidy` does not remove the requirements rom go.mod. + > // This file should be checked into source control. + > + > //go:build tools + > + > package tools + > + > import _ "github.com/DataDog/orchestrion" + > ``` + > 2. Run `go get github.com/DataDog/orchstrion@` to make sure the project version corresponds to the + > one currently being used + > 3. Run `go mod tidy` to make sure your `go.mod` and `go.sum` files are up-to-date + > + > If you do not run this command, it is done automatically when required. Once done, the version of `orchestrion` + > used by this project can be controlled directly using the `go.mod` file, as you would control any other dependency. +
+ + +Orchestrion es compatible con las dos versiones más recientes de Go, que coinciden con la [política oficial de versiones][go-releases] de Go. Puede +funcionar correctamente con versiones anteriores de Go, pero Datadog no puede dar soporte a versiones anteriores que no funcionen. + +Además, Orchestrion solo admite proyectos que utilicen [módulos de Go][go-modules]. + +[go-releases]: https://go.dev/doc/devel/release#policy +[go-modules]: https://pkg.go.dev/cmd/go#hdr-Modules__module_versions__and_more + +## Instrumentación de tests + +Establece las siguientes variables de entorno para configurar la biblioteca: + +`DD_CIVISIBILITY_ENABLED=true` (Obligatorio) +: Activa el producto Test Optimization. + +`DD_ENV` (Obligatorio) +: entorno donde se ejecutan los tests (por ejemplo: `local` cuando se ejecutan tests en una estación de trabajo de desarrollador o `ci` cuando se ejecutan en un proveedor de CI). + +Prefija tu comando de test de go con `orchestrion`: + +```bash +$ orchestrion go test -race ./... +``` + +Si no has ejecutado `orchestrion pin`, es posible que aparezca un mensaje similar al siguiente, ya que `orchestrion pin` se ejecuta automáticamente: + +``` + ╭──────────────────────────────────────────────────────────────────────────────╮ + │ │ + │ Warning: github.com/DataDog/orchestrion is not present in your go.mod │ + │ file. │ + │ In order to ensure build reliability and reproductibility, orchestrion │ + │ will now add itself in your go.mod file by: │ + │ │ + │ 1. creating a new file named orchestrion.tool.go │ + │ 2. running go get github.com/DataDog/orchestrion@v0.9.4 │ + │ 3. running go mod tidy │ + │ │ + │ You should commit the resulting changes into your source control system. │ + │ │ + ╰──────────────────────────────────────────────────────────────────────────────╯ +``` + +### Alternativa + +_Orchestrion_ en el núcleo es un proxy estándar de la cadena de herramientas de Go `-toolexec`. En lugar de utilizar `orchestrion go`, también puedes +proporcionar manualmente el argumento `-toolexec` a los comandos `go` que lo acepten: + +```console +$ go build -toolexec 'orchestrion toolexec' . +$ go test -toolexec 'orchestrion toolexec' -race . +``` + +[1]: https://github.com/datadog/orchestrion + +## Referencias adicionales +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/tests/test_impact_analysis/setup/ruby.md b/content/es/tests/test_impact_analysis/setup/ruby.md new file mode 100644 index 0000000000000..c604cfae16c36 --- /dev/null +++ b/content/es/tests/test_impact_analysis/setup/ruby.md @@ -0,0 +1,165 @@ +--- +aliases: +- /es/intelligent_test_runner/setup/ruby +code_lang: ruby +code_lang_weight: 20 +further_reading: +- link: /tests + tag: Documentación + text: Exploración de los resultados de tests y del rendimiento +- link: /tests/troubleshooting/ + tag: Documentación + text: Solucionar problemas de Test Optimization +title: Test Impact Analysis para Ruby +type: lenguaje de código múltiple +--- + +## Compatibilidad + +Test Impact Analysis solo es compatible con las siguientes versiones y marcos de test: + +* `datadog-ci >= 1.0` +* `Ruby >= 2.7` + * JRuby no es compatible. +* `rspec >= 3.0.0` +* `minitest >= 5.0.0` +* `cucumber >= 3.0.0` + +## Configuración + +### Optimización de tests + +Antes de configurar Test Impact Analysis, configura [Test Optimization para Ruby][1]. Si informas datos a través del Agent, utiliza v6.40 y posteriores o v7.40 y posteriores. + +{{% ci-itr-activation-instructions %}} + +## Ejecutar tests con Test Impact Analysis activado + +Una vez finalizada la configuración, ejecuta los tests como lo haces normalmente. + +## Desactivación de la omisión de tests específicos + +Puedes anular el comportamiento de Test Impact Analysis y evitar que se omitan tests específicos. Estos tests se denominan tests no omitibles. + +### ¿Por qué no se pueden omitir los tests? + +Test Impact Analysis utiliza datos de cobertura de código para determinar si deben omitirse tests o no. En algunos casos, estos datos pueden no ser suficientes para tomar esta determinación. + +Algunos ejemplos son: + +* Tests que leen datos de archivos de texto +* Tests que interactúan con API ajenas al código que se está probando (como las API REST remotas). +* Tests que ejecutan procesos externos +* Tests que dependen del estado global compartido (por ejemplo, cachés creadas por un test diferente o proceso) +* Tests que utilizan procesos bifurcados (la cobertura de código por test solo recopila la cobertura del proceso principal) +* Tests de integración que utilizan capybara o selenium-webdriver + +Designar los tests como no omitibles garantiza que Test Impact Analysis los ejecute independientemente de los datos de cobertura. + +### Marcar tests como no omitibles + +{{< tabs >}} +{{% tab "RSpec" %}} +Para garantizar que no se omitan las pruebas RSpec de un bloque específico, añada la clave de metadatos `datadog_itr_unskippable` con el valor `true` a cualquier bloque `describe`, `context` o `it`. Esto marca todas las pruebas de ese bloque como no saltables. + +```ruby +# mark the whole file as unskippable +RSpec.describe MyClass, datadog_itr_unskippable: true do + describe "#my_method" do + context "when called without arguments" do + it "works" do + end + end + end +end + +# mark one test as unskippable +RSpec.describe MyClass do + describe "#my_method" do + context "when called without arguments" do + it "works", datadog_itr_unskippable: true do + end + end + end +end + +# mark specific block as unskippable +RSpec.describe MyClass do + describe "#my_method", datadog_itr_unskippable: true do + context "when called without arguments" do + it "works" do + end + end + end +end +``` + +{{% /tab %}} +{{% tab "Cucumber" %}} +Para marcar todo un archivo de características como no saltable en Cucumber, utilice `@datadog_itr_unskippable` etiquetar . Esto evita que Test Impact Analysis omita cualquiera de los escenarios definidos en ese archivo de características. + +Para que solo ciertos escenarios no se puedan omitir, aplica esta etiqueta (tag) directamente al escenario deseado. + +```ruby +@datadog_itr_unskippable +Feature: Unskippable feature + Scenario: Say greetings + When the greeter says greetings + Then I should have heard "greetings" + +Feature: An unskippable scenario + + @datadog_itr_unskippable + Scenario: Unskippable scenario + When the ITR wants to skip this scenario + Then it will never be skipped + + Scenario: Skippable scenario + When the ITR wants to skip this scenario + Then it will be skipped +``` + +{{% /tab %}} +{{% tab "Minitest" %}} +Para hacer que toda una subclase de Minitest sea imposible de saltar, utilice el método `datadog_itr_unskippable`. Si desea marcar pruebas específicas dentro de la subclase como no saltables, proporcione los nombres de estos métodos de prueba como argumentos a la llamada al método `datadog_itr_unskippable`. + +```ruby +# mark the whole class unskippable +class MyTest < Minitest::Test + datadog_itr_unskippable + + def test_my_method + end +end + +# here only test1 and test2 are unskippab;e +class MyTest < Minitest::Test + datadog_itr_unskippable "test1", "test2" + + def test1 + end + + def test2 + end + + def test3 + end +end +``` + +{{% /tab %}} +{{< /tabs >}} + +### Desactivación temporal de Test Impact Analysis + +Test Impact Analysis puede desactivarse localmente configurando la variable de entorno `DD_CIVISIBILITY_ITR_ENABLED` como `false` o `0`. + +`DD_CIVISIBILITY_ITR_ENABLED` (opcional) +: Habilita las funciones de cobertura y omisión de tests de Test Impact Analysis
+**Por defecto**: `(true)` + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/tests/setup/ruby \ No newline at end of file diff --git a/content/es/tracing/trace_collection/custom_instrumentation/nodejs/dd-api.md b/content/es/tracing/trace_collection/custom_instrumentation/nodejs/dd-api.md index 482bc9d73e729..d729323e0bac8 100644 --- a/content/es/tracing/trace_collection/custom_instrumentation/nodejs/dd-api.md +++ b/content/es/tracing/trace_collection/custom_instrumentation/nodejs/dd-api.md @@ -11,7 +11,7 @@ code_lang_weight: 1 description: Instrumenta manualmente tu aplicación Node.js para enviar trazas (traces) personalizadas a Datadog. further_reading: -- link: /tracing/trace_collection/trace_context_propagation/nodejs/ +- link: /tracing/trace_collection/trace_context_propagation/ tag: Documentación text: Propagación del contexto de traza - link: tracing/other_telemetry/connect_logs_and_traces @@ -20,7 +20,7 @@ further_reading: - link: tracing/glossary/ tag: Documentación text: Explora tus servicios, recursos y trazas -title: Instrumentación personalizada de Node.js con la API de Datadog +title: Instrumentación personalizada de Node.js con la API Datadog type: multi-code-lang --- @@ -28,14 +28,14 @@ type: multi-code-lang Si aún no has leído las instrucciones de autoinstrumentación y configuración, empieza por las Instrucciones de configuración de Node.js. -Si no utilizas la instrumentación de librería compatible (consulta [Compatibilidad de librerías][1]), puede que desees instrumentar manualmente tu código. +Si no utilizas la instrumentación de biblioteca compatible (consulta [Compatibilidad de bibliotecas][1]), puede que desees instrumentar manualmente tu código. -También es posible que desees ampliar la funcionalidad de la librería `dd-trace` u obtener un control más preciso sobre la instrumentación de tu aplicación. La librería proporciona varias técnicas para conseguirlo. +También es posible que desees ampliar la funcionalidad de la biblioteca `dd-trace` u obtener un control más preciso sobre la instrumentación de tu aplicación. La biblioteca proporciona varias técnicas para conseguirlo. -## Añadir etiquetas +## Añadir etiquetas (tags) La instrumentación incorporada y tu propia instrumentación personalizada crean -tramos alrededor de operaciones significativas. +tramos (span) alrededor de operaciones significativas. {{< tabs >}} {{% tab "Locally" %}} @@ -51,16 +51,16 @@ Para más información, lee [Detalles de la API de `Scope`][1]. Puedes añadir etiquetas a un tramo mediante el método `setTag` o `addTags` en un tramo. Los tipos de valor admitidos son cadena, número y objeto. ```javascript -// añade una etiqueta foo:bar +// add a foo:bar tag span.setTag('foo', 'bar') -// añade una etiqueta user_id:5 +// add a user_id:5 tag span.setTag('user_id', 5) -// añade etiquetas obj.first:foo y obj.second:bar +// add a obj.first:foo and obj.second:bar tags span.setTag('obj', { first: 'foo', second: 'bar' }) -// añade etiquetas foo:bar y baz:qux +// add a foo:bar and baz:qux tags span.addTags({ foo: 'bar', baz: 'qux' @@ -76,7 +76,7 @@ span.addTags({ Puedes añadir etiquetas a cada tramo configurándolos directamente en el rastreador, ya sea con la variable de entorno `DD_TAGS` separada por comas o con la opción `tags` en la inicialización del rastreador: ```javascript -// equivalente a DD_TAGS=foo:bar,baz:qux +// equivalent to DD_TAGS=foo:bar,baz:qux tracer.init({ tags: { foo: 'bar', @@ -84,7 +84,7 @@ tracer.init({ } }) -// Todos los tramos ahora tendrán estas etiquetas +// All spans will now have these tags ``` {{% /tab %}} @@ -94,9 +94,9 @@ tracer.init({ Algunas integraciones de Datadog admiten hooks de tramo que pueden utilizarse para actualizar el tramo justo antes de que termine. Esto es útil para modificar o añadir etiquetas a un tramo que de otro modo es inaccesible desde tu código. ```javascript -// en la parte superior del punto de entrada justo después de tracer.init() +// at the top of the entry point right after tracer.init() tracer.use('express', { - // hook se ejecutará justo antes de que finalice el tramo de solicitud + // hook will be executed right before the request span is finished hooks: { request: (span, req, res) => { span.setTag('customer.id', req.query.customer_id) @@ -113,7 +113,7 @@ Para obtener más información, lee [Detalles de la API para complementos indivi {{% tab "Errors" %}} -Los errores pueden añadirse a un tramo con la etiqueta especial `error`, que admite objetos de error. Esto divide el error en tres etiquetas: `error.type`, `error.msg` y `error.stack`. +Los errores pueden añadirse a un tramo con la etiqueta especial `error` que admite objetos de error. Esta acción divide el error en tres etiquetas: `error.type`, `error.message` y `error.stack`. ```javascript try { @@ -131,7 +131,7 @@ Cuando se utiliza `tracer.trace()` o `tracer.wrap()` esto se hace automáticamen ## Creación de tramos -La librería `dd-trace` crea [tramos][2] automáticamente con `tracer.init()` para [muchas bibliotecas y marcos][1]. Sin embargo, es posible que desees obtener visibilidad de tu propio código y esto se logra utilizando tramos. +La biblioteca `dd-trace` crea [tramos][2] automáticamente con `tracer.init()` para [muchas bibliotecas y marcos][1]. Sin embargo, es posible que desees obtener visibilidad de tu propio código y esto se logra utilizando tramos. Dentro de tu solicitud web (por ejemplo, `/make-sandwich`), puedes realizar varias operaciones, como `getIngredients()` y `assembleSandwich()`, que son útiles para hacer mediciones. @@ -223,11 +223,11 @@ Puedes envolver un función existente sin cambiar su código. Esto es útil para ```javascript -// Después que se definen las funciones +// After the functions are defined getIngredients = tracer.wrap('get_ingredients', { resource: 'resource_name' }, getIngredients) assembleSandwich = tracer.wrap('assemble_sandwich', { resource: 'resource_name' }, assembleSandwich) -// Donde se definen las rutas +// Where routes are defined app.get('/make-sandwich', (req, res) => { const sandwich = tracer.trace('sandwich.make', { resource: 'resource_name' }, () => { @@ -252,7 +252,7 @@ Para más información, lee [Detalles de la API de `tracer.trace()`][1]. Puede que no quieras instrumentar algunas solicitudes de una aplicación. Un caso común sería el check de estado u otro tráfico Synthetic. Estas pueden ignorarse usando la opción `blocklist` o `allowlist` en el complemento `http`. ```javascript -// en la parte superior del punto de entrada justo después de tracer.init() +// at the top of the entry point right after tracer.init() tracer.use('http', { blocklist: ['/health', '/ping'] }) @@ -270,7 +270,58 @@ tracer.use('http', { Además, se pueden excluir trazas en función de su nombre de recurso, para que el Agent no los envíe a Datadog. Ésta y otras configuraciones de seguridad y ajuste del Agent se pueden encontrar en la página [Seguridad][3] o en [Ignorar recursos no deseados][4]. -## Leer más +## dd-trace-api + +{{< callout btn_hidden="true" header="ddtrace-api está en vista previa">}} +El paquete dd-trace-api está en vista previa y puede que no incluya todas las llamadas a la API que necesitas. Si buscas una funcionalidad más completa, utiliza la API como se describe en las secciones anteriores. +

Los siguientes pasos solo son necesarios si quieres probar el paquete dd-trace-api en vista previa.{{< /callout >}} + +El [paquete dd-trace-api][5] proporciona una API pública estable para la instrumentación personalizada de Node.js de Datadog APM. Este paquete solo implementa la interfaz API, y no la funcionalidad subyacente que crea y envía tramos a Datadog. + +Esta separación entre interfaz (`dd-trace-api`) e implementación (`dd-trace`) ofrece varias ventajas: + +- Puedes confiar en una API que cambia con menos frecuencia y de forma más predecible para tu instrumentación personalizada +- Si solo utilizas la instrumentación automática, puedes ignorar por completo los cambios en la API +- Si implementas la instrumentación tanto de un solo paso como personalizada evitarás depender de varias copias del paquete `dd-trace` + +Para utilizar `dd-trace-api`: + +1. Instala las bibliotecas `dd-trace` y `dd-trace-api` en tu aplicación. **Nota**: `dd-trace` está instalado para la instrumentación de un solo paso, pero necesitas instalar `dd-trace-api` manualmente en tu aplicación. + ```shell + npm install dd-trace dd-trace-api + ``` + +2. Instrumenta tu aplicación Node.js utilizando `dd-trace`. Si estás utilizando la instrumentación de un solo paso, puedes saltarte esta etapa. + ```shell + node --require dd-trace/init app.js + ``` + +3. Una vez configurado esto, puedes escribir la instrumentación personalizada exactamente igual que en los ejemplos de las secciones anteriores, pero necesitas `dd-trace-api` en lugar de `dd-trace`. + + Por ejemplo: +```javascript +const tracer = require('dd-trace-api') +const express = require('express') +const app = express() + +app.get('/make-sandwich', (req, res) => { + const sandwich = tracer.trace('sandwich.make', { resource: 'resource_name' }, () => { + const ingredients = tracer.trace('get_ingredients', { resource: 'resource_name' }, () => { + return getIngredients() + }) + + return tracer.trace('assemble_sandwich', { resource: 'resource_name' }, () => { + assembleSandwich(ingredients) + }) + }) + + res.end(sandwich) +}) +``` + +Consulta la [definición de la API][6] de ese paquete para ver la lista completa de llamadas a la API compatibles. + +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} @@ -278,3 +329,5 @@ Además, se pueden excluir trazas en función de su nombre de recurso, para que [2]: /es/tracing/glossary/#spans [3]: /es/tracing/security [4]: /es/tracing/guide/ignoring_apm_resources/ +[5]: https://npm.im/dd-trace-api +[6]: https://github.com/DataDog/dd-trace-api-js/blob/master/index.d.ts \ No newline at end of file diff --git a/content/es/tracing/trace_collection/library_config/nodejs.md b/content/es/tracing/trace_collection/library_config/nodejs.md index 7c783e5d66e07..e223f09734874 100644 --- a/content/es/tracing/trace_collection/library_config/nodejs.md +++ b/content/es/tracing/trace_collection/library_config/nodejs.md @@ -20,11 +20,11 @@ further_reading: - link: /opentelemetry/interoperability/environment_variable_support tag: Documentación text: Configuraciones de variables de entorno de OpenTelemetry -title: Configuración de la librería de rastreo de Node.js +title: Configuración de la biblioteca de rastreo de Node.js type: lenguaje de código múltiple --- -Después de configurar la librería de rastreo con tu código y de configurar el Agent para recopilar datos de APM, también puedes configurar la librería de rastreo como prefieras e incluir la configuración del [Etiquetado unificado de servicios][1]. +Después de configurar la biblioteca de rastreo con tu código y de configurar el Agent para recopilar datos de APM, también puedes configurar la biblioteca de rastreo como prefieras e incluir la configuración del [Etiquetado unificado de servicios][1]. Los parámetros del rastreador pueden configurarse con las siguientes variables de entorno: @@ -51,8 +51,8 @@ Se recomienda utilizar `DD_ENV`, `DD_SERVICE` y `DD_VERSION` para configurar `en `DD_TRACE_ENABLED` : **Configuración**: N/A
-**Predeterminado**: `true`
-Si se habilita dd-trace. Configurar esto a `false` desactiva todas las funciones de la librería.
+**Por defecto**: `true`
+Si se habilita dd-trace. Configurar esto a `false` desactiva todas las funciones de la biblioteca.
Consulta también [DD_APM_TRACING_ENABLED][16]. `DD_TRACE_DEBUG` @@ -124,14 +124,6 @@ Si se informa el nombre de host del sistema para cada traza. Si se deshabilita, **Por defecto**: `false`
Habilita la configuración del inicio del rastreador y el log de diagnóstico. -`DD_SPAN_SAMPLING_RULES` -: **Configuración**: `spanSamplingRules`
-**Por defecto**: `[]`
-Las reglas de muestreo de tramos para conservar tramos individuales cuando, de otro modo, el resto de la traza se descartaría. Una matriz de objetos JSON. Las reglas se aplican en el orden configurado para determinar la frecuencia de muestreo de tramos. El valor de `sample_rate` debe estar comprendido entre 0,0 y 1,0 (inclusive). -Para obtener más información, consulta [Mecanismos de consumo][3].
-**Ejemplo
- - Define la frecuencia de muestreo de tramos en 50% para el servicio `my-service` y el nombre de operación `http.request`, hasta 50 trazas por segundo: `'[{"service": "my-service", "name": "http.request", "sample_rate":0.5, "max_per_second": 50}]'` - `DD_SPAN_SAMPLING_RULES_FILE` : **Configuración**: N/A
**Por defecto**: N/A
@@ -148,26 +140,26 @@ Características experimentales **Por defecto**: `{}`
Las funciones experimentales pueden habilitarse añadiendo claves predefinidas con un valor de `true`. Para obtener más información sobre las funciones experimentales disponibles, [ponte en contacto con el servicio de asistencia][4]. -Instrumentación automática de librerías externas +Instrumentación automática de bibliotecas externas : **Configuración**: `plugins`
**Por defecto**: `true`
-Si se habilita la instrumentación automática de librerías externas utilizando los complementos incorporados. +Si se habilita la instrumentación automática de bibliotecas externas utilizando los complementos incorporados. `DD_TRACE_CLOUD_REQUEST_PAYLOAD_TAGGING` : **Configuración**: `cloudPayloadTagging.request`
-**Predeterminado**: N/A (desactivado)
+**Por defecto**: N/A (desactivado)
**Ejemplo**: `DD_TRACE_CLOUD_REQUEST_PAYLOAD_TAGGING=$.Metadata.UserId`
Una cadena separada por comas de entradas JSONPath para redactar a partir de las solicitudes del SDK AWS. Configurar esto activa el [etiquetado de carga útil de AWS][6] para las solicitudes. `DD_TRACE_CLOUD_RESPONSE_PAYLOAD_TAGGING` : **Configuración**: `cloudPayloadTagging.response`
-**Predeterminado**: N/A (desactivado)
+**Por defecto**: N/A (desactivado)
**Ejemplo**: `DD_TRACE_CLOUD_RESPONSE_PAYLOAD_TAGGING=$.Metadata.UserId`
Una cadena separada por comas de entradas JSONPath para redactar a partir de respuestas de SDK de AWS. Configurar esto activa el [etiquetado de carga útil de AWS][6] para las respuestas. `DD_TRACE_CLOUD_PAYLOAD_TAGGING_MAX_DEPTH` : **Configuración**: `cloudPayloadTagging.maxDepth`
-**Predeterminado**: 10
+**Por defecto**: 10
**Ejemplo**: `DD_TRACE_CLOUD_PAYLOAD_TAGGING_MAX_DEPTH=10`
Un número entero que representa la profundidad máxima de una carga útil de solicitud/respuesta del SDK de AWS a utilizar para el [etiquetado de carga útil de AWS][6]. @@ -181,7 +173,7 @@ Configura etiquetas (tags) globales que se apliquen a todos los tramos (spans) y `DD_TRACE_AGENT_URL` : **Configuración**: `url`
**Por defecto**: `http://localhost:8126`
-La URL del Trace Agent a la que envía trazas el rastreador. Tiene prioridad sobre el nombre del host y el puerto, si están definidos. Si la [configuración del Agent][13] define `receiver_port` o `DD_APM_RECEIVER_PORT` con un valor distinto del valor predeterminado `8126`, `DD_TRACE_AGENT_PORT` o `DD_TRACE_AGENT_URL` deben coincidir con él. Compatible con sockets de dominio Unix, en combinación con el `apm_config.receiver_socket` de tu archivo `datadog.yaml` o con la variable de entorno `DD_APM_RECEIVER_SOCKET`. +La URL del Trace Agent a la que envía trazas el rastreador. Tiene prioridad sobre el nombre del host y el puerto, si están definidos. Si la [configuración del Agent][13] define `receiver_port` o `DD_APM_RECEIVER_PORT` con un valor distinto del valor por defecto `8126`, `DD_TRACE_AGENT_PORT` o `DD_TRACE_AGENT_URL` deben coincidir con él. Compatible con sockets de dominio Unix, en combinación con el `apm_config.receiver_socket` de tu archivo `datadog.yaml` o con la variable de entorno `DD_APM_RECEIVER_SOCKET`. `DD_TRACE_AGENT_HOSTNAME` : **Configuración**: `hostname`
@@ -191,12 +183,12 @@ La dirección del Agent a la que envía trazas el rastreador. `DD_TRACE_AGENT_PORT` : **Configuración**: `port`
**Por defecto**: `8126`
-El puerto del Trace Agent al que envía trazas el rastreador. Si la [configuración del Agent][13] define `receiver_port` o `DD_APM_RECEIVER_PORT` con un valor distinto del valor predeterminado `8126`, `DD_TRACE_AGENT_PORT` o `DD_TRACE_AGENT_URL` deben coincidir con él. +El puerto del Trace Agent al que envía trazas el rastreador. Si la [configuración del Agent][13] define `receiver_port` o `DD_APM_RECEIVER_PORT` con un valor distinto del valor por defecto `8126`, `DD_TRACE_AGENT_PORT` o `DD_TRACE_AGENT_URL` deben coincidir con él. `DD_DOGSTATSD_PORT` : **Configuración**: `dogstatsd.port`
**Por defecto**: `8125`
-El puerto del Agent DogStatsD al que se envían métricas. Si la [configuración del Agent][13] define `dogstatsd_port` o `DD_DOGSTATSD_PORT` con un valor distinto del valor predeterminado `8125`, este `DD_DOGSTATSD_PORT` de la librería de rastreo debe coincidir con él. +El puerto del Agent DogStatsD al que se envían métricas. Si la [configuración del Agent][13] define `dogstatsd_port` o `DD_DOGSTATSD_PORT` con un valor distinto del valor por defecto `8125`, este `DD_DOGSTATSD_PORT` de la biblioteca de rastreo debe coincidir con él. `DD_REMOTE_CONFIG_POLL_INTERVAL_SECONDS` : **Configuración**: `remoteConfig.pollInterval`
@@ -207,7 +199,7 @@ Intervalo de sondeo de configuración remota en segundos. `DD_APPSEC_ENABLED` : **Configuración**: `appsec.enabled`
-**Predeterminado**: `false`
+**Por defecto**: `false`
Activa las funciones de protección de aplicaciones y API. `DD_APPSEC_RULES` @@ -241,8 +233,8 @@ Para habilitar el enlace entre DBM y APM mediante la inyección de etiquetas. Pu `DD_LOGS_INJECTION` : **Configuración**: `logInjection`
-**Por defecto**: `false`
-Habilita la inyección automática de los ID de rastreo en logs para bibliotecas de registro compatibles. +**Por defecto**: `true`
+Activa la inyección automática de ID de trazas (traces) en logs de bibliotecas de generación de logs compatibles. `DD_TRACE_LOG_LEVEL` : **Configuración**: `logLevel`
@@ -253,7 +245,7 @@ Una cadena para el nivel mínimo de logs, para que el rastreador utilice cuando `DD_TRACE_OTEL_ENABLED` : **Configuración**: N/A
-**Predeterminado**: `undefined`
+**Por defecto**: `undefined`
Cuando `true`, el rastreo basado en OpenTelemetry para la instrumentación [personalizada][15] está activado. ### Generación de perfiles @@ -276,20 +268,20 @@ Para obtener información sobre los valores válidos y el uso de las siguientes `DD_TRACE_PROPAGATION_STYLE_INJECT` : **Configuración**: `tracePropagationStyle.inject`
-**Predeterminado**: `Datadog,tracecontext,baggage`
+**Por defecto**: `Datadog,tracecontext,baggage`
Una lista separada por comas de formatos de encabezados a incluir para propagar traces (trazas) distribuidas entre servicios. `DD_TRACE_PROPAGATION_STYLE_EXTRACT` : **Configuración**: `tracePropagationStyle.extract`
-**Predeterminado**: `Datadog,tracecontext,baggage`
+**Por defecto**: `Datadog,tracecontext,baggage`
Una lista separada por comas de formatos de encabezados de los que intentar extraer datos de propagación de rastreo distribuido. El primer formato encontrado con encabezados completos y válidos se utiliza para definir la trace (traza) para continuar. `DD_TRACE_PROPAGATION_STYLE` : **Configuración**: `tracePropagationStyle`
-**Predeterminado**: `Datadog,tracecontext,baggage`
+**Por defecto**: `Datadog,tracecontext,baggage`
Un lista separada por comas de formatos de encabezados de los que intentar insertar y extraer datos de propagación de rastreo distribuido. El primer formato encontrado con encabezados completos y válidos se utiliza para definir la trace (traza) para continuar. Las configuraciones más específicas `DD_TRACE_PROPAGATION_STYLE_INJECT` y `DD_TRACE_PROPAGATION_STYLE_EXTRACT` tienen prioridad cuando están presentes. -Para ver más ejemplos de cómo trabajar con la librería, consulta la [documentación de la API][2]. +Para ver más ejemplos de cómo trabajar con la biblioteca, consulta la [documentación de la API][2]. ## Referencias adicionales @@ -304,4 +296,4 @@ Para ver más ejemplos de cómo trabajar con la librería, consulta la [document [13]: /es/agent/configuration/network/#configure-ports [14]: /es/opentelemetry/interoperability/environment_variable_support [15]: /es/tracing/trace_collection/custom_instrumentation/nodejs/otel/ -[16]: /es/tracing/trace_collection/library_config/#traces +[16]: /es/tracing/trace_collection/library_config/#traces \ No newline at end of file diff --git a/content/fr/api/latest/reference-tables/_index.md b/content/fr/api/latest/reference-tables/_index.md new file mode 100644 index 0000000000000..a367f600b9b46 --- /dev/null +++ b/content/fr/api/latest/reference-tables/_index.md @@ -0,0 +1,3 @@ +--- +title: Tables de référence +--- diff --git a/content/ja/api/latest/_index.md b/content/ja/api/latest/_index.md index 271c1734f1fff..5eaa58617fe7f 100644 --- a/content/ja/api/latest/_index.md +++ b/content/ja/api/latest/_index.md @@ -9,11 +9,11 @@ cascade: subcategory: API リファレンス further_reading: - link: /api/latest/using-the-api/ - tag: Documentation + tag: ドキュメント text: API の使用 - link: /api/latest/scopes/ - tag: Documentation - text: 認証スコープ + tag: ドキュメント + text: 認可スコープ - link: /api/latest/rate-limits/ tag: ドキュメント text: レート制限 @@ -62,7 +62,7 @@ Gradle - この依存関係をプロジェクトのビルドファイルに追 compile "com.datadoghq:datadog-api-client:{{< sdk-version "datadog-api-client-java" >}}" ``` -#### 使用方法 +#### Usage ```java import com.datadog.api.client.ApiClient; @@ -126,7 +126,7 @@ application { ```sh pip install datadog ``` -#### 使用方法 +#### Usage ```python import datadog ``` @@ -137,7 +137,7 @@ import datadog ```console pip3 install datadog-api-client ``` -#### 使用方法 +#### Usage ```python import datadog_api_client ``` @@ -148,7 +148,7 @@ import datadog_api_client ```sh gem install dogapi ``` -#### 使用方法 +#### Usage ```ruby require 'dogapi' ``` @@ -159,7 +159,7 @@ require 'dogapi' ```sh gem install datadog_api_client -v {{< sdk-version "datadog-api-client-ruby" >}} ``` -#### 使用方法 +#### Usage ```ruby require 'datadog_api_client' ``` @@ -170,7 +170,7 @@ require 'datadog_api_client' ```sh go mod init main && go get github.com/DataDog/datadog-api-client-go/v2/api/datadog ``` -#### 使用方法 +#### Usage ```go import ( "github.com/DataDog/datadog-api-client-go/v2/api/datadog" @@ -192,7 +192,7 @@ npm install @datadog/datadog-api-client yarn add @datadog/datadog-api-client ``` -#### 使用方法 +#### Usage ```js import { } from 'datadog-api-client'; ``` @@ -209,7 +209,7 @@ import { } from 'datadog-api-client'; datadog-api-client = "0" ``` -#### 使用方法 +#### Usage Datadog API キーを検証するには、次のスニペットを試してください。 ```rust use datadog_api_client::datadog::Configuration; @@ -240,7 +240,7 @@ async fn main() {
代わりにアプリケーションのセットアップから始めたい場合は、Datadog の一般向け[「はじめに」ドキュメント][7]をご覧ください。 -## 参考資料 +## 関連情報 {{< partial name="whats-next/whats-next.html" >}} @@ -250,4 +250,4 @@ async fn main() { [4]: /ja/api/v1/using-the-api/ [5]: https://brew.sh [6]: https://docs.datadoghq.com/ja/developers/community/libraries/ -[7]: /ja/getting_started/application/ +[7]: /ja/getting_started/application/ \ No newline at end of file diff --git a/content/ja/ddsql_reference/ddsql_preview/expressions_and_operators.md b/content/ja/ddsql_reference/ddsql_preview/expressions_and_operators.md new file mode 100644 index 0000000000000..717839c3a91cf --- /dev/null +++ b/content/ja/ddsql_reference/ddsql_preview/expressions_and_operators.md @@ -0,0 +1,129 @@ +--- +aliases: +- /ja/dashboards/ddsql_editor/reference/expressions_and_operators/ +- /ja/ddsql_editor/reference/expressions_and_operators/ +private: true +title: DDSQL の式と演算子 (プレビュー) +--- + +*値の式* は、条件、`SELECT` 式、フィルタ、および `WHERE`、`ORDER BY`、`GROUP BY` のような句の値を生成するために使用される一般的な式言語です。DDSQL の式構文は、SQL の式構文のスーパーセットです。 + +## 算術演算子 + +DDSQL は、SQL および多くの他の言語で用いられる標準的な 2 項および 1 項の中置算術記法をサポートします: + +| 演算子 | 説明 | 例 | 結果 | +|----------|--------------------------|---------|--------| +| + | 加算 | 2 + 3 | 5 | +| - | 減算 | 2 - 3 | -1 | +| * | 乗算 | 2 * 3 | 6 | +| / | 除算 (非切り捨て) | 5 / 2 | 2.5 | + + +標準的な演算子の優先順位が適用されます。演算順序を制御するには、括弧を追加します: `(5 - 2) * 3`。 + +## 比較演算子 + +DDSQL は、次の比較演算子を実装しています: + +| 演算子 | 説明 | 例 | 結果 | +|----------|------------------------|---------|--------| +| > | より大きい | 2 > 3 | false | +| < | より小さい | 2 < 3 | true | +| >= | 以上 | 3 >= 2 | true | +| <= | 以下 | 3 <= 2 | false | +| = | 等しい* | 3 = 3 | true | +| !=, <> | 等しくない | 3 != 3 | false | + +タグ参照およびタグ グループに対しては、等価演算子 (`=`) は「含む」比較として扱われます。詳細は [DDSQL におけるタグのクエリ][1] を参照してください。 + +## SQL の比較キーワード + +DDSQL は、標準的なブール演算子として機能する次の SQL キーワードをサポートします: + +| 演算子 | 説明 | 例 | 結果 | +|----------|------------------------|---------|--------| +| `NOT` | 複数の条件に基づいてレコードをフィルタする。 | `SELECT * FROM host WHERE NOT env = 'prod';` | prod 環境ではないすべてのホストを返す。 | +| `AND` | 複数の条件に基づいてレコードをフィルタする。 | `SELECT * FROM host WHERE env = 'prod' AND cloud_provider = 'aws';` | prod 環境で、クラウド プロバイダが AWS であるすべてのホストを返す。 | +| `OR` | 複数の条件に基づいてレコードをフィルタする。 | `SELECT * FROM host WHERE env = 'prod' AND cloud_provider = 'aws';` | prod 環境、または AWS クラウド プロバイダのいずれかにあるすべてのホストを返す。 | + +DDSQL は、SQL 標準で定義されている次の比較キーワードもサポートします: + +| 演算子 | 説明 | 例 | 結果 | +|--------------|------------------------|---------|--------| +| `IS NULL` | 指定したフィールドが null の場合に行を選択する。 | `SELECT * FROM host WHERE cloud_provider IS NULL;` | `cloud_provider` 列にデータがない行をすべて返す。 | +| `IS NOT NULL`| 指定したフィールドが null でない場合に行を選択する。欠損データの行を除外する。 | `SELECT * FROM host WHERE cloud_provider IS NOT NULL;` | `cloud_provider` 列にデータがある行をすべて返す。 | +| `LIKE` | 文字列の値に含まれる特定のパターンを検索する。次のワイルドカード文字でパターンを定義できる:
**パーセント記号 (%)**: 0 文字、1 文字、または複数の文字を表す。
**アンダースコア (_)**: 1 文字を表す。 | `SELECT * FROM aws_eks_cluster WHERE LOWER(logging) LIKE '%"enabled":true%';` | `aws_eks_cluster` テーブルのうち、`logging` 列が `"enabled":true` である行をすべて返す。 | +| `NOT LIKE` | 文字列の値に特定のパターンが含まれている行を検索結果から除外する。パターン マッチングには `%` と `_` のワイルドカードを使用できる。 | `SELECT * FROM aws_eks_cluster WHERE LOWER(logging) NOT LIKE '%"enabled":true%';` | `aws_eks_cluster` テーブルのうち、`logging` に `"enabled":true%'` が **含まれていない** 行をすべて返す。 | +| `IN` | `WHERE` 句で複数の値を検索する。`IN` 演算子は、複数の `OR` 条件の短縮形。 | `SELECT * FROM host WHERE cloud_provider IN ('aws', 'gcp');` | `host` テーブルのうち、`cloud_provider` の値が 'aws' または 'gcp' の行をすべて返す。| +| `NOT IN` | 引数の集合を、`AND` 演算子と組み合わせた `<>` または `!=` 演算子で置き換える。| `SELECT * FROM host WHERE cloud_provider NOT IN ('aws', 'gcp');` | `cloud_provider` が `aws` または `gcp` ではない行をすべて返す。 | + + +DDSQL は `BETWEEN` キーワードもサポートしており、`a BETWEEN x AND y` は `a >= x AND a <= y` と同等。詳細は [`BETWEEN` に関する Postgres のドキュメント][2] を参照。 + +## 論理演算子 + +| 名前 | 説明 | +|---------|-------------------------| +| AND | ブール ロジック、a & b | +| OR | ブール ロジック、a || b | +| XOR | ブール ロジック、a ^ b | +| NOT | ブール ロジック、!a | +| IS NULL | null の各行に対して true を返す | + + +## CASE + +`CASE` 式は一般的な条件式であり、他のプログラミング言語の if/else 文に類似する。`CASE` には、単純と検索の 2 つの形式がある。 + +### 単純 CASE 式 + +単純 CASE 式は次の構文を使用する: + +{{< code-block lang="sql" >}} +CASE expression + WHEN value THEN result + [ WHEN ... ] + [ ELSE result ] +END +{{< /code-block >}} + +式が評価され、`WHEN` 句内の各値式と順に比較され、一致するものが見つかるまで続く。一致が見つからない場合は、`ELSE` 句の結果、または `ELSE` が省略された場合は `NULL` が返される。 + +### 検索 CASE 式 + +検索 CASE 式は次の構文を使用する: + +{{< code-block lang="sql" >}} +CASE + WHEN condition THEN result + [ WHEN ... ] + [ ELSE result ] +END +{{< /code-block >}} + +条件の結果が true の場合、`CASE` 式の値はその条件に続く結果となり、以降の `CASE` 式は処理されない。条件の結果が true でない場合、後続の `WHEN` 句が同様に評価される。いずれの `WHEN` 条件も true を生成しない場合、`CASE` 式の値は `ELSE` 句の結果となる。`ELSE` 句が省略され、かつどの条件も true でない場合、結果は `NULL`。 + +## CAST + +`CAST` は、あるデータ型から別のデータ型への変換を指定する。 + +### 構文 + +{{< code-block lang="sql" >}} +CAST(expression AS type) +{{< /code-block >}} + +すべての型がこの方法で変換できるわけではない。 + +DDSQL は Postgres のキャスト構文もサポートする: + +{{< code-block lang="sql" >}} +expression::type +{{< /code-block >}} + +例: `SELECT 1::text;`。 + + +[1]: /ja/ddsql_reference/ddsql_preview/tags/ +[2]: https://www.postgresql.org/docs/current/functions-comparison.html \ No newline at end of file diff --git a/content/ja/security/application_security/threats/security_signals.md b/content/ja/security/application_security/threats/security_signals.md new file mode 100644 index 0000000000000..a3439e1e49d84 --- /dev/null +++ b/content/ja/security/application_security/threats/security_signals.md @@ -0,0 +1,159 @@ +--- +further_reading: +- link: /security/default_rules/?category=cat-application-security#cat-application-security + tag: ドキュメント + text: AAP の 脅威検知 OOTB ルールを確認する +- link: /security/application_security/policies/custom_rules/ + tag: ドキュメント + text: カスタム AAP 脅威検知ルールを構成する +- link: /security/application_security/how-it-works/threat-intelligence/ + tag: ドキュメント + text: AAP 脅威インテリジェンス +title: セキュリティ シグナルを調査する +--- + +## 概要 + +AAP セキュリティ シグナルは、検知ルールに基づいて Datadog が脅威を検出したときに作成されます。 [Signals Explorer][2] でセキュリティ シグナルを表示、検索、フィルタ、調査するか、[Notification Rules][8] を構成してサード パーティ ツールにシグナルを送信します。 + +{{< img src="security/application_security/threats/security_signals/appsec-threat-signals.png" alt="Signals Explorer で脅威を調査する概要と詳細サイド パネル" >}} + +## Signals Explorer の列 + +Signals Explorer には次の列が表示されます。 + +Severity +: 重大度には 5 つの状態があります: **Info**、**Low**、**Medium**、**High**、**Critical**。**High** と **Critical** は、サービスの可用性への重大な影響、または進行中の侵害を示します。 + +Title +: シグナルの名前。新しいデータが相関されるとタイトルが更新され、攻撃の評価された影響が変わることがあります。 + +Service/Env +: 攻撃で特定されたサービスと環境。サービス名にカーソルを合わせると、そのサービス ページやコード リポジトリへのリンク、さらにそのサービスのオン コール担当者を確認できます。 + +Entities +: 攻撃者と被害者。攻撃者は IP アドレスで識別され、被害者は認証済みユーザーとして識別されます。IP リストにカーソルを合わせ、IP をクリックすると、**Threat Intelligence** や **Security Activity** などの詳細が表示されます。 + +Triage State +: 担当者を割り当て、シグナルのトリアージ状態を設定できます。使用可能な状態は **Open**、**Under Review**、**Archived** です。 + +Creation Date +: シグナルが最初に作成された日付。シグナルは既定で日付順にソートされています。 + +## セキュリティ シグナルをフィルタする + +[Signals Explorer][2] 内のセキュリティ シグナルをフィルタするには、検索クエリ `@workflow.triage.state:` を使用します。ここで `` はフィルタ対象の状態です (`open`、`under_review`、`archived`)。また、ファセット パネルの **Signal State** ファセットも使用できます。 + +## シグナルをトリアージする + +追加調査のため、シグナルをユーザーに割り当ててトリアージできます。割り当てられたユーザーは、シグナルの状態を更新してレビューを追跡できます。 + +1. [Signals Explorer][2] ページで、**Triage State** 列のユーザー プロファイル アイコンをクリックします。 +2. シグナルを割り当てるユーザーを選択します。 +3. セキュリティ シグナルの状態を更新するには、トリアージ ステータスのドロップダウン メニューをクリックし、ステータスを選択します。既定の状態は **Open** です。 + - **Open**: シグナルはまだ解決されていません。 + - **Under Review**: シグナルが積極的に調査されています。**Under Review** 状態から、必要に応じてシグナルを **Archived** または **Open** に移動できます。 + - **Archived**: シグナルを引き起こした検知が解決されています。**Archived** 状態から、シグナルが最初に検出された時点から 30 日以内であれば **Open** に戻すことができます。 + +**注**: セキュリティ シグナルを変更するには、`security_monitoring_signals_write` 権限が必要です。App and API Protection で利用可能な Datadog の既定のロールや、きめ細かなロール ベース アクセス制御の権限については、[Role Based Access Control][9] を参照してください。 + +## インシデントを宣言する + +セキュリティ シグナルに対するインシデントを作成するには、[Incident Management][4] を使用します。 + +次の場合はインシデントを宣言してください: + +- 問題が顧客に影響している、または影響する可能性がある。 +- 問題が (内部的なものでも) 緊急対応を要すると考えられる。 + +宣言すべきか判断がつかない場合は、他のユーザーに通知し、適切に重大度を引き上げてください。 + +1. [Signals Explorer][2] ページで、セキュリティ シグナルを選択して詳細パネルを開きます。 +2. シグナル パネルで **Declare Incident** をクリックするか、ドロップダウンの矢印を選択して **Add to an existing incident** を選択します。 +3. 新しいインシデントを宣言する場合、**Declare Incident** 設定で、重大度レベルや **Incident Commander** などの詳細を指定してインシデントを構成します。 + 1. 影響を見積もります。重大度レベルは SEV-1 (重大) から SEV-5 (軽微) までです。判断に迷う場合は、常に高い重大度を選択してください。 +4. **Declare Incident** をクリックします。 + +## ワークフローを実行する + +セキュリティ シグナルに対してワークフローを手動でトリガーするには、[Workflow Automation][5] を使用します。 + +1. 実行したいワークフローにセキュリティ トリガーが設定されていることを確認します。 +2. [Signals Explorer][2] ページで、セキュリティ シグナルを開きます。 +3. **Respond** セクションで **Run Workflow** をクリックします。 +4. **Run a workflow** で、実行するワークフローを選択するか、**New Workflow** をクリックします。 + - 選択したワークフローによっては、追加の入力パラメーターの入力が必要になる場合があります。 + - **New Workflow** を選択した場合、Run a Security Workflow が開きます。ワークフローの詳細については、[Workflow Automation][5] を参照してください。 +5. **Run** をクリックします。 + +## レビューと修復 + +1. [Signals Explorer][2] ページで、セキュリティ シグナルを開きます。 +2. シグナルの詳細で、**What Happened**、**Activity Summary**、**Detection Rule** など各セクションを確認します。 +3. **Next Steps** を確認し、次のアクションを実行します: + - **Block all Attacking IPs** をクリックします (特定の期間または恒久的にブロック)。 + - **Automated Attacker Blocking** をクリックします ( [検知ルール][10] に基づく)。この設定には App and API Protection の **Protect Write** 権限が必要です。 + - **[Block with Edge WAF][11]** をクリックします。 + +## 一括アクション + +1 つ以上のシグナルを選択すると、**Bulk Actions** を使用して次の操作を実行できます。 + +### 状態の設定 + +トリアージ状態を **Open**、**Under Review**、**Archived** に設定します。 + +### シグナルをユーザーに割り当てる + +**Assign selection** を選択し、シグナルに割り当てるユーザーを選択します。 + +**Remove all assignments** を選択すると、シグナルの割り当てをなしにリセットします。 + +### ケース管理 + +Datadog の [Case Management][6] は、Datadog やサード パーティ統合で検出された問題をトリアージ、追跡、修復するための一元的な場所を提供します。 + +1. [Signals Explorer][2] ページで、セキュリティ シグナルを選択します。 +2. **Bulk Actions** で **Create a case** を選択します。 +3. **Create a case** または **Add to an existing case** を選択します。 +4. タイトルと任意の説明を入力します。 +5. **Create Case** をクリックします。 + +**Create Case** をクリックすると、Case Management と選択したプロジェクトに遷移します。 + +## 保存ビュー + +Signals Explorer の設定をビューとして保存できます。たとえば、未割り当てのシグナルだけが表示されるようにフィルタして、その状態をビューとして保存できます。 + +設定がビューとして保存されると、あなたとチーム メイトが後で利用できます。 + +ビューには、エクスプローラーの現在の選択内容が含まれます: + +- 時間範囲とクエリ +- 表示列とソート +- Analytics の集計設定 +- Timeline の可視性 +- 表示されるファセット +- 検知ルールによる集約 + +1. ビューを保存するには、目的の表示になるように Signals Explorer を構成してから **Save** をクリックします。 +2. ビューの名前を入力し、共有先のチームを選択します。 +3. **Save** をクリックします。 + +保存ビューをすべて表示するには、**Signals Explorer** ページ タイトルの横にある **Views** をクリックします。 + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + + +[1]: https://app.datadoghq.com/services?lens=Security +[2]: https://app.datadoghq.com/security?query=%40workflow.rule.type%3A%22Application%20Security%22&column=time&order=desc&product=appsec&viz=stream&start=1694726477747&end=1695331277747&paused=false +[4]: /ja/service_management/incident_management/ +[5]: /ja/service_management/workflows/ +[6]: /ja/service_management/case_management/ +[7]: https://app.datadoghq.com/security/appsec? +[8]: /ja/security/notifications/rules/ +[9]: /ja/account_management/rbac/permissions/#cloud-security-platform +[10]: /ja/security/application_security/policies/#respond-to-threats-in-real-time-by-automating-attacker-blocking +[11]: /ja/security/application_security/policies/#blocking-attack-attempts-with-in-app-waf \ No newline at end of file diff --git a/content/ko/monitors/guide/monitoring-available-disk-space.md b/content/ko/monitors/guide/monitoring-available-disk-space.md new file mode 100644 index 0000000000000..f8c672c272635 --- /dev/null +++ b/content/ko/monitors/guide/monitoring-available-disk-space.md @@ -0,0 +1,39 @@ +--- +description: 단계별 가이드에서 사용 가능한 디스크 공간이 지정된 백분율 임계값 아래로 떨어질 때 알림을 보내는 사용 가능한 디스크 공간 + 모니터를 만들 수 있습니다. +title: 사용 가능한 디스크 공간 모니터링 +--- + + + +모니터에 대한 일반적인 시스템 메트릭은 특정 시스템 또는 호스트의 사용 가능한 디스크 공간입니다. 이 가이드는 Datadog로 보고하는 모든 호스트에 대해 호스트의 디스크 여유 공간이 10% 미만으로 떨어지면 알려주는 모니터를 만드는 데 도움이 됩니다. + +사용 디스크 공간을 위해 모니터를 생성하는 방법: + +1. 탐색 메뉴에서 **Monitors**를 클릭합니다. +2. **New Monitor**를 클릭합니다. +3. 모니터 유형으로 **Metric**을 선택합니다. + 1. **Define the metric** 섹션에서 메트릭에 `system.disk.free`을 사용하고 **avg by**에 `host`를 선택합니다. 쿼리 a입니다. + 2. **Add Query**를 클릭합니다. 이 메트릭의 경우 메트릭에 `system.disk.total`을 사용하고 **avg by**에는 `host` 을 사용합니다. 쿼리 b입니다. + 3. 표시되는 공식에서 `a + b`를 `a/b*100`로 바꿉니다. + + {{< img src="monitors/guide/monitoring_free_disk_space.png" alt="a/b*100 수식을 사용한 system.disk.free 및 system.disk.total의 쿼리 정의" style="width:80%;">}} + + + 4. **Evaluation Details**에서 원하는 평가 간격을 선택합니다. + + {{< img src="monitors/guide/monitoring_free_disk_space_alert_criteria.png" alt="경고 기준 구성이 임계값 이하로 설정됨, 값은 10." style="width:80%;">}} + + +5. **Set alert conditions**의 임계값 옵션에서 **below**를 선택하고 **Alert threshold** 필드에 `10`을 입력합니다. +6. **Configure notifications & automations**에서 모니터 이름을 지정한 다음 알림 메시지를 지정합니다. 관련 세부정보와 의미 있는 메시지 템플릿을 포함하세요. 예는 다음과 같습니다. + + ``` + {{#is_alert}} Alert: Free disk space is below {{threshold}}% on {{host.name}}. {{/is_alert}} + {{#is_warning}} Warning: Free disk space is below {{warn_threshold}}% on {{host.name}}. {{/is_warning}} + Disk space available: {{value}}% + ``` + +7. **Create**을 클릭하여 모니터를 저장합니다. + +[1]: https://app.datadoghq.com/monitors/ \ No newline at end of file diff --git a/data/api/v1/translate_tags.es.json b/data/api/v1/translate_tags.es.json index ae990b305395b..6b7d4ea570304 100644 --- a/data/api/v1/translate_tags.es.json +++ b/data/api/v1/translate_tags.es.json @@ -25,7 +25,7 @@ }, "downtimes": { "name": "Tiempos de inactividad", - "description": "El [tiempo de inactividad](https://docs.datadoghq.com/monitors/notify/downtimes) te proporciona\nun mayor control sobre las notificaciones de monitores, ya que te permite excluir globalmente\ncontextos de alerta. La configuración de tiempos de inactividad, que pueden programarse con horas de inicio y \nhoras de fin, evita todas las alertas relacionadas con etiquetas (tags) de Datadog." + "description": "Los [tiempos de inactividad](https://docs.datadoghq.com/monitors/notify/downtimes) te ofrecen\nun mayor control sobre las notificaciones de monitor, ya que te permiten excluir globalmente\ncontextos de alerta. Los ajustes de tiempos de inactividad, que pueden programarse con horas de inicio y\nhoras de finalización, evitan todas las alertas relacionadas con etiquetas (tags) de Datadog especificadas.\n\n**Nota:** Los comandos `curl` requieren [codificación url](https://curl.se/docs/url-syntax.html)." }, "embeddable-graphs": { "name": "Gráficos integrables", @@ -33,7 +33,7 @@ }, "events": { "name": "Eventos", - "description": "La API de gestión de eventos permite publicar mediante programación eventos en el Events Explorer y recuperar eventos desde el Events Explorer. Consulta la página de [Gestión de eventos](https://docs.datadoghq.com/service_management/events/) para obtener más información.\n\n**Actualización de la `aggregation_key` de los eventos de monitor de Datadog a partir del 1 de marzo de 2025:** La `aggregation_key` de los eventos de monitor de Datadog es única para cada ID de monitor. A partir del 1 de marzo, esta clave también incluirá el Grupo de monitores, por lo que será única por *ID de monitor y Grupo de monitor*. Si utilizas la `aggregation_key` de eventos de monitor en las consultas de dashboard o en la API de eventos, deberás migrar para utilizar `@monitor.id`. Ponte en contacto con el [soporte](https://www.datadoghq.com/support/) si tienes alguna pregunta." + "description": "La API de Event Management permite publicar mediante programación eventos en el Events Explorer y recuperar eventos desde el Events Explorer. Consulta la página de [Event Management](https://docs.datadoghq.com/service_management/events/) para obtener más información.\n\n**Actualización de la `aggregation_key` de los eventos de monitor de Datadog a partir del 1 de marzo de 2025:** La `aggregation_key` de los eventos de monitor de Datadog es única para cada ID de monitor. A partir del 1 de marzo, esta clave también incluirá el Grupo de monitores, por lo que será única por *ID de monitor y Grupo de monitor*. Si utilizas la `aggregation_key` de eventos de monitor en las consultas de dashboard o en la API de eventos, deberás migrar para utilizar `@monitor.id`. Ponte en contacto con el [soporte](https://www.datadoghq.com/support/) si tienes alguna pregunta." }, "gcp-integration": { "name": "Integración GCP", @@ -48,12 +48,12 @@ "description": "Obtén una lista de prefijos de IP pertenecientes a Datadog." }, "key-management": { - "name": "Elimina una clave de aplicación que pertenece al usuario actual.", - "description": "Gestiona tus claves de API y de aplicación de Datadog. Se necesita una clave de API y\nuna clave de aplicación para que un usuario con los permisos necesarios interactúe\ncon estos endpoints. Puedes consultar la lista completa de claves de API y de aplicación\nen la [página de tu API Datadog](https://app.datadoghq.com/account/settings#api)." + "name": "Key Management", + "description": "Gestiona tus API y tus claves de aplicación Datadog. Necesitas una clave de API y una clave de aplicación para que un usuario con los permisos necesarios interactúe con estos endpoints.\n\nConsulta las siguientes páginas para ver y gestionar tus claves:\n\n- [Claves de API](https://app.datadoghq.com/organization-settings/api-keys)\n- [Claves de aplicación](https://app.datadoghq.com/personal-settings/application-keys)" }, "logs": { "name": "Logs", - "description": "Busca tus logs y envíalos a tu plataforma Datadog a través de HTTP. Para obtener más información, consulta la [página Gestión de logs](https://docs.datadoghq.com/logs/)." + "description": "Busca tus logs y envíalos a tu plataforma Datadog a través de HTTP. Para obtener más información, consulta la [página de Log Management](https://docs.datadoghq.com/logs/)." }, "logs-indexes": { "name": "Índices de logs", @@ -69,7 +69,7 @@ }, "monitors": { "name": "Monitores", - "description": "Los [monitores](https://docs.datadoghq.com/monitors) te permiten observar una métrica o un check que te interese y\nnotificar a tu equipo cuando se supera un umbral definido.\n\nPara obtener más información, consulta la [creación de monitores](https://docs.datadoghq.com/monitors/create/types/)." + "description": "Los [monitores](https://docs.datadoghq.com/monitors) te permiten vigilar una métrica o un check que te interese y\nnotificar a tu equipo cuando se supera un umbral definido.\n\nPara obtener más información, consulta [Creación de monitores](https://docs.datadoghq.com/monitors/create/types/).\n\n**Nota:** Los comandos `curl` requieren [codificación url](https://curl.se/docs/url-syntax.html)." }, "notebooks": { "name": "Notebooks", @@ -85,10 +85,10 @@ }, "screenboards": { "name": "Screenboards", - "description": "Este endpoint está obsoleto. Utiliza el [nuevo endpoint del dashboard](https://docs.datadoghq.com/api/#dashboards)." + "description": "Este endpoint está obsoleto. Utiliza el [nuevo endpoint de dashboard](https://docs.datadoghq.com/api/latest/dashboards/) en su lugar." }, "security-monitoring": { - "name": "Ver una lista de señales de seguridad", + "name": "Security Monitoring", "description": "Crea y gestiona tus reglas de seguridad, señales, filtros y mucho más. Para obtener más información, consulta la [página Seguridad de Datadog](https://docs.datadoghq.com/security/)." }, "service-checks": { @@ -117,7 +117,7 @@ }, "synthetics": { "name": "Synthetics", - "description": "La monitorización Synthetic Datadog utiliza solicitudes de usuario simuladas y la renderización del navegador para ayudarte a garantizar el tiempo de actividad,\nidentificar problemas regionales y realizar un seguimiento del rendimiento de tu aplicación. Los tests Synthetics vienen\nen dos formatos diferentes, [tests de API]((https://docs.datadoghq.com/synthetics/api_tests/?tab=httptest)\ny [tests de navegador](https://docs.datadoghq.com/synthetics/browser_tests). Puedes utilizar la API Datadog para\ngestionar ambos tipos de tests mediante programación.\n\nPara obtener más información, consulta la [documentación de la monitorización Synthetic](https://docs.datadoghq.com/synthetics/)." + "description": "Datadog Synthetic Monitoring utiliza solicitudes de usuario simuladas y la representación del navegador para ayudarte a garantizar el tiempo de actividad,\nidentificar problemas regionales y realizar un seguimiento del rendimiento de tu aplicación. Los tests Synthetics vienen\nen dos formatos diferentes, [tests de API]((https://docs.datadoghq.com/synthetics/api_tests/?tab=httptest)\ny [tests de navegador](https://docs.datadoghq.com/synthetics/browser_tests). Puedes utilizar la API Datadog para\ngestionar ambos tipos de tests mediante programación.\n\nPara obtener más información, consulta la [documentación de Synthetic Monitoring](https://docs.datadoghq.com/synthetics/)." }, "tags": { "name": "Etiquetas", @@ -125,7 +125,7 @@ }, "timeboards": { "name": "Timeboards", - "description": "Este endpoint está obsoleto. Utiliza el [nuevo endpoint del dashboard](https://docs.datadoghq.com/api/#dashboards)." + "description": "Este endpoint está obsoleto. Utiliza el [nuevo endpoint de dashboard](https://docs.datadoghq.com/api/latest/dashboards/) en su lugar." }, "usage-metering": { "name": "Medición del uso", diff --git a/layouts/shortcodes/observability_pipelines/configure_existing_pipelines/source_env_vars/splunk_hec.es.md b/layouts/shortcodes/observability_pipelines/configure_existing_pipelines/source_env_vars/splunk_hec.es.md new file mode 100644 index 0000000000000..5af82592f4852 --- /dev/null +++ b/layouts/shortcodes/observability_pipelines/configure_existing_pipelines/source_env_vars/splunk_hec.es.md @@ -0,0 +1,4 @@ +- Dirección de Splunk HEC: + - La dirección bind en la que tu Observability Pipelines Worker escucha para recibir logs originalmente destinados al indexador Splunk. Por ejemplo, `0.0.0.0:8088`. + **Nota**: `/services/collector/event` se añade automáticamente al endpoint. + - Almacenado en la variable de entorno `DD_OP_SOURCE_SPLUNK_HEC_ADDRESS`. \ No newline at end of file diff --git a/layouts/shortcodes/observability_pipelines/destination_env_vars/datadog_archives_google_cloud_storage.es.md b/layouts/shortcodes/observability_pipelines/destination_env_vars/datadog_archives_google_cloud_storage.es.md new file mode 100644 index 0000000000000..0fc065e191389 --- /dev/null +++ b/layouts/shortcodes/observability_pipelines/destination_env_vars/datadog_archives_google_cloud_storage.es.md @@ -0,0 +1 @@ +No hay variables de entorno para configurar. \ No newline at end of file diff --git a/layouts/shortcodes/observability_pipelines/source_settings/http_client.es.md b/layouts/shortcodes/observability_pipelines/source_settings/http_client.es.md new file mode 100644 index 0000000000000..1a71d46c88deb --- /dev/null +++ b/layouts/shortcodes/observability_pipelines/source_settings/http_client.es.md @@ -0,0 +1,15 @@ +Para configurar tu fuente de cliente HTTP/S: + +1. Selecciona tu estrategia de autorización. +2. Selecciona el decodificador que deseas utilizar en los mensajes HTTP. Los logs extraídos de la fuente HTTP debe estar en este formato. +3. Opcionalmente, activa el interruptor para habilitar TLS. Si activas TLS, se requieren los siguientes archivos de certificados y claves.
**Nota**: Todas las rutas de archivos son relativas al directorio de datos de configuración, que es `/var/lib/observability-pipelines-worker/config/` por defecto. Consulta [Configuraciones avanzadas][10172] para obtener más información. El archivo debe ser propiedad del usuario `observability-pipelines-worker group` y `observability-pipelines-worker`, o al menos legible por el grupo o usuario. + - `Server Certificate Path`: la ruta al archivo del certificado que ha sido firmado por tu archivo raíz de autoridad de certificación (CA) en formato DER o PEM (X.509). + - `CA Certificate Path`: la ruta al archivo de certificado que es tu archivo raíz de autoridad de certificación (CA) en formato DER o PEM (X.509). + - `Private Key Path`: la ruta al archivo de clave privada `.key` que pertenece a la ruta de tu certificado de servidor en formato DER o PEM (PKCS#8). +4. Introduce el intervalo entre extracciones. + - Tu servidor HTTP debe ser capaz de gestionar solicitudes GET en este intervalo. + - Dado que las solicitudes se ejecutan simultáneamente, si una extracción tarda más que el intervalo dado, se inicia una nueva extracción, lo que puede consumir recursos adicionales. Establece el tiempo de espera en un valor inferior al intervalo de extracción para evitar que esto ocurra. +5. Introduce el tiempo de espera para cada solicitud de extracción. + +[10172]: /es/observability_pipelines/advanced_configurations/ + diff --git a/layouts/shortcodes/observability_pipelines/source_settings/logstash.es.md b/layouts/shortcodes/observability_pipelines/source_settings/logstash.es.md new file mode 100644 index 0000000000000..e31ff07159d68 --- /dev/null +++ b/layouts/shortcodes/observability_pipelines/source_settings/logstash.es.md @@ -0,0 +1,7 @@ +Opcionalmente, activa el interruptor para habilitar TLS. Si activas TLS, se requieren los siguientes archivos de certificados y claves.
**Nota**: Todas las rutas de archivos son relativas al directorio de datos de configuración, que es `/var/lib/observability-pipelines-worker/config/` por defecto. Consulta [Configuraciones avanzadas][10172] para obtener más información. El archivo debe ser propiedad del usuario `observability-pipelines-worker group` y `observability-pipelines-worker`, o al menos legible por el grupo o usuario. +- `Server Certificate Path`: la ruta al archivo del certificado que fue firmado por el archivo raíz de tu autoridad de certificación (CA) en formato DER o PEM (X.509). +- `CA Certificate Path`: la ruta al archivo de certificado que es el archivo raíz de tu autoridad de certificación (CA) en DER o PEM (X.509). +- `Private Key Path`: la ruta al archivo de clave privada `.key` que pertenece a la ruta de tu certificado de servidor en formato DER o PEM (PKCS #8). + +[10172]: /es/observability_pipelines/advanced_configurations/ + \ No newline at end of file From dd26451eaefc16fe71a2af3dc4f835491149a15a Mon Sep 17 00:00:00 2001 From: "webops-guacbot[bot]" <214537265+webops-guacbot[bot]@users.noreply.github.com> Date: Mon, 13 Oct 2025 15:07:17 +0000 Subject: [PATCH 3/8] Translated file updates --- .../es/api/latest/reference-tables/_index.md | 3 + .../es/api/latest/test-optimization/_index.md | 3 + .../azure_devops_extension.md | 138 +-- .../guide/is-read-only-deprecation.md | 46 + .../es/error_tracking/issue_correlation.md | 48 + .../crest_data_systems_zoho_crm.md | 168 ++++ content/es/integrations/dotnet.md | 80 +- content/es/integrations/gearmand.md | 176 ++++ content/es/integrations/gitlab.md | 829 ++++++++++++++---- content/es/integrations/iocs_dmi.md | 203 +++++ content/es/integrations/iocs_dsi.md | 145 +++ content/es/integrations/istio.md | 682 ++++++++++---- content/es/integrations/lambdatest_license.md | 126 +++ content/es/integrations/mapreduce.md | 184 ++++ .../es/integrations/maurisource_magento.md | 129 +++ .../es/integrations/moovingon_moovingonai.md | 99 +++ content/es/integrations/oci_api_gateway.md | 111 +++ content/es/integrations/redpeaks_sap_hana.md | 159 ++++ content/es/integrations/wlan.md | 266 ++++++ content/es/opentelemetry/instrument/_index.md | 49 ++ .../es/product_analytics/charts/pathways.md | 75 ++ .../mobile/setup_and_configuration.ast.json | 62 +- .../setup/agent/docker.md | 59 ++ .../setup/agentless_scanning/compatibility.md | 95 ++ .../troubleshooting/vulnerabilities.md | 52 +- content/es/security/security_inbox.md | 57 +- content/es/security/ticketing_integrations.md | 4 - .../step_functions/troubleshooting.md | 80 +- .../events/guides/dogstatsd.md | 45 +- .../status_remapper.md | 26 +- .../custom_instrumentation/dotnet/otel.md | 16 +- .../ddsql_preview/statements.md | 192 ++++ content/ja/integrations/amazon_bedrock.md | 203 ++++- content/ja/integrations/amazon_config.md | 148 +++- .../integrations/runtime_metrics/_index.md | 237 ++++- .../threats/setup/standalone/ruby.md | 233 +++++ .../serverless/guide/serverless_warnings.md | 47 +- .../custom_instrumentation/python/dd-api.md | 326 +++++++ .../custom_instrumentation/ruby/dd-api.md | 339 +++++++ 39 files changed, 5327 insertions(+), 613 deletions(-) create mode 100644 content/es/api/latest/reference-tables/_index.md create mode 100644 content/es/api/latest/test-optimization/_index.md create mode 100644 content/es/dashboards/guide/is-read-only-deprecation.md create mode 100644 content/es/error_tracking/issue_correlation.md create mode 100644 content/es/integrations/crest_data_systems_zoho_crm.md create mode 100644 content/es/integrations/gearmand.md create mode 100644 content/es/integrations/iocs_dmi.md create mode 100644 content/es/integrations/iocs_dsi.md create mode 100644 content/es/integrations/lambdatest_license.md create mode 100644 content/es/integrations/mapreduce.md create mode 100644 content/es/integrations/maurisource_magento.md create mode 100644 content/es/integrations/moovingon_moovingonai.md create mode 100644 content/es/integrations/oci_api_gateway.md create mode 100644 content/es/integrations/redpeaks_sap_hana.md create mode 100644 content/es/integrations/wlan.md create mode 100644 content/es/opentelemetry/instrument/_index.md create mode 100644 content/es/product_analytics/charts/pathways.md create mode 100644 content/es/security/cloud_security_management/setup/agent/docker.md create mode 100644 content/es/security/cloud_security_management/setup/agentless_scanning/compatibility.md create mode 100644 content/ja/ddsql_reference/ddsql_preview/statements.md create mode 100644 content/ja/security/application_security/threats/setup/standalone/ruby.md create mode 100644 content/ja/tracing/trace_collection/custom_instrumentation/python/dd-api.md create mode 100644 content/ja/tracing/trace_collection/custom_instrumentation/ruby/dd-api.md diff --git a/content/es/api/latest/reference-tables/_index.md b/content/es/api/latest/reference-tables/_index.md new file mode 100644 index 0000000000000..ecd6a1aa354b9 --- /dev/null +++ b/content/es/api/latest/reference-tables/_index.md @@ -0,0 +1,3 @@ +--- +title: Tablas de referencia +--- diff --git a/content/es/api/latest/test-optimization/_index.md b/content/es/api/latest/test-optimization/_index.md new file mode 100644 index 0000000000000..2bf0e8f80a18e --- /dev/null +++ b/content/es/api/latest/test-optimization/_index.md @@ -0,0 +1,3 @@ +--- +title: Test Optimization +--- diff --git a/content/es/continuous_testing/cicd_integrations/azure_devops_extension.md b/content/es/continuous_testing/cicd_integrations/azure_devops_extension.md index 777a72a69a724..7a9146dca23ed 100644 --- a/content/es/continuous_testing/cicd_integrations/azure_devops_extension.md +++ b/content/es/continuous_testing/cicd_integrations/azure_devops_extension.md @@ -3,55 +3,53 @@ aliases: - /es/synthetics/cicd_integrations/azure_devops_extension dependencies: - https://github.com/DataDog/datadog-ci-azure-devops/blob/main/README.md -description: Utiliza la extensión de CI de Synthetics y Datadog para crear tareas - que puedas utilizar en un pipeline de CI. +description: Utiliza la extensión de CI de Synthetic y Datadog para crear tareas que + puedas utilizar en un pipeline de CI. title: Continuous Testing y extensión de Datadog CI Azure DevOps --- -[![Versión de Visual Studio Marketplace](https://img.shields.io/visual-studio-marketplace/v/Datadog.datadog-ci)][1] -[![Estado de compilación](https://dev.azure.com/Datadog-ci/Datadog%20CI%20Azure%20DevOps%20Extension/_apis/build/status%2FDevelopment?branchName=main)](https://dev.azure.com/datadog-ci/Datadog%20CI%20Azure%20DevOps%20Extension/_build/latest?definitionId=4&branchName=main) -[![Licencia](https://img.shields.io/badge/License-Apache%202.0-blue.svg)](https://opensource.org/licenses/Apache-2.0) +[![Visual Studio Marketplace Version](https://img.shields.io/visual-studio-marketplace/v/Datadog.datadog-ci)][1] +[![Build Status](https://dev.azure.com/datadog-ci/Datadog%20CI%20Azure%20DevOps%20Extension/_apis/build/status%2FDevelopment?branchName=main)](https://dev.azure.com/datadog-ci/Datadog%20CI%20Azure%20DevOps%20Extension/_build/latest?definitionId=4&branchName=main) +[![License](https://img.shields.io/badge/License-Apache%202.0-blue.svg)](https://opensource.org/licenses/Apache-2.0) ## Información general -Con Datadog Continuous Testing Azure DevOps Extension, puedes ejecutar tests de Synthetic dentro de tu configuración de pipeline de Azure y asegurarte de que todos tus equipos que utilizan Azure DevOps puedan beneficiarse de los tests de Synthetic en cada etapa del ciclo de vida del software. Puedes ejecutar [`SyntheticsRunTests`][3] como una tarea. +Con la tarea [`SyntheticsRunTests`][3], puedes ejecutar tests Synthetic dentro de la configuración de tu pipeline Azure y garantizar que todos tus equipos que utilizan Azure DevOps puedan beneficiarse de los tests Synthetic en cada etapa del ciclo de vida del software. + +Para obtener más información sobre la configuración disponible, consulta la [documentación de `datadog-ci synthetics run-tests`][13]. ## Autenticación -### Conexión del servicio +### Conexión al servicio -Para conectarte a tu [sitio de Datadog][11], Datadog recomienda configurar una conexión personalizada al servicio al configurar la tarea de Synthetics Run Test. +Para conectarte a tu [sitio Datadog][11], Datadog recomienda configurar una conexión personalizada al servicio al configurar la tarea [`SyntheticsRunTests`][3]. Debes proporcionar los siguientes datos: -- Sitio de Datadog: a qué [sitio de Datadog][11] conectarte y enviar datos. -- Subdominio personalizado (por defecto: `app`): el nombre del subdominio personalizado establecido para acceder a tu aplicación de Datadog. Si la URL utilizada para acceder a Datadog es `myorg.datadoghq.com`, este valor debe establecerse en `myorg`. -- Clave de API: tu clave de API de Datadog. Esta clave la crea tu [organización de Datadog][6]. -- Clave de aplicación: tu clave de aplicación de Datadog. Esta clave la crea tu [organización de Datadog][6]. +- Sitio Datadog: Tu sitio Datadog. Los valores posibles se muestran [en esta tabla][11]. +- Subdominio personalizado (por defecto: `app`): El subdominio personalizado para acceder a tu organización Datadog. Si tu URL es `myorg.datadoghq.com`, el subdominio personalizado es `myorg`. +- Clave de API: Tu clave de API Datadog. Esta clave se [crea en tu organización Datadog][6]. +- Clave de aplicación: Tu clave de aplicación Datadog. Esta clave se [crea en tu organización Datadog][6]. ### Claves de API y de aplicación -- Clave de API: tu clave de API de Datadog. Esta clave es creada por tu [organización de Datadog][6] y se accede a ella como una variable de entorno. -- Clave de aplicación: tu clave de aplicación de Datadog. Esta clave es creada por tu [organización de Datadog][6] y se accede a ella como una variable de entorno. -- Sitio de Datadog: el [sitio de Datadog][11] para conectarte y enviar datos. -- Subdominio personalizado (opcional): el nombre del subdominio personalizado establecido para acceder a tu aplicación de Datadog. Si la URL utilizada para acceder a Datadog es `myorg.datadoghq.com`, este valor debe establecerse en `myorg`. +- Clave de API: Tu clave de API Datadog. Esta clave se [crea en tu organización Datadog][6] y debe almacenarse como [secreto][7]. +- Clave de aplicación: Tu clave de aplicación Datadog. Esta clave se [crea en tu organización Datadog][6] y debe almacenarse como [secreto][7]. +- Sitio Datadog: Tu sitio Datadog. Los valores posibles se muestran [en esta tabla][11]. +- Subdominio personalizado (opcional): El subdominio personalizado para acceder a tu organización Datadog. Si tu URL es `myorg.datadoghq.com`, el subdominio personalizado es `myorg`. -## Ajustes +## Configuración -Para conectarte a tu cuenta de Datadog, [crea una conexión del servicio de Datadog CI][5] en tu proyecto de pipelines de Azure. Una vez creado, todo lo que necesitas es el nombre de la conexión del servicio en las tareas. +Para conectarte a tu cuenta de Datadog, [crea una conexión al servicio Datadog CI][5] en tu proyecto de pipelines de Azure. Una vez creado, todo lo que necesitas es el nombre de la conexión al servicio en las tareas. 1. Instala la [extensión de Datadog Continuous Testing del Visual Studio Marketplace][1] en tu organización de Azure. -2. Añade tu API de Datadog y las claves de la aplicación en la conexión [del servicio de Datadog CI](#authentication), o como [secretos de tu proyecto de pipelines de Azure][7]. -3. En tu pipeline de Azure DevOps, utiliza la tarea `SyntheticsRunTests`. +2. Añade tu API de Datadog y las claves de la aplicación en la conexión [al servicio Datadog CI](#authentication), o como [secretos de tu proyecto de pipelines de Azure][7]. +3. En tu pipeline Azure DevOps, utiliza la tarea [`SyntheticsRunTests`][3]. Tu tarea puede ser [simple](#simple-usage) o [compleja](#complex-usage). ## Uso sencillo -> **Nota**: Recientemente hemos cambiado la versión principal de la tarea de `SyntheticsRunTests@0` a `SyntheticsRunTests@1`. -> -> Esto es **NO un cambio de ruptura**, sino una alineación entre la versión de la tarea y la versión de la extensión. - ### Ejemplo de tarea con identificadores públicos ```yaml @@ -92,10 +90,6 @@ Para ver un archivo de test de ejemplo, consulta este [archivo `test.synthetics. ## Uso complejo -> **Nota**: Recientemente hemos cambiado la versión principal de la tarea de `SyntheticsRunTests@0` a `SyntheticsRunTests@1`. -> -> Esto es **NO un cambio de ruptura**, sino una alineación entre la versión de la tarea y la versión de la extensión. - ### Ejemplo de tarea utilizando la `testSearchQuery` ```yaml @@ -107,7 +101,7 @@ Para ver un archivo de test de ejemplo, consulta este [archivo `test.synthetics. testSearchQuery: 'tag:e2e-tests' ``` -### Ejemplo de tarea que utiliza `testSearchQuery` y anulaciones de variables +### Ejemplo de tarea que utiliza `testSearchQuery` y sobreescritura de variables ```yaml - task: SyntheticsRunTests@1 @@ -123,7 +117,7 @@ Para ver un archivo de test de ejemplo, consulta este [archivo `test.synthetics. ### Ejemplo de tarea utilizando un archivo de configuración global con `configPath` -Por defecto, la ruta al archivo de configuración global es `datadog-ci.json`. Puedes anular esta ruta con la entrada `config_path`. +Por defecto, la ruta al archivo de configuración global es `datadog-ci.json`. Puedes sobreescribir esta ruta con la entrada `config_path`. ```yaml - task: SyntheticsRunTests@1 @@ -134,33 +128,51 @@ Por defecto, la ruta al archivo de configuración global es `datadog-ci.json`. P connectedService: 'my-datadog-ci-connected-service' ``` -Para ver un ejemplo de archivo de configuración global, consulta este [archivo `global.config.json`][13]. - ## Entradas -| Nombre | Requisito | Descripción | -| ---------------------- | :---------: | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -| `apiKey` | _obligatorio_ | Tu clave de API de Datadog cuando utilices el tipo de autenticación `apiAppKeys`. Esta clave la crea tu [organización de Datadog][6] y debe guardarse como [secreto][7]. | -| `appKey` | _obligatorio_ | Tu clave de aplicación de Datadog cuando utilices el tipo de autenticación `apiAppKeys`. Esta clave la crea tu [organización de Datadog][6] y debe guardarse como [secreto][7]. | -| `authenticationType` | _obligatorio_ | El tipo de autenticación que deseas que utilice Datadog, ya sea `connectedService` o `apiAppKeys`. | -| `connectedService` | _obligatorio_ | El nombre de la [conexión de servicio de Datadog CI](#setup) a utilizar cuando se usa el tipo de autenticación `connectedService`. | -| `configPath` | _opcional_ | La [configuración global de JSON][9] utilizada al lanzar los tests. Para más información, consulta la [configuración de ejemplo][9]. **Por defecto:** `datadog-ci.json`. | -| `datadogSite` | _opcional_ | El [sitio de Datadog][11] cuando se utiliza el tipo de autenticación `apiAppKeys`. **Por defecto:** `datadoghq.com`. | -| `failOnCriticalErrors` | _opcional_ | Falla el trabajo de CI si no se dispara ningún test, o si los resultados no se pueden obtener de Datadog. **Por defecto:** `false`. | -| `failOnMissingTests` | _opcional_ | Falla el trabajo de CI si al menos un test especificado con un ID público (usando `publicIds` o publicados en un [archivo de test][14]) falta en una ejecución (por ejemplo, si ha sido borrado programáticamente o en el sitio de Datadog). **Por defecto:** `false`. | -| `failOnTimeout` | _opcional_ | Falla el trabajo de CI si al menos un test excede el tiempo de espera de test por defecto. **Por defecto:** `true`. | -| `files` | _opcional_ | Patrón global para detectar los archivos de configuración de los tests de Synthetic. **Por defecto:** `{,!(node_modules)/**/}*.synthetics.json`. | -| `jUnitReport` | _opcional_ | El nombre de archivo para un informe JUnit si deseas generar uno. | -| `pollingTimeout` | _opcional_ | **OBSOLETO**: La duración (en milisegundos) tras la cual la tarea deja de sondear los resultados de los tests. En el nivel de CI, los resultados de los tests completados después de esta duración se consideran fallidos. **Predeterminado:** 30 minutos. | -| `publicIds` | _opcional_ | Una lista de IDs de tests para tests de Synthetic que deseas activar, separada por nuevas líneas o comas. Si no se proporciona ningún valor, la tarea busca archivos con el nombre `synthetics.json`. | -| `subdomain` | _opcional_ | El nombre del subdominio personalizado establecido para acceder a tu aplicación de Datadog cuando se utiliza el tipo de autenticación `apiAppKeys`. Si la URL utilizada para acceder a Datadog es `myorg.datadoghq.com`, este valor debe establecerse en `myorg`. **Por defecto:** `app`. | -| `testSearchQuery` | _opcional_ | Activa los tests correspondientes a una consulta de [búsqueda][8]. Esto puede ser útil si estás etiquetando tus configuraciones de test. Para obtener más información, consulta [reglas y prácticas recomendadas para nombrar etiquetas][10]. | -| `variables` | _opcional_ | Una lista de variables globales a utilizar para los tests de Synthetic, separada por nuevas líneas o comas. Por ejemplo: `START_URL=https://example.org,MY_VARIABLE=My title`. **Por defecto:** `[]`. | - -## Leer más - -Más enlaces, artículos y documentación útiles: - +Para obtener más información sobre la configuración disponible, consulta la [documentación de `datadog-ci synthetics run-tests`][13]. + +| Nombre | Descripción | +| ---------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | +| `apiKey` | Tu clave de API Datadog. Esta clave se [crea en tu organización Datadog][6] y debe almacenarse como [secreto][7].
**Obligatoria** cuando `authenticationType == apiAppKeys` | +| `appKey` | Tu clave de API Datadog. Esta clave se [crea en tu organización Datadog][6] y debe almacenarse como [secreto][7].
**Obligatoria** cuando `authenticationType == apiAppKeys` | +| `authenticationType` | (**Obligatorio**) Almacenamiento y recuperación de credenciales.
Debe ser `apiAppKeys` o `connectedService` | +| `batchTimeout` | Especifica la duración del tiempo de espera en milisegundos para el lote CI. Cuando se agota el tiempo de espera de un lote, el trabajo de CI falla y no se activan nuevas ejecuciones de tests, pero las ejecuciones de tests en curso finalizan normalmente.
**Por defecto:** `1800000` (30 minutos) | +| `connectedService` | El nombre de la [conexión al servicio Datadog CI](#setup).
**Obligatorio** cuando `authenticationType == connectedService` | +| `configPath` | La ruta al [archivo de configuración global][9] que configura datadog-ci.
**Por defecto:** `datadog-ci.json` | +| `datadogSite` | Tu sitio Datadog. Los valores posibles se muestran [en esta tabla][11].
**Por defecto:** `datadoghq.com`

Configúralo como{{< region-param key="dd_site" code="true" >}} (asegúrate de seleccionar el SITIO correcto a la derecha). | +| `failOnCriticalErrors` | Genera la falla del trabajo de CI si se produce un error crítico que suele ser transitorio, como límites de frecuencia, fallos de autenticación o problemas en la infraestructura Datadog.
**Por defecto:** `false` | +| `failOnMissingTests` | Genera la falla del trabajo CI si la lista de tests a ejecutar está vacía o si faltan algunos tests explícitamente mencionados.
**Por defecto:** `false` | +| `failOnTimeout` | Genera la falla del trabajo CI si el lote CI falla debido al tiempo de espera.
**Por defecto:** `true` | +| `files` | Patrones glob para detectar [archivos de configuración de tests][14] Synthetic, separados por nuevas líneas.
**Por defecto:** `{,!(node_modules)/**/}*.synthetics.json` | +| `jUnitReport` | El nombre de archivo de un informe JUnit, si quieres generar uno.
**Por defecto:** ninguno | +| `locations` | Anula la lista de ubicaciones desde las que ejecutar el test, separadas por nuevas líneas o comas. Los valores posibles se muestran en [esta respuesta de API][19].
**Por defecto:** ninguno | +| `publicIds` | ID públicos de tests Synthetic a ejecutar, separados por nuevas líneas o comas. Si no se proporciona ningún valor, los tests se detectan en los [archivos de configuración de tests][14] Synthetic.
**Por defecto:** ninguno | +| `selectiveRerun` | Si solo se vuelven a ejecutar tests fallidos o no. Si un test ya ha aprobado un commit dado, no se vuelve a ejecutar en los siguientes lotes de CI. Por defecto, se utiliza la [configuración por defecto de tu organización][18]. Configúrala como `false` para forzar ejecuciones completas cuando tu configuración lo permite por defecto.
**Por defecto:** ninguno | +| `subdomain` | El subdominio personalizado para acceder a tu organización Datadog cuando `authenticationType == apiAppKeys`. Si tu URL es `myorg.datadoghq.com`, el subdominio personalizado es `myorg`.
**Por defecto:** `app` | +| `testSearchQuery` | Utiliza una [consulta de búsqueda][10] para seleccionar los tests Synthetic que se van a ejecutar. Utiliza la [barra de búsqueda de la página con la lista de tests Synthetic][15] para crear tu consulta, y luego cópiala y pégala.
**Por defecto:** ninguno | +| `variables` | Inyecta nuevas [variables locales y globales][16] o sobreescribe las existentes en tests Synthetic como pares clave-valor, separadas por nuevas líneas o comas. Por ejemplo: `START_URL=https://example.org,MY_VARIABLE=My title`.
**Por defecto:** ninguno | + +## Salidas + +| Nombre | Descripción | +| ------------------------ | ------------------------------------------------------------------------------------ | +| `batchUrl` | La URL del lote CI. | +| `criticalErrorsCount` | El número de errores críticos que se han producido durante el lote CI. | +| `failedCount` | El número de resultados que han fallado durante el lote CI. | +| `failedNonBlockingCount` | El número de resultados que han fallado durante el lote CI sin bloquear el CI. | +| `passedCount` | El número de resultados que han sido aprobados durante el lote CI. | +| `previouslyPassedCount` | El número de resultados que han sido aprobados en lotes CI anteriores en el mismo commit. | +| `testsNotFoundCount` | El número de tests que no se han podido encontrar al iniciar el lote CI. | +| `testsSkippedCount` | El número de tests que se han omitido al iniciar el lote CI. | +| `timedOutCount` | El número de resultados que han fallado debido a la superación del tiempo de espera del lote CI. | +| `rawResults` | La matriz [`synthetics.Result[]`][20], como cadena codificada en JSON. | + +## Referencias adicionales + +Documentación útil adicional, enlaces y artículos: + +- [Empezando con Continuous Testing][17] - [Configuración de Continuous Testing y CI/CD][4] - [Prácticas recomendadas para tests continuos con Datadog][12] @@ -172,9 +184,15 @@ Más enlaces, artículos y documentación útiles: [6]: https://docs.datadoghq.com/es/account_management/api-app-keys/ [7]: https://docs.microsoft.com/en-us/azure/devops/pipelines/process/set-secret-variables [8]: https://docs.datadoghq.com/es/synthetics/search/#search -[9]: https://docs.datadoghq.com/es/continuous_testing/cicd_integrations/configuration/?tab=npm#setup-the-client -[10]: https://docs.datadoghq.com/es/developers/guide/what-best-practices-are-recommended-for-naming-metrics-and-tags/#rules-and-best-practices-for-naming-tags -[11]: https://docs.datadoghq.com/es/getting_started/site/ +[9]: https://docs.datadoghq.com/es/continuous_testing/cicd_integrations/configuration/?tab=npm#global-configuration-file +[10]: https://docs.datadoghq.com/es/synthetics/explore/#search +[11]: https://docs.datadoghq.com/es/getting_started/site/#access-the-datadog-site [12]: https://www.datadoghq.com/blog/best-practices-datadog-continuous-testing/ -[13]: https://github.com/DataDog/datadog-ci/blob/master/.github/workflows/e2e/global.config.json -[14]: https://docs.datadoghq.com/es/continuous_testing/cicd_integrations/configuration/?tab=npm#test-files \ No newline at end of file +[13]: https://docs.datadoghq.com/es/continuous_testing/cicd_integrations/configuration/?tab=npm#run-tests-command +[14]: https://docs.datadoghq.com/es/continuous_testing/cicd_integrations/configuration/?tab=npm#test-files +[15]: https://app.datadoghq.com/synthetics/tests +[16]: https://docs.datadoghq.com/es/synthetics/platform/settings/?tab=specifyvalue#global-variables +[17]: https://docs.datadoghq.com/es/getting_started/continuous_testing/ +[18]: https://app.datadoghq.com/synthetics/settings/continuous-testing +[19]: https://app.datadoghq.com/api/v1/synthetics/locations?only_public=true +[20]: https://github.com/DataDog/datadog-ci/blob/251299775d28b0535d0e5557fcc494a8124d3b11/src/commands/synthetics/interfaces.ts#L196-L227 \ No newline at end of file diff --git a/content/es/dashboards/guide/is-read-only-deprecation.md b/content/es/dashboards/guide/is-read-only-deprecation.md new file mode 100644 index 0000000000000..09c7d5e6b3111 --- /dev/null +++ b/content/es/dashboards/guide/is-read-only-deprecation.md @@ -0,0 +1,46 @@ +--- +description: Migra del atributo obsoleto is_read_only a restricted_roles o políticas + de restricción para el control de acceso al dashboard. +further_reading: +- link: /dashboards/guide/how-to-use-terraform-to-restrict-dashboard-edit/ + tag: Guía + text: Cómo utilizar Terraform para restringir la edición de un dashboard +- link: /api/latest/restriction-policies/ + tag: API + text: Políticas de restricción +title: 'API de dashboards: Migrar desde is_read_only' +--- + +## Información general + +Datadog está eliminando la compatibilidad con el atributo `is_read_only` en las API de dashboards. Para los clientes que gestionan dashboards con la API directamente, Datadog recomienda que pasen a [`restricted_roles`](#migrate-to-restricted_roles) o a [políticas de restricción](#restriction-policies). + +## Medidas que deben tomarse + +Migra de `is_read_only` a `restricted_roles` o considera la posibilidad de participar en la vista previa de las políticas de restricción. + +### Migrar a `restricted_roles` + +El parámetro `restricted_roles` permite a los propietarios del dashboard asignar permisos específicos a usuarios con roles. + +La migración a `restricted_roles` puede realizarse de forma independiente. Para obtener más información, consulta la documentación del la [API de dashboards][1]. + +### Políticas de restricción + +Las políticas de restricción para dashboards definen las reglas de control del acceso a un recurso. Asigna un conjunto de relaciones (editor y visualizador) a un conjunto de elementos principales permitidos (roles, equipos o usuarios). + +Si estás gestionando dashboards a través de Terraform: +1. Asegúrate de que estás utilizando Datadog Terraform Provider v3.27.0 o posterior. +2. Elimina `is_read_only` y `restricted_role` de los recursos Terraform de tu dashboard. +3. Crea un nuevo recurso [datadog_restriction_policy][2], mencionando el ID del dashboard respectivo y los elementos principales de los atributos recientemente eliminados. +4. Ejecuta `terraform apply`. + +Para ver un ejemplo de recursos de Terraform, consulta la guía sobre el [Uso de Terraform para restringir la edición de un dashboard][3]. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/api/latest/dashboards/ +[2]: https://registry.terraform.io/providers/DataDog/datadog/latest/docs/resources/restriction_policy +[3]: /es/dashboards/guide/how-to-use-terraform-to-restrict-dashboard-edit/#restricting-a-dashboard-using-a-restriction-policy \ No newline at end of file diff --git a/content/es/error_tracking/issue_correlation.md b/content/es/error_tracking/issue_correlation.md new file mode 100644 index 0000000000000..8683d2f04567c --- /dev/null +++ b/content/es/error_tracking/issue_correlation.md @@ -0,0 +1,48 @@ +--- +description: Entiende cómo se agrupan los errores en incidentes. +further_reading: +- link: /monitors/types/error_tracking + tag: Documentación + text: Más información sobre los monitores de seguimiento de errores +- link: /error_tracking/issue_states/ + tag: Documentación + text: Estados de incidentes en Error Tracking +title: Correlación de incidentes con Error Tracking +--- +{{< callout url="https://www.datadoghq.com/product-preview/error-tracking-issue-correlation/" d-toggle="modal" d_target="#signupModal" custom_class="sign-up-trigger">}} +La Correlación de incidentes con Error Tracking está actualmente en vista previa, pero puedes solicitar acceso fácilmente. Utiliza este formulario para enviar tu solicitud. Una vez aprobada, podrás asignar automáticamente incidentes relacionados entre servicios, lo que te ayudará a rastrear el verdadero origen de un incidente. +{{< /callout >}} +## Información general + +{{< img src="error_tracking/issue-correlation-overview.png" alt="Vista de la pestaña de incidentes correlacionados en el contexto del explorador de Error Tracking" style="width:100%;" >}} + +Utiliza Error Tracking para simplificar la depuración agrupando miles de errores similares en un único incidente. Utiliza la correlación de incidentes para determinar la causa del incidente, el impacto que tiene en otros servicios y si el error es consecuencia de una dependencia posterior. + +La correlación de incidentes también ayuda a reducir el ruido de la lista de incidentes identificando los más críticos. Esto te permite alertar al equipo adecuado y lograr una resolución más rápida. + +## Identificar incidentes correlacionados +Para identificar qué incidentes de tus servicios están correlacionadas, ve a la página de Error Tracking en [**Error > Issues** (Error > Incidentes)][1]. + +{{< img src="error_tracking/issue-correlation-et-page.png" alt="Lista de incidentes en el explorador de Error Tracking" style="width:70%;" >}} + +Selecciona un incidente para abrir el panel lateral y ver su información. + +{{< img src="error_tracking/issue-correlation-side-panel.png" alt="Información de un incidente en el explorador de Error Tracking" style="width:70%;" >}} + +Abre la pestaña `Correlated issues` para ver el mapa de correlación de incidentes. + +{{< img src="error_tracking/issue-correlation-correlation-tab.png" alt="Información de un incidente en el explorador de Error Tracking, centrada en la pestaña de correlación de incidentes" style="width:70%;" >}} + +El mapa de correlación de incidentes muestra la siguiente información de un incidente determinado: +- **Root cause** (Causa de origen): servicios que probablemente estén causando el incidente +- **Current issue** (Incidente actual): incidente seleccionado y si está asignado a un equipo +- **Impact** (Impacto): recursos, usuarios y sesiones afectados + + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + + + +[1]: https://app.datadoghq.com/error-tracking \ No newline at end of file diff --git a/content/es/integrations/crest_data_systems_zoho_crm.md b/content/es/integrations/crest_data_systems_zoho_crm.md new file mode 100644 index 0000000000000..83b4644accc99 --- /dev/null +++ b/content/es/integrations/crest_data_systems_zoho_crm.md @@ -0,0 +1,168 @@ +--- +algolia: + subcategory: Integraciones de Marketplace +app_id: crest-data-systems-zoho-crm +app_uuid: cdfd2c18-10a3-49a4-b7d8-1347afa2d158 +assets: + dashboards: + 'Zoho CRM: Campaigns, Tasks, Calls and Meetings': assets/dashboards/crest_data_systems_zoho_crm_campaigns_tasks.json + 'Zoho CRM: Cases and Solutions': assets/dashboards/crest_data_systems_zoho_crm_cases_solutions.json + 'Zoho CRM: Deals': assets/dashboards/crest_data_systems_zoho_crm_deals.json + 'Zoho CRM: Leads, Accounts and Contacts': assets/dashboards/crest_data_systems_zoho_crm_leads_contacts_accounts.json + 'Zoho CRM: Overview': assets/dashboards/crest_data_systems_zoho_crm_overview.json + 'Zoho CRM: Products, Vendors and Price Books': assets/dashboards/crest_data_systems_zoho_crm_products.json + 'Zoho CRM: Purchase Orders, Sales Orders, Invoices and Quotes': assets/dashboards/crest_data_systems_purchase_and_sales_orders.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: true + metrics: + check: cds.zoho.crm.active_users + metadata_path: metadata.csv + prefix: cds.zoho.crm + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 38198692 + source_type_name: crest_data_systems_zoho_crm + monitors: + Leads Converted Today: assets/monitors/crest_data_systems_leads_converted.json +author: + homepage: https://www.crestdata.ai + name: Crest Data + sales_email: datadog-sales@crestdata.ai + support_email: datadog.integrations@crestdata.ai + vendor_id: crest-data-systems +categories: +- marketplace +- colaboración +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: crest_data_systems_zoho_crm +integration_id: crest-data-systems-zoho-crm +integration_title: Zoho CRM +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: crest_data_systems_zoho_crm +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.crest_data_systems.zoho_crm + product_id: zoho-crm + short_description: Por usuarios activos de Zoho CRM por organización y mes + tag: cds_zoho_crm_user_id + unit_label: Cliente activo de Zoho CRM + unit_price: 2.0 +public_title: Zoho CRM +short_description: Monitoriza módulos de Zoho CRM para realizar un seguimiento eficaz + de las ventas, las interacciones con los clientes y las operaciones comerciales. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Marketplace + - Category::Collaboration + - Offering::Integration + - Submitted Data Type::Events + - Tipo de datos enviados::Métricas + - Submitted Data Type::Logs + configuration: README.md#Setup + description: Monitoriza módulos de Zoho CRM para realizar un seguimiento eficaz + de las ventas, las interacciones con los clientes y las operaciones comerciales. + media: + - caption: 'Zoho CRM: información general' + image_url: images/crest_data_systems_zoho_crm_overview.png + media_type: imagen + - caption: 'Zoho CRM: leads, cuentas y contactos' + image_url: images/crest_data_systems_zoho_crm_leads.png + media_type: imagen + - caption: 'Zoho CRM: ofertas' + image_url: images/crest_data_systems_zoho_crm_deals.png + media_type: imagen + - caption: 'Zoho CRM: campañas, tareas, llamadas y reuniones' + image_url: images/crest_data_systems_zoho_crm_campaigns.png + media_type: imagen + - caption: 'Zoho CRM: casos y soluciones' + image_url: images/crest_data_systems_zoho_crm_cases.png + media_type: imagen + - caption: 'Zoho CRM: pedidos de compra, pedidos de venta, facturas y presupuestos' + image_url: images/crest_data_systems_zoho_crm_purchase_order.png + media_type: imagen + - caption: 'Zoho CRM: productos, proveedores y libros de precios' + image_url: images/crest_data_systems_zoho_crm_products.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Zoho CRM + uninstallation: README.md#Uninstallation +--- + + + + +## Información general +Zoho CRM es una potente plataforma de gestión de relaciones con los clientes que agiliza las ventas, el marketing y los procesos de compromiso con el cliente. Mediante la integración con Datadog, las empresas pueden monitorizar tu entorno de Zoho CRM en tiempo real, obteniendo información sobre el rendimiento de las ventas, las interacciones con los clientes, el estado de los proyectos y la eficiencia operativa para impulsar la toma de decisiones basada en datos. + +La integración recopila los siguientes datos: + +- **Métricas**: usuarios activos de Zoho CRM + +- **Log**: Leads, Contactos, Cuentas, Ofertas, Campañas, Llamadas, Tareas, Reuniones, Casos, Soluciones, Órdenes de Compra, Órdenes de Venta, Facturas, Cotizaciones, Productos, Proveedores y Libros de precios + +- **Eventos**: autenticación y validación de la configuración + + +### Dashboards +Esta integración incluye 7 dashboards predefinidos: + +- **Zoho CRM: información general**: proporciona información superficial de todas las actividades de CRM, incluyendo el rendimiento de las ventas y las interacciones con los clientes. +- **Zoho CRM: leads, contactos y cuentas**: realiza un seguimiento de la generación de leads, los detalles de los clientes y las cuentas empresariales para mejorar la gestión de las relaciones y las conversiones. +- **Zoho CRM: ofertas**: monitoriza el pipeline de ventas, etapas de oferta y predicciones de ganancias para optimizar el rendimiento de las ventas. +- **Zoho CRM: campañas, tareas, llamadas y reuniones**: analiza las campañas de marketing, el progreso de las tareas, los logs de llamada y las reuniones para mejorar la productividad y el compromiso. +- **Zoho CRM: casos y soluciones**: ayuda a gestionar los problemas y las soluciones de los clientes, garantizando una asistencia eficaz y la resolución de servicio. +- **Zoho CRM: productos, proveedores y libros de precios**: proporciona información sobre el inventario, las relaciones con los proveedores y las estrategias de precios para ventas y adquisiciones eficientes. +- **Zoho CRM: órdenes de compra, órdenes de venta, facturas y cotizaciones**: rastrea las cotizaciones proporcionadas, el procesamiento de órdenes y los detalles de precios para agilizar las operaciones comerciales. + +## Ayuda + +Para solicitar asistencia o características, ponte en contacto con Crest Data a través de los siguientes canales: + +- Correo electrónico de asistencia: [datadog.integrations@crestdata.ai][6] +- Correo electrónico de ventas: [datadog-sales@crestdata.ai][7] +- Página web: [crestdata.ai][3] +- FAQ: [FAQ de integraciones de Datadog Marketplace de Crest Data][10] + +### Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5]. + + +[1]: https://docs.datadoghq.com/es/agent/guide/agent-commands/?tab=agentv6v7#start-stop-and-restart-the-agent +[2]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[3]: https://www.crestdata.ai/ +[4]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/?tab=agentv6v7 +[5]: https://docs.datadoghq.com/es/help/ +[6]: mailto:datadog.integrations@crestdata.ai +[7]: mailto:datadog-sales@crestdata.ai +[8]: https://docs.crestdata.ai/datadog-integrations-readme/ZohoCRM.pdf +[9]: https://docs.datadoghq.com/es/account_management/api-app-keys +[10]: https://docs.crestdata.ai/datadog-integrations-readme/Crest_Data_Datadog_Integrations_FAQ.pdf +[11]: https://docs.datadoghq.com/es/agent/?tab=Linux +[12]: https://api-console.zoho.com/ +[13]: https://www.zoho.com/crm/developer/docs/api/v7/multi-dc.html + + +--- +Esta aplicación está disponible a través de Datadog Marketplace y cuenta con el apoyo de un socio de Datadog Technology. Para utilizarla, adquiere esta aplicación en el Marketplace. \ No newline at end of file diff --git a/content/es/integrations/dotnet.md b/content/es/integrations/dotnet.md index 7e6d67f564c59..0b6dbe0ed6b8b 100644 --- a/content/es/integrations/dotnet.md +++ b/content/es/integrations/dotnet.md @@ -1,28 +1,12 @@ --- +app_id: dotnet categories: - lenguajes -custom_kind: integration -dependencies: [] -description: Envía métricas de tiempo de ejecución desde tus aplicaciones .NET con - bibliotecas cliente de Datadog. -doc_link: https://docs.datadoghq.com/integrations/dotnet/ -draft: false -further_reading: [] -git_integration_title: dotnet -has_logo: true -integration_id: dotnet -integration_title: .NET -integration_version: '' -is_public: true -manifest_version: '1.0' -name: dotnet -public_title: Integración de Datadog y .NET -short_description: Envía métricas de tiempo de ejecución desde tus aplicaciones .NET - con bibliotecas cliente de Datadog. -version: '1.0' +custom_kind: integración +description: Recopila métricas, trazas y logs de tus aplicaciones .NET. +media: [] +title: Métricas de tiempo de ejecución de .NET --- - - ## Información general La integración .NET te permite recopilar y monitorizar logs, trazas (traces) y métricas personalizadas de tu aplicación .NET. @@ -31,27 +15,53 @@ La integración .NET te permite recopilar y monitorizar logs, trazas (traces) y ### Recopilación de métricas -Consulta la documentación específica para [recopilar métricas de .NET personalizadas con DogStatsD][1]. +Consulta la documentación dedicada para [recopilar métricas personalizadas de .NET con DogStatsD](https://docs.datadoghq.com/developers/dogstatsd/?tab=net). ### Recopilación de trazas -Consulta la documentación específica para [instrumentar tu aplicación .NET][2] para enviar sus trazas a Datadog. +Consulta la documentación dedicada para [instrumentar tu aplicación .NET](https://docs.datadoghq.com/tracing/setup/dotnet/) para enviar sus trazas a Datadog. -### APM +### Recopilación de logs -Disponible para la versión 6.0 o posteriores del Agent +_Disponible para la versión 6.0 o posterior del Agent_ -Consulta la documentación específica para [configurar la recopilación de logs de .NET][3] para reenviar tus logs a Datadog. +Consulta la documentación dedicada sobre cómo [configurar la recopilación de logs de .NET](https://docs.datadoghq.com/logs/log_collection/csharp/) para reenviar tus logs a Datadog. ### Recopilación de perfiles -Consulta la documentación específica para [activar el generador de perfiles de .NET][4]. +Consulta la documentación dedicada para [activar el generador de perfiles de .NET](https://docs.datadoghq.com/profiler/enabling/dotnet/). ## Datos recopilados ### Métricas -{{< get-metrics-from-git "dotnet" >}} +| | | +| --- | --- | +| **runtime.dotnet.cpu.system**
(gauge) | El número de milisegundos que se ejecutan en el kernel
_Se muestra como milisegundo_ | +| **runtime.dotnet.cpu.user**
(gauge) | El número de milisegundos que se ejecutan fuera del kernel
_Se muestra como milisegundo_ | +| **runtime.dotnet.cpu.percent**
(gauge) | El porcentaje de CPU total utilizado por la aplicación
_Se muestra como porcentaje_. | +| **runtime.dotnet.mem.committed**
(gauge) | Uso de memoria
_Se muestra como byte_ | +| **runtime.dotnet.threads.count**
(gauge) | El número de subprocesos
_Se muestra como subproceso_ | +| **runtime.dotnet.threads.workers_count**
(gauge) | El número de trabajadores en el threadpool (sólo .NET Core 3.1+)
_Se muestra como subproceso_ | +| **runtime.dotnet.threads.contention_time**
(gauge) | El tiempo acumulado empleado por los subprocesos que esperan en un bloqueo (sólo .NET Core 3.1+)
_Se muestra como milisegundo_ | +| **runtime.dotnet.threads.contention_count**
(count) | El número de veces que un subproceso se detuvo para esperar en un bloqueo| +| **runtime.dotnet.exceptions.count**
(count) | El número de excepciones de primera oportunidad
_Se muestra como excepción_ | +| **runtime.dotnet.gc.size.gen0**
(gauge) | El tamaño de la pila gen 0
_Se muestra como byte_ | +| **runtime.dotnet.gc.size.gen1**
(gauge) | El tamaño de la pila gen 1
_Se muestra como byte_ | +| **runtime.dotnet.gc.size.gen2**
(gauge) | El tamaño de la pila gen 2
_Se muestra como byte_ | +| **runtime.dotnet.gc.size.loh**
(gauge) | El tamaño de la pila de objetos grandes
_Se muestra como byte_ | +| **runtime.dotnet.gc.memory_load**
(gauge) | El porcentaje de la memoria total utilizada por el proceso. La GC cambia su comportamiento cuando este valor supera el 85. (solo .NET Core 3.1+)
_Se muestra como porcentaje_ | +| **runtime.dotnet.gc.pause_time**
(gauge) | La cantidad de tiempo que la GC pausó los subprocesos de la aplicación (solo .NET Core 3.1+)
_Se muestra como milisegundos_ | +| **runtime.dotnet.gc.count.gen0**
(count) | El número de recolecciones de basura gen 0
_Se muestra como recopilación de basura_ | +| **runtime.dotnet.gc.count.gen1**
(count) | El número de recolecciones de basura gen 1
_Se muestra como recolección de basura_ | +| **runtime.dotnet.gc.count.gen2**
(count) | El número de recolecciones de basura gen 2
_Se muestra como recolección de basura_ | +| **runtime.dotnet.aspnetcore.requests.total**
(gauge) | El número total de solicitudes HTTP recibidas por el servidor (sólo .NET Core 3.1+)
_Se muestra como solicitud_ | +| **runtime.dotnet.aspnetcore.requests.failed**
(gauge) | El número de solicitudes HTTP fallidas recibidas por el servidor (sólo .NET Core 3.1+)
_Se muestra como solicitud_ | +| **runtime.dotnet.aspnetcore.requests.current**
(gauge) | El número total de solicitudes HTTP que se han iniciado pero aún no se han detenido (solo .NET Core 3.1+)
_Se muestra como solicitud_ | +| **runtime.dotnet.aspnetcore.requests.queue_length**
(gauge) | La longitud actual de la cola de solicitudes HTTP del servidor (solo .NET 5+)
_Se muestra como solicitud_ | +| **runtime.dotnet.aspnetcore.connections.total**
(gauge) | El número total de conexiones HTTP establecidas con el servidor (solo .NET 5+)
_Se muestra como conexión_. | +| **runtime.dotnet.aspnetcore.connections.current**
(gauge) | El número actual de conexiones HTTP activas con el servidor (solo .NET 5+)
_Se muestra como conexión_ | +| **runtime.dotnet.aspnetcore.connections.queue_length**
(gauge) | La longitud actual de la cola de connections (conexiones) del servidor HTTP (solo .NET 5+)
_Se muestra como connection (conexión)_ | ### Eventos @@ -61,16 +71,10 @@ La integración .NET no incluye eventos. La integración .NET no incluye checks de servicio. -## Resolución de problemas - -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5]. +## Solucionar problemas -## Leer más +¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog](https://docs.datadoghq.com/help/). -{{< partial name="whats-next/whats-next.html" >}} +## Referencias adicionales -[1]: https://docs.datadoghq.com/es/developers/dogstatsd/?tab=net -[2]: https://docs.datadoghq.com/es/tracing/setup/dotnet/ -[3]: https://docs.datadoghq.com/es/logs/log_collection/csharp/ -[4]: https://docs.datadoghq.com/es/profiler/enabling/dotnet/ -[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/es/integrations/gearmand.md b/content/es/integrations/gearmand.md new file mode 100644 index 0000000000000..543d18eecc8f5 --- /dev/null +++ b/content/es/integrations/gearmand.md @@ -0,0 +1,176 @@ +--- +app_id: gearman +app_uuid: 7e1b6c42-8f40-4f4c-8d58-a3f7f39cb3e5 +assets: + dashboards: + gearman: assets/dashboards/gearman_dashboard.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: gearman.unique_tasks + metadata_path: metadata.csv + prefix: gearman. + process_signatures: + - gearmand + - gearman + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 52 + source_type_name: Gearman + saved_views: + gearman_processes: assets/saved_views/gearman_processes.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/gearmand/README.md +display_on_public_website: true +draft: false +git_integration_title: gearmand +integration_id: gearman +integration_title: Gearman +integration_version: 5.0.0 +is_public: true +manifest_version: 2.0.0 +name: gearmand +public_title: Gearman +short_description: Rastrea el número de trabajos en cola y en ejecución, en total + o por tarea. +supported_os: +- Linux +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Log Collection + - Supported OS::Linux + - Supported OS::macOS + - Offering::Integration + configuration: README.md#Setup + description: Rastrea el número de trabajos en cola y en ejecución, en total o por + tarea. + media: [] + overview: README.md#Overview + support: README.md#Support + title: Gearman +--- + + + + +## Información general + +Recopila métricas de Gearman para: + +- Visualizar el rendimiento de Gearman. +- Saber cuántas tareas están en cola o en ejecución. +- Correlacionar el rendimiento de Gearman con el del resto de tus aplicaciones. + +## Configuración + +### Instalación + +El check de Gearman está incluido en el paquete del [Datadog Agent][1], por lo que no necesitas instalar nada más en tus servidores de Gearman. + +### Configuración + +{{< tabs >}} +{{% tab "Host" %}} + +#### Host + +Para configurar este check para un Agent que se ejecuta en un host: + +1. Edita el archivo `gearmand.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][1], para empezar a recopilar los datos de rendimiento de tu Gearman. Para conocer todas las opciones de configuración disponibles, consulta el [gearmand.d/conf.yaml de ejemplo][2]. + + ```yaml + init_config: + + instances: + - server: localhost + port: 4730 + ``` + +2. [Reinicia el Agent][3]. + +[1]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/#agent-configuration-directory +[2]: https://github.com/DataDog/integrations-core/blob/master/gearmand/datadog_checks/gearmand/data/conf.yaml.example +[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +{{% /tab %}} +{{% tab "Contenedores" %}} + +#### Contenedores + +En el caso de los entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. + +| Parámetro | Valor | +| -------------------- | -------------------------------------- | +| `` | `gearmand` | +| `` | en blanco o `{}` | +| `` | `{"server":"%%host%%", "port":"4730"}` | + +[1]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ +{{% /tab %}} +{{< /tabs >}} + +#### Recopilación de logs + +1. La recopilación de logs está deshabilitada por defecto en el Datadog Agent; habilítala en tu archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Añade este bloque de configuración a tu archivo `gearmand.d/conf.yaml` para empezar a recopilar tus logs de Gearman: + + ```yaml + logs: + - type: file + path: /var/log/gearmand.log + source: gearman + ``` + + Cambia el valor del parámetro `path` en función de tu entorno. Para ver todas las opciones de configuración disponibles, consulta el [gearmand.d/conf.yaml de ejemplo][2]. + +3. [Reinicia el Agent][3]. + +Para obtener más información sobre la configuración del Agent para recopilar logs en entornos Kubernetes, consulta [Recopilación de logs de Kubernetes][4]. + +### Validación + +[Ejecuta el subcomando `status` del Agent][5] y busca `gearmand` en la sección **Checks**. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "gearmand" >}} + + +### Eventos + +El check de Gearman no incluye eventos. + +### Checks de servicios +{{< get-service-checks-from-git "gearmand" >}} + + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][6]. + + +[1]: https://app.datadoghq.com/account/settings/agent/latest +[2]: https://github.com/DataDog/integrations-core/blob/master/gearmand/datadog_checks/gearmand/data/conf.yaml.example +[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[4]: https://docs.datadoghq.com/es/agent/kubernetes/log/ +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[6]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/gitlab.md b/content/es/integrations/gitlab.md index 56b2cde3afd01..e165adf707dab 100644 --- a/content/es/integrations/gitlab.md +++ b/content/es/integrations/gitlab.md @@ -1,137 +1,77 @@ --- app_id: gitlab -app_uuid: 3d165411-7734-4f72-b39a-f222add296b2 -assets: - dashboards: - Gitlab Overview: assets/dashboards/overview.json - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - metrics: - check: - - gitlab.process_max_fds - - gitlab.ruby.process_start_time_seconds - metadata_path: metadata.csv - prefix: gitlab. - process_signatures: - - gitlab-kas - - gitlab-workhorse - - gitlab-ctl - service_checks: - metadata_path: assets/service_checks.json - source_type_id: !!int 10026 - source_type_name: Gitlab -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - collaboration - developer tools - issue tracking - log collection - source control -custom_kind: integration -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/gitlab/README.md -display_on_public_website: true -draft: false -git_integration_title: gitlab -integration_id: gitlab -integration_title: GitLab -integration_version: 9.0.0 -is_public: true -manifest_version: 2.0.0 -name: gitlab -public_title: GitLab -short_description: Track all your GitLab metrics with Datadog. +custom_kind: integración +description: Realiza un seguimiento de todas tus métricas de GitLab con Datadog. +integration_version: 10.0.0 +media: [] supported_os: - linux - windows - macos -tile: - changelog: CHANGELOG.md - classifier_tags: - - Category::Collaboration - - Category::Developer Tools - - Category::Issue Tracking - - Category::Log Collection - - Category::Source Control - - Supported OS::Linux - - Supported OS::Windows - - Supported OS::macOS - - Submitted Data Type::Metrics - - Submitted Data Type::Logs - - Offering::Integration - configuration: README.md#Setup - description: Track all your GitLab metrics with Datadog. - media: [] - overview: README.md#Overview - support: README.md#Support - title: GitLab +title: GitLab --- - - - - ## Información general Una integración que te permite: - visualizar y monitorizar las métricas recopiladas con GitLab y Gitaly a través de Prometheus. -Consulta [Monitorización de GitLab con Prometheus][1] para obtener más información. +Consulta [Monitorización de GitLab con Prometheus](https://docs.gitlab.com/ee/administration/monitoring/prometheus) para obtener más información. -Para lograr una monitorización más profunda de tus pipelines de GitLab, echa un vistazo a [CI Pipeline Visibility][2]. CI Pipeline Visibility brinda información minuciosa sobre el flujo de trabajo del usuario, permite acceder a metadatos detallados de Git y facilita el seguimiento del rendimiento de los pipelines a lo largo del tiempo. +Para una monitorización más exhaustiva de tus pipelines de GitLab, consulta [CI Pipeline Visibility](https://app.datadoghq.com/ci/getting-started). CI Pipeline Visibility proporciona información detallada sobre tu proceso de usuario, te permite acceder a metadatos detallados de Git y realiza un seguimiento del pipeline de rendimiento a lo largo del tiempo. ## Configuración -Esta integración basada en OpenMetrics tiene un modo más reciente (que se habilita al configurar `openmetrics_endpoint` de modo que apunte hacia el endpoint de destino) y un modo heredado (que se habilita al configurar `prometheus_url` en su lugar). Para obtener todas las características más actualizadas, Datadog recomienda habilitar el modo más reciente. Para obtener más información, consulta [Control de versiones más reciente y heredado para las integraciones basadas en OpenMetrics][3]. +Esta integración basada en OpenMetrics tiene un modo más reciente (que se activa configurando `openmetrics_endpoint` para que apunte al endpoint de destino) y un modo heredado (que se activa configurando `prometheus_url` en su lugar). Para obtener todas las características más actualizadas, Datadog recomienda activar el modo más reciente. Para obtener más información, consulta [Última versión y versión heredada para integraciones basadas en OpenMetrics](https://docs.datadoghq.com/integrations/guide/versions-for-openmetrics-based-integrations). -Las métricas marcadas como `[OpenMetricsV1]` u `[OpenMetricsV2]` solo están disponibles con el uso del modo correspondiente de la integración de GitLab. Todas las demás métricas se recopilan en ambos modos. +Las métricas marcadas como `[OpenMetricsV1]` o `[OpenMetricsV2]` solo están disponibles utilizando el modo correspondiente de la integración de GitLab. El resto de métricas se recopilan en ambos modos. ### Instalación -El check de GitLab está incluido en el paquete del [Datadog Agent][4], por lo que no necesitas instalar nada más en tus servidores de GitLab. +La comprobación de GitLab está incluida en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest), por lo que no necesitas instalar nada más en tus servidores de GitLab. ### Configuración {{< tabs >}} + {{% tab "Host" %}} -#### Host +#### host -Para configurar este check para un Agent que se ejecuta en un host, haz lo siguiente: +Para configurar este check para un Agent que se ejecuta en un host: ##### Recopilación de métricas -1. Edita el archivo `gitlab.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del [directorio de configuración del Agent][1], de modo que apunte hacia el [endpoint][2] de las métricas de GitLab. -Revisa el [archivo de ejemplo gitlab.d/conf.yaml][3] para ver todas las opciones de configuración disponibles. Si ya tienes esta integración implementada, consulta el [ejemplo del modo heredado][4]. +1. Edita el archivo `gitlab.d/conf.yaml`, en la carpeta `conf.d/` en la raíz del [directorio de configuración tu Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory), para que apunte al [endpoint] de métricas de GitLab(https://docs.gitlab.com/ee/administration/monitoring/prometheus/gitlab_metrics.html#collecting-the-metrics). + Consulta el [gitlab.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/gitlab/datadog_checks/gitlab/data/conf.yaml.example) para ver todas las opciones de configuración disponibles. Si previamente implementaste esta integración, consulta el [ejemplo heredado](https://github.com/DataDog/integrations-core/blob/7.43.x/gitlab/datadog_checks/gitlab/data/conf.yaml.example). + +1. En la página de configuración de GitLab, asegúrate de que la opción `Enable Prometheus Metrics` está activada (se requiere acceso de administrador). Para obtener más información sobre cómo habilitar la recopilación de métricas, consulta [Métricas de GitLab Prometheus](https://docs.gitlab.com/ee/administration/monitoring/prometheus/gitlab_metrics.html). -2. En la página de parámetros de GitLab, asegúrate de que la opción `Enable Prometheus Metrics` esté habilitada (se requiere acceso de administrador). Para obtener más información sobre cómo habilitar la recopilación de métricas, consulta [Métricas de GitLab con Prometheus][5]. +1. Permite el acceso a los endpoints de monitorización al actualizar `/etc/gitlab/gitlab.rb` con la siguiente línea: -3. Permite el acceso a los endpoints de monitorización al actualizar `/etc/gitlab/gitlab.rb` con la siguiente línea: + ``` + gitlab_rails['monitoring_whitelist'] = ['127.0.0.0/8', '192.168.0.1'] + ``` - ``` - gitlab_rails['monitoring_whitelist'] = ['127.0.0.0/8', '192.168.0.1'] - ``` - **Nota:** Guarda el progreso y reinicia GitLab para ver los cambios. + **Nota** Guarda y reinicia GitLab para ver los cambios. -4. [Reinicia el Agent][6]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). ##### Recopilación de logs -1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent; habilítala en el archivo `datadog.yaml`: +1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`: ```yaml logs_enabled: true ``` -2. Luego, edita `gitlab.d/conf.yaml` y quita los comentarios de las líneas `logs` de la parte inferior. Actualiza `path` con la ruta correcta a tus archivos de logs de GitLab. +1. Luego, edita `gitlab.d/conf.yaml` y quita los comentarios de las líneas `logs` de la parte inferior. Actualiza `path` con la ruta correcta a tus archivos de logs de GitLab. ```yaml logs: @@ -149,20 +89,15 @@ Revisa el [archivo de ejemplo gitlab.d/conf.yaml][3] para ver todas las opciones source: gitlab ``` -3. [Reinicia el Agent][6]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). -[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory -[2]: https://docs.gitlab.com/ee/administration/monitoring/prometheus/gitlab_metrics.html#collecting-the-metrics -[3]: https://github.com/DataDog/integrations-core/blob/master/gitlab/datadog_checks/gitlab/data/conf.yaml.example -[4]: https://github.com/DataDog/integrations-core/blob/7.43.x/gitlab/datadog_checks/gitlab/data/conf.yaml.example -[5]: https://docs.gitlab.com/ee/administration/monitoring/prometheus/gitlab_metrics.html -[6]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent {{% /tab %}} -{{% tab "Contenedorizado" %}} -#### Contenedores +{{% tab "Containerized" %}} + +#### En contenedores -En el caso de los entornos en contenedores, consulta las [Plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican abajo. +Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. ##### Recopilación de métricas @@ -174,132 +109,698 @@ En el caso de los entornos en contenedores, consulta las [Plantillas de integrac ##### Recopilación de logs -La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta [Recopilación de logs de Kubernetes][2]. +La recopilación de logs está desactivada por defecto en el Datadog Agent. Para activarla, consulta [recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/). | Parámetro | Valor | | -------------- | ------------------------------------------- | | `` | `{"source": "gitlab", "service": "gitlab"}` | -[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/ -[2]: https://docs.datadoghq.com/agent/kubernetes/log/ {{% /tab %}} + {{< /tabs >}} ### Validación -[Ejecuta el subcomando de estado del Agent][5] y busca `gitlab` en la sección Checks. +[Ejecuta el subcomando de estado del Agent(https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `gitlab` en la sección Checks. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "gitlab" >}} +| | | +| --- | --- | +| **gitlab.action_cable.active_connections**
(gauge) | Número de clientes de ActionCable WS conectados actualmente
_Se muestra como conexión_ | +| **gitlab.auto_devops_pipelines_completed.count**
(count) | \[OpenMetrics V2\] El contador de pipelines de Auto DevOps completados, etiquetados por estado.| +| **gitlab.auto_devops_pipelines_completed_total**
(count) | \[OpenMetrics V1\] El contador de pipelines de Auto DevOps completados, etiquetados por estado.| +| **gitlab.banzai.cached_render_real_duration_seconds.bucket**
(count) | \[OpenMetrics V2\] La duración de la representación de Markdown en HTML cuando existe salida en caché
_Se muestra como segundo_ | +| **gitlab.banzai.cached_render_real_duration_seconds.count**
(count) | El recuento de la duración de la renderización de Markdown en HTML cuando existe salida en caché| +| **gitlab.banzai.cached_render_real_duration_seconds.sum**
(count) | La suma de la duración de la renderización de Markdown en HTML cuando existe salida en caché
_Se muestra como segundo_ | +| **gitlab.banzai.cacheless_render_real_duration_seconds.bucket**
(count) | \[OpenMetrics V2\] La duración de la representación de Markdown en HTML cuando la salida en caché no existe
_Se muestra como segundo_ | +| **gitlab.banzai.cacheless_render_real_duration_seconds.count**
(count) | El recuento de la duración de la renderización de Markdown en HTML cuando la salida en caché no existe.| +| **gitlab.banzai.cacheless_render_real_duration_seconds.sum**
(count) | La suma de la duración de la renderización de Markdown en HTML cuando la salida en caché no existe
_Se muestra como segundo_ | +| **gitlab.cache.misses.count**
(count) | \[OpenMetrics V2\] El recuento de fallos de lectura de caché
_Se muestra como segundo_ | +| **gitlab.cache.misses_total**
(count) | \[OpenMetrics V1\] El recuento de fallos de lectura de caché
_Se muestra como segundo_ | +| **gitlab.cache.operation_duration_seconds.bucket**
(count) | \[OpenMetrics V2\] El recuento de tiempo de acceso a la caché
_Se muestra como segundo_ | +| **gitlab.cache.operation_duration_seconds.count**
(count) | El recuento del tiempo de acceso a la caché| +| **gitlab.cache.operation_duration_seconds.sum**
(count) | La suma del tiempo de acceso a la caché
_Se muestra como segundo_ | +| **gitlab.cache_operations.count**
(count) | \[OpenMetrics V2\] El recuento de operaciones de caché por controlador/acción| +| **gitlab.cache_operations_total**
(count) | \[OpenMetrics V1\] El recuento de operaciones de caché por controlador/acción| +| **gitlab.ci_pipeline_creation_duration_seconds.bucket**
(count) | \[OpenMetrics V2\] El recuento del tiempo en segundos que se tarda en crear un pipeline de Continuous Integration Continuous Delivery| +| **gitlab.ci_pipeline_creation_duration_seconds.count**
(count) | El recuento del tiempo en segundos que se tarda en crear un pipeline de Continuous Integration Continuous Delivery| +| **gitlab.ci_pipeline_creation_duration_seconds.sum**
(count) | La suma del tiempo en segundos que se tarda en crear un pipeline de Continuous Integration Continuous Delivery
_Se muestra como segundo_ | +| **gitlab.ci_pipeline_size_builds.bucket**
(count) | \[OpenMetrics V2\] El recuento del número total de compilaciones dentro de un pipeline agrupadas por una fuente de pipeline| +| **gitlab.ci_pipeline_size_builds.count**
(count) | El recuento del número total de compilaciones dentro de un pipeline agrupadas por una fuente de pipeline| +| **gitlab.ci_pipeline_size_builds.sum**
(count) | La suma del número total de compilaciones dentro de un pipeline agrupadas por una fuente de pipeline| +| **gitlab.database.connection_pool_busy**
(gauge) | Conexiones en uso cuyo propietario sigue vivo
_Se muestra como conexión_ | +| **gitlab.database.connection_pool_connections**
(gauge) | Conexiones actuales en el grupo
_Se muestra como conexión_ | +| **gitlab.database.connection_pool_dead**
(gauge) | Conexiones en uso cuyo propietario no está vivo
_Se muestra como conexión_ | +| **gitlab.database.connection_pool_idle**
(gauge) | Conexiones no utilizadas
_Se muestra como conexión_ | +| **gitlab.database.connection_pool_size**
(gauge) | Capacidad total de conexión del grupo
_Se muestra como conexión_ | +| **gitlab.database.connection_pool_waiting**
(gauge) | Subprocesos actualmente en espera en esta cola
_Se muestra como subproceso_ | +| **gitlab.database.transaction_seconds.bucket**
(count) | \[OpenMetrics V2\] El tiempo empleado en transacciones de base de datos en segundos
_Se muestra como segundo_ | +| **gitlab.database.transaction_seconds.count**
(count) | El recuento del tiempo empleado en transacciones de base de datos en segundos| +| **gitlab.database.transaction_seconds.sum**
(count) | La suma del tiempo empleado en transacciones de base de datos en segundos
_Se muestra como segundo_ | +| **gitlab.db_load_balancing_hosts**
(gauge) | El número actual de hosts de equilibrio de carga
_Se muestra como host_ | +| **gitlab.db_partitions_missing**
(gauge) | Número de particiones de base de datos esperadas actualmente, pero no presentes| +| **gitlab.db_partitions_present**
(gauge) | Número de particiones de base de datos presentes| +| **gitlab.failed_login_captcha.count**
(count) | \[OpenMetrics V2\] El contador de intentos fallidos de CAPTCHA durante el inicio de sesión| +| **gitlab.failed_login_captcha_total**
(count) | \[OpenMetrics V1\] El contador de intentos fallidos de CAPTCHA durante el inicio de sesión| +| **gitlab.geo.attachments**
(gauge) | El número total de archivos adjuntos disponibles en la entidad primaria| +| **gitlab.geo.attachments_failed**
(gauge) | El número de archivos adjuntos no sincronizados en la entidad secundaria| +| **gitlab.geo.attachments_synced**
(gauge) | El número de archivos adjuntos sincronizados en la entidad secundaria| +| **gitlab.geo.attachments_synced_missing_on_primary**
(gauge) | El número de archivos adjuntos marcados como sincronizados debido a que falta el archivo en la entidad primaria.| +| **gitlab.geo.cursor_last_event_id**
(gauge) | El último ID de base de datos del log de evento procesado por la entidad secundaria| +| **gitlab.geo.cursor_last_event_timestamp**
(gauge) | La última marca de tiempo UNIX del log de evento procesado por la entidad secundaria| +| **gitlab.geo.db_replication_lag_seconds**
(gauge) | El retardo de replicación de la base de datos (segundos)
_Se muestra como segundo_ | +| **gitlab.geo.group.wiki.repositories**
(gauge) | Número de wikis de grupo en la entidad primaria (13.10)| +| **gitlab.geo.group.wiki.repositories_checksum_failed**
(gauge) | Número de wikis de grupo que no han podido calcular la suma de comprobación en la entidad primaria (13.10)| +| **gitlab.geo.group.wiki.repositories_checksum_total**
(gauge) | Número de wikis de grupo para la suma de comprobación en la entidad primaria (16.3)| +| **gitlab.geo.group.wiki.repositories_checksummed**
(gauge) | Número de wikis de grupo que han calculado correctamente la suma de comprobación en la entidad primaria (13.10)| +| **gitlab.geo.group.wiki.repositories_failed**
(gauge) | Número de wikis de grupo sincronizables que no se sincronizan en la entidad secundaria (13.10)| +| **gitlab.geo.group.wiki.repositories_registry**
(gauge) | Número de wikis de grupo en el registro (13.10)| +| **gitlab.geo.group.wiki.repositories_synced**
(gauge) | Número de wikis de grupo sincronizables en la entidad secundaria (13.10)| +| **gitlab.geo.group.wiki.repositories_verification_failed**
(gauge) | Número de wikis de grupo que no han superado la verificación en la entidad secundaria (16.3)| +| **gitlab.geo.group.wiki.repositories_verification_total**
(gauge) | Número de wikis de grupo para intentar verificar en la entidad secundaria (16.3)| +| **gitlab.geo.group.wiki.repositories_verified**
(gauge) | Número de wikis de grupo verificados con éxito en la entidad secundaria (16.3)| +| **gitlab.geo.job_artifacts_synced_missing_on_primary**
(gauge) | El número de artefactos de trabajo marcados como sincronizados debido a que falta el archivo en la entidad primaria.| +| **gitlab.geo.last_event_id**
(gauge) | El ID de la base de datos de la última entrada del log de evento en la entidad primaria.| +| **gitlab.geo.last_event_timestamp**
(gauge) | La marca de tiempo UNIX de la última entrada del log de evento en la entidad primaria| +| **gitlab.geo.last_successful_status_check_timestamp**
(gauge) | La última fecha y hora en la que el estado se actualizó correctamente| +| **gitlab.geo.lfs_objects**
(gauge) | El número total de objetos LFS disponibles en la entidad primaria| +| **gitlab.geo.lfs_objects_failed**
(gauge) | Número de objetos LFS no sincronizados en la entidad secundaria| +| **gitlab.geo.lfs_objects_synced**
(gauge) | Número de objetos LFS sincronizados en la entidad secundaria| +| **gitlab.geo.lfs_objects_synced_missing_on_primary**
(gauge) | El número de objetos LFS marcados como sincronizados debido a que falta el archivo en la primaria.| +| **gitlab.geo.merge_request_diffs**
(gauge) | Número de diferencias de solicitudes de fusión en la entidad primaria| +| **gitlab.geo.merge_request_diffs_checksum_failed**
(gauge) | Número de diferencias de solicitud de fusión en las que no se ha podido calcular la suma de comprobación en la entidad primaria| +| **gitlab.geo.merge_request_diffs_checksummed**
(gauge) | Número de diferencias de solicitud de fusión con suma de comprobación en la entidad primaria| +| **gitlab.geo.merge_request_diffs_failed**
(gauge) | Número de diferencias de solicitudes de fusión sincronizables que no se han sincronizado en la entidad secundaria| +| **gitlab.geo.merge_request_diffs_registry**
(gauge) | Número de diferencias de solicitudes de fusión en el registro| +| **gitlab.geo.merge_request_diffs_synced**
(gauge) | Número de diferencias de solicitudes de fusión sincronizables en la entidad secundaria| +| **gitlab.geo.package_files**
(gauge) | Número de archivos de paquetes en la entidad primaria| +| **gitlab.geo.package_files_checksum_failed**
(gauge) | Número de archivos de paquetes en los que no se ha podido calcular la suma de comprobación en la entidad primaria| +| **gitlab.geo.package_files_checksummed**
(gauge) | Número de archivos de paquetes comprobados en la entidad primaria| +| **gitlab.geo.package_files_failed**
(gauge) | Número de archivos de paquetes sincronizables no sincronizados en la entidad secundaria| +| **gitlab.geo.package_files_registry**
(gauge) | Número de archivos de paquetes en el registro| +| **gitlab.geo.package_files_synced**
(gauge) | Número de archivos de paquetes sincronizables en la entidad secundaria| +| **gitlab.geo.project.repositories**
(gauge) | Número de repositorios de proyecto en la entidad primaria (16.2)| +| **gitlab.geo.project.repositories_checksum_failed**
(gauge) | Número de repositorios de proyecto que no han podido calcular la suma de comprobación en la entidad primaria (16.2)| +| **gitlab.geo.project.repositories_checksum_total**
(gauge) | Número de repositorios de proyecto para la suma de comprobación en la entidad primaria (16.2)| +| **gitlab.geo.project.repositories_checksummed**
(gauge) | Número de repositorios de proyecto que han calculado correctamente la suma de comprobación en la entidad primaria (16.2)| +| **gitlab.geo.project.repositories_failed**
(gauge) | Número de repositorios sincronizables de proyecto no sincronizados en la entidad secundaria (16.2)| +| **gitlab.geo.project.repositories_registry**
(gauge) | Número de repositorios de proyecto en el registro (16.2)| +| **gitlab.geo.project.repositories_synced**
(gauge) | Número de repositorios de proyecto sincronizables en la entidad secundaria (16.2)| +| **gitlab.geo.project.repositories_verification_failed**
(gauge) | Número de repositorios de proyecto que no han pasado la verificación en la entidad secundaria (16.2)| +| **gitlab.geo.project.repositories_verification_total**
(gauge) | Número de repositorios de proyecto a intentar verificar en la entidad secundaria (16.2)| +| **gitlab.geo.project.repositories_verified**
(gauge) | Número de repositorios de proyecto verificados con éxito en la entidad secundaria (16.2)| +| **gitlab.geo.project.wiki.repositories**
(gauge) | Número de repositorios wiki de proyecto en la entidad primaria (15.10)| +| **gitlab.geo.project.wiki.repositories_checksum_failed**
(gauge) | Número de repositorios wiki de proyecto que fallaron al calcular la suma de comprobación en la entidad primaria (15.10)| +| **gitlab.geo.project.wiki.repositories_checksum_total**
(gauge) | Número de repositorios de wiki de proyecto para comprobar la suma en la entidad primaria (15.10)| +| **gitlab.geo.project.wiki.repositories_checksummed**
(gauge) | Número de repositorios de wiki de proyecto que han calculado correctamente la suma de comprobación en la entidad primaria (15.10)| +| **gitlab.geo.project.wiki.repositories_failed**
(gauge) | Número de repositorios de wiki de proyecto sincronizables que no se sincronizan en la entidad secundaria (15.10)| +| **gitlab.geo.project.wiki.repositories_registry**
(gauge) | Número de repositorios de wiki de proyecto en el registro (15.10)| +| **gitlab.geo.project.wiki.repositories_synced**
(gauge) | Número de repositorios de wiki de proyecto sincronizables en la entidad secundaria (15.10)| +| **gitlab.geo.project.wiki.repositories_verification_failed**
(gauge) | Número de repositorios de wiki de proyecto que fallaron la verificación en la entidad secundaria (15.10)| +| **gitlab.geo.project.wiki.repositories_verification_total**
(gauge) | Número de repositorios de wiki de proyecto a intentar verificar en la entidad secundaria (15.10)| +| **gitlab.geo.project.wiki.repositories_verified**
(gauge) | Número de repositorios de wiki de proyecto verificados con éxito en la entidad secundaria (15.10)| +| **gitlab.geo.repositories**
(gauge) | El número total de repositorios disponibles en la entidad primaria| +| **gitlab.geo.repositories_checked_count**
(gauge) | El número de repositorios que se han comprobado mediante git fsck| +| **gitlab.geo.repositories_checked_failed_count**
(gauge) | El número de repositorios que tienen un fallo de git fsck| +| **gitlab.geo.repositories_checksum_failed_count**
(gauge) | El número de repositorios que no han podido calcular la suma de comprobación en la entidad primaria| +| **gitlab.geo.repositories_checksum_mismatch_count**
(gauge) | Número de repositorios cuya suma de comprobación no coincide en la entidad secundaria| +| **gitlab.geo.repositories_checksummed_count**
(gauge) | Número de repositorios comprobados en la entidad primaria| +| **gitlab.geo.repositories_failed**
(gauge) | Número de repositorios no sincronizados en la entidad secundaria| +| **gitlab.geo.repositories_retrying_verification_count**
(gauge) | Número de fallos de verificación de repositorios que Geo está intentando corregir activamente en la entidad secundaria.| +| **gitlab.geo.repositories_synced**
(gauge) | Número de repositorios sincronizados en la entidad secundaria| +| **gitlab.geo.repositories_verification_failed_count**
(gauge) | Número de repositorios no verificados en la entidad secundaria| +| **gitlab.geo.repositories_verified_count**
(gauge) | El número de repositorios verificados en la entidad secundaria| +| **gitlab.geo.status_failed.count**
(count) | \[OpenMetrics V2\] Número de veces que ha fallado la recuperación del estado del nodo de Geo.| +| **gitlab.geo.status_failed_total**
(count) | \[OpenMetrics V1\] El número de veces que falló la recuperación del estado del nodo de Geo.| +| **gitlab.geo.terraform_states**
(gauge) | Número de estados de terraform en la entidad primaria| +| **gitlab.geo.terraform_states_checksum_failed**
(gauge) | Número de estados de terraform en los que no se ha podido calcular la suma de comprobación en la entidad primaria| +| **gitlab.geo.terraform_states_checksummed**
(gauge) | Número de estados de terraform comprobados en la entidad primaria| +| **gitlab.geo.terraform_states_failed**
(gauge) | Número de estados de terraform sincronizables no sincronizados en la entidad secundaria| +| **gitlab.geo.terraform_states_registry**
(gauge) | Número de estados de terraform en el registro| +| **gitlab.geo.terraform_states_synced**
(gauge) | Número de estados de terraform sincronizables en la entidad secundaria| +| **gitlab.geo.wikis_checksum_failed_count**
(gauge) | El número de wikis que no han podido calcular la suma de comprobación en la entidad primaria| +| **gitlab.geo.wikis_checksum_mismatch_count**
(gauge) | Número de wikis cuya suma de comprobación no coincide en la entidad secundaria| +| **gitlab.geo.wikis_checksummed_count**
(gauge) | Número de wikis verificados en la entidad primaria| +| **gitlab.geo.wikis_retrying_verification_count**
(gauge) | Número de fallos de verificación de wikis que Geo está intentando corregir activamente en la entidad secundaria.| +| **gitlab.geo.wikis_verification_failed_count**
(gauge) | El número de wikis no verificadas en la entidad secundaria| +| **gitlab.geo.wikis_verified_count**
(gauge) | El número de wikis verificados en la entidad secundaria| +| **gitlab.gitaly.cacheinvalidator_rpc.count**
(count) | \[OpenMetrics V2\] Número total de RPCs encontrados por el invalidador de caché.| +| **gitlab.gitaly.catfile_cache_members**
(gauge) | \[OpenMetrics V2\] Indicador de los miembros de la caché catfile por tipo de proceso.| +| **gitlab.gitaly.catfile_processes**
(gauge) | \[OpenMetrics V2\] .| +| **gitlab.gitaly.command.context_switches.count**
(count) | \[OpenMetrics V2\] Suma de cambios de contexto realizados durante el proceso de shell.| +| **gitlab.gitaly.command.cpu_seconds.count**
(count) | \[OpenMetrics V2\] Suma del tiempo de CPU gastado en el proceso de shell.| +| **gitlab.gitaly.command.major_page_faults.count**
(count) | \[OpenMetrics V2\] Suma de los fallos graves de la página realizados en el proceso de shell.| +| **gitlab.gitaly.command.minor_page_faults.count**
(count) | \[OpenMetrics V2\] Suma de los fallos secundarios de la página realizados en el proceso de shell.| +| **gitlab.gitaly.command.real_seconds.count**
(count) | \[OpenMetrics V2\] Suma de tiempo real gastado en el proceso de shell.| +| **gitlab.gitaly.command.signals_received.count**
(count) | \[OpenMetrics V2\] Suma de tiempo real gastado en el proceso de shell.| +| **gitlab.gitaly.command.spawn_token_acquiring_seconds.count**
(count) | \[OpenMetrics V2\] Suma de tiempo de espera de un token de spawn.
_Se muestra como segundo_ | +| **gitlab.gitaly.commands_running**
(gauge) | \[OpenMetrics V2\] Número total de procesos que se están ejecutando actualmente.| +| **gitlab.gitaly.concurrency_limiting_acquiring_seconds.bucket**
(count) | \[OpenMetrics V2\] Buckets de histograma del tiempo que las llamadas tienen tarifa limitada.
_Se muestra como segundo_ | +| **gitlab.gitaly.concurrency_limiting_acquiring_seconds.count**
(count) | \[OpenMetrics V2\] Recuento del tiempo en que las llamadas tienen tarifa limitada.
_Se muestra como segundo_ | +| **gitlab.gitaly.concurrency_limiting_acquiring_seconds.sum**
(count) | \[OpenMetrics V2\] Suma de tiempo en que las llamadas tienen tarifa limitada.
_Se muestra como segundo_ | +| **gitlab.gitaly.concurrency_limiting_in_progress**
(gauge) | \[OpenMetrics V2\] Indicador del número de llamadas concurrentes en curso.| +| **gitlab.gitaly.concurrency_limiting_queued**
(gauge) | \[OpenMetrics V2\] Indicador del número de llamadas en cola.| +| **gitlab.gitaly.diskcache.bytes_fetched.count**
(count) | \[OpenMetrics V2\] Número total de bytes de caché de disco recuperados.
_Se muestra como byte_ | +| **gitlab.gitaly.diskcache.bytes_loser.count**
(count) | \[OpenMetrics V2\] Número total de bytes de caché de disco por pérdida de escrituras.
_Se muestra como byte_ | +| **gitlab.gitaly.diskcache.bytes_stored.count**
(count) | \[OpenMetrics V2\] Número total de bytes de caché de disco almacenados.
_Se muestra como byte_ | +| **gitlab.gitaly.diskcache.miss.count**
(count) | \[OpenMetrics V2\] Número total de pérdidas de caché de disco.| +| **gitlab.gitaly.diskcache.requests.count**
(count) | \[OpenMetrics V2\] Número total de solicitudes de caché de disco.| +| **gitlab.gitaly.diskcache.walker_empty_dir.count**
(count) | \[OpenMetrics V2\] Número total de directorios vacíos encontrados.| +| **gitlab.gitaly.diskcache.walker_empty_dir_removal.count**
(count) | \[OpenMetrics V2\] Número total de directorios vacíos eliminados.| +| **gitlab.gitaly.diskcache.walker_error.count**
(count) | \[OpenMetrics V2\] Número total de eventos durante los recorridos por el sistema de archivos diskcache.| +| **gitlab.gitaly.diskcache.walker_removal.count**
(count) | \[OpenMetrics V2\] Retraso entre la llamada al servicio de transacciones y la recepción de una respuesta.| +| **gitlab.gitaly.go.gc_duration_seconds.count**
(count) | \[OpenMetrics V2\] Resumen de la duración de la pausa de los ciclos de recopilación de elementos no usados.
_Se muestra en segundos_ | +| **gitlab.gitaly.go.gc_duration_seconds.quantile**
(gauge) | \[OpenMetrics V2\] Resumen de la duración de la pausa de los ciclos de recopilación de elementos no usados.
_Se muestra en segundos_ | +| **gitlab.gitaly.go.gc_duration_seconds.sum**
(count) | \[OpenMetrics V2\] Resumen de la duración de la pausa de los ciclos de recopilación de elementos no usados.
_Se muestra en segundos_ | +| **gitlab.gitaly.go.goroutines**
(gauge) | \[OpenMetrics V2\] Número de goroutines que existen actualmente.| +| **gitlab.gitaly.go.info**
(gauge) | \[OpenMetrics V2\] Información sobre el entorno de Go.| +| **gitlab.gitaly.go.memstats_alloc_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes asignados y aún en uso.
_Se muestra como byte_ | +| **gitlab.gitaly.go.memstats_buck_hash_sys_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes utilizados por la tabla hash del bucket de perfiles.
_Se muestra como byte_ | +| **gitlab.gitaly.go.memstats_frees.count**
(count) | \[OpenMetrics V2\] Número total de libres.| +| **gitlab.gitaly.go.memstats_gc_sys_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes utilizados para los metadatos del sistema de recopilación de elementos no usados.
_Se muestra como byte_ | +| **gitlab.gitaly.go.memstats_heap_alloc_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes de heap asignados y aún en uso.
_Se muestra como byte_ | +| **gitlab.gitaly.go.memstats_heap_idle_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes del heap en espera de ser utilizados.
_Se muestra como byte_ | +| **gitlab.gitaly.go.memstats_heap_inuse_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes del heap que están en uso.
_Se muestra como byte_ | +| **gitlab.gitaly.go.memstats_heap_objects**
(gauge) | \[OpenMetrics V2\] Número de objetos asignados.| +| **gitlab.gitaly.go.memstats_heap_released_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes de heap liberados al SO.
_Se muestra como byte_ | +| **gitlab.gitaly.go.memstats_heap_sys_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes de heap obtenidos del sistema.
_Se muestra como byte_ | +| **gitlab.gitaly.go.memstats_last_gc_time_seconds**
(gauge) | \[OpenMetrics V2\] Número de segundos transcurridos desde 1970 de la última recopilación de elementos no usados.
_Se muestra como segundo_ | +| **gitlab.gitaly.go.memstats_lookups.count**
(count) | \[OpenMetrics V2\] Número total de búsquedas de punteros.| +| **gitlab.gitaly.go.memstats_mallocs.count**
(count) | \[OpenMetrics V2\] Número total de mallocs.| +| **gitlab.gitaly.go.memstats_mcache_inuse_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes en uso por las estructuras mcache.
_Se muestra como byte_ | +| **gitlab.gitaly.go.memstats_mcache_sys_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes utilizados para las estructuras mcache obtenidas del sistema.
_Se muestra como byte_ | +| **gitlab.gitaly.go.memstats_mspan_inuse_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes en uso por las estructuras mspan.
_Se muestra como byte_ | +| **gitlab.gitaly.go.memstats_mspan_sys_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes utilizados para las estructuras mspan obtenidas del sistema.
_Se muestra como byte_ | +| **gitlab.gitaly.go.memstats_next_gc_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes del heap cuando se realice la próxima recopilación de elementos no usados.
_Se muestra como byte_ | +| **gitlab.gitaly.go.memstats_other_sys_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes utilizados para otras asignaciones del sistema.
_Se muestra como byte_ | +| **gitlab.gitaly.go.memstats_stack_inuse_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes en uso por el asignador de stack tecnológico.
_Se muestra como byte_ | +| **gitlab.gitaly.go.memstats_stack_sys_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes obtenidos del sistema para el asignador de stack tecnológico.
_Se muestra como byte_ | +| **gitlab.gitaly.go.memstats_sys_bytes**
(gauge) | \[OpenMetrics V2\] Número de bytes obtenidos del sistema.
_Se muestra como byte_ | +| **gitlab.gitaly.go.threads**
(gauge) | \[OpenMetrics V2\] Número de subprocesos de SO creados.| +| **gitlab.gitaly.grpc_server.handled.count**
(count) | \[OpenMetrics V2\] Número total de RPCs completados en el servidor, independientemente del éxito o fracaso.| +| **gitlab.gitaly.grpc_server.handling_seconds.bucket**
(count) | \[OpenMetrics V2\] Bucket de histograma de la latencia de respuesta de gRPC que había sido gestionada a nivel de aplicación por el servidor.
_Se muestra como segundo_ | +| **gitlab.gitaly.grpc_server.handling_seconds.count**
(count) | \[OpenMetrics V2\] Recuento de la latencia de respuesta de gRPC que había sido gestionada a nivel de aplicación por el servidor.
_Se muestra como segundo_ | +| **gitlab.gitaly.grpc_server.handling_seconds.sum**
(count) | \[OpenMetrics V2\] Suma de la latencia de respuesta de gRPC que ha sido gestionada a nivel de aplicación por el servidor.
_Se muestra como segundo_ | +| **gitlab.gitaly.grpc_server.msg_received.count**
(count) | \[OpenMetrics V2\] Número total de mensajes de flujo de RPC recibidos en el servidor.| +| **gitlab.gitaly.grpc_server.msg_sent.count**
(count) | \[OpenMetrics V2\] Número total de mensajes de flujo de gRPC enviados por el servidor.| +| **gitlab.gitaly.grpc_server.started.count**
(count) | \[OpenMetrics V2\] Número total de RPCs iniciados en el servidor.| +| **gitlab.gitaly.hook_transaction_voting_delay_seconds.bucket**
(count) | \[OpenMetrics V2\] Retraso entre la llamada al servicio de transacciones y la recepción de una respuesta.
_Se muestra como segundo_ | +| **gitlab.gitaly.hook_transaction_voting_delay_seconds.count**
(count) | \[OpenMetrics V2\] Retraso entre la llamada al servicio de transacciones y la recepción de una respuesta.
_Se muestra como segundo_ | +| **gitlab.gitaly.hook_transaction_voting_delay_seconds.sum**
(count) | \[OpenMetrics V2\] Retraso entre la llamada al servicio de transacciones y la recepción de una respuesta.
_Se muestra como segundo_ | +| **gitlab.gitaly.inforef_cache_attempt.count**
(count) | \[OpenMetrics V2\] Número total de RPCs smarthttp info-ref que acceden a la caché.| +| **gitlab.gitaly.list_commits_by_oid_request_size.bucket**
(count) | \[OpenMetrics V2\] Número de confirmaciones solicitadas en una solicitud ListCommitsByOid.| +| **gitlab.gitaly.list_commits_by_oid_request_size.count**
(count) | \[OpenMetrics V2\] Número de confirmaciones solicitadas en una solicitud ListCommitsByOid.| +| **gitlab.gitaly.list_commits_by_oid_request_size.sum**
(count) | \[OpenMetrics V2\] Número de confirmaciones solicitadas en una solicitud ListCommitsByOid.| +| **gitlab.gitaly.pack_objects.acquiring_seconds.bucket**
(count) | \[OpenMetrics V2\] Bucket de histograma de tiempo en que las llamadas tienen tarifa limitada.
_Se muestra como segundo_ | +| **gitlab.gitaly.pack_objects.acquiring_seconds.count**
(count) | \[OpenMetrics V2\] Recuento del tiempo en que las llamadas tienen tarifa limitada.
_Se muestra como segundo_ | +| **gitlab.gitaly.pack_objects.acquiring_seconds.sum**
(count) | \[OpenMetrics V2\] Suma de tiempo en que las llamadas tienen tarifa limitada.
_Se muestra como segundo_ | +| **gitlab.gitaly.pack_objects.generated_bytes.count**
(count) | \[OpenMetrics V2\] Número de bytes generados en PackObjectsHook al ejecutar git-pack-objects.
_Se muestra como byte_ | +| **gitlab.gitaly.pack_objects.in_progress**
(gauge) | \[OpenMetrics V2\] Indicador del número de llamadas concurrentes en curso.| +| **gitlab.gitaly.pack_objects.queued**
(gauge) | \[OpenMetrics V2\] Indicador del número de llamadas en cola.| +| **gitlab.gitaly.pack_objects.served_bytes.count**
(count) | \[OpenMetrics V2\] Número de bytes de datos git-pack-objects entregados a clientes.
_Se muestra como byte_ | +| **gitlab.gitaly.process_cpu_seconds.count**
(count) | \[OpenMetrics V2\] Tiempo total de CPU del usuario y del sistema empleado en segundos.
_Se muestra en segundos_ | +| **gitlab.gitaly.process_max_fds**
(gauge) | \[OpenMetrics V2\] Número máximo de descriptores de archivo abiertos.| +| **gitlab.gitaly.process_open_fds**
(gauge) | \[OpenMetrics V2\] Número de descriptores de archivo abiertos.| +| **gitlab.gitaly.process_resident_memory_bytes**
(gauge) | \[OpenMetrics V2\] Tamaño de la memoria residente en bytes.
_Se muestra como byte_ | +| **gitlab.gitaly.process_start_time_seconds**
(gauge) | \[OpenMetrics V2\] Tiempo de inicio del proceso desde unix epoch en segundos.
_Se muestra como segundo_ | +| **gitlab.gitaly.process_virtual_memory_bytes**
(gauge) | \[OpenMetrics V2\] Tamaño de la memoria virtual en bytes.
_Se muestra como byte_ | +| **gitlab.gitaly.process_virtual_memory_max_bytes**
(gauge) | \[OpenMetrics V2\] Cantidad máxima de memoria virtual disponible en bytes.
_Se muestra como byte_ | +| **gitlab.gitaly.promhttp_metric_handler_requests.count**
(count) | \[OpenMetrics V2\] Número total de scrapes por código de estado HTTP.| +| **gitlab.gitaly.promhttp_metric_handler_requests_in_flight**
(gauge) | \[OpenMetrics V2\] Número actual de scrapes que se están entregando.| +| **gitlab.gitaly.spawn_timeouts.count**
(count) | \[OpenMetrics V2\] Número de procesos de tiempo de espera de spawn.| +| **gitlab.gitaly.streamcache_sendfile_bytes.count**
(count) | \[OpenMetrics V2\] Número de bytes enviados usando sendfile.
_Se muestra como byte_ | +| **gitlab.global_search_awaiting_indexing_queue_size**
(gauge) | Número de actualizaciones de la base de datos en espera de ser sincronizadas con Elasticsearch mientras la indexación está en pausa| +| **gitlab.global_search_bulk_cron_queue_size**
(gauge) | Número de registros de la base de datos a la espera de ser sincronizados con Elasticsearch| +| **gitlab.go_gc_duration_seconds**
(gauge) | Un resumen de las duraciones de invocación de GC
_Se muestra como solicitud_ | +| **gitlab.go_gc_duration_seconds_count**
(gauge) | El recuento de las duraciones de invocación de GC
_Se muestra como solicitud_ | +| **gitlab.go_gc_duration_seconds_sum**
(count) | La suma de las duraciones de invocación de GC
_Se muestra como solicitud_ | +| **gitlab.go_goroutines**
(gauge) | El número de goroutines que existen actualmente
_Se muestra como solicitud_ | +| **gitlab.go_memstats_alloc_bytes**
(gauge) | El número de bytes asignados y aún en uso
_Se muestra como byte_ | +| **gitlab.go_memstats_alloc_bytes.count**
(count) | \[OpenMetrics V2\] El número total de bytes asignados
_Se muestra como byte_ | +| **gitlab.go_memstats_alloc_bytes_total**
(count) | \[OpenMetrics V1\] El número total de bytes asignados
_Se muestra como byte_ | +| **gitlab.go_memstats_buck_hash_sys_bytes**
(gauge) | El número de bytes utilizados por la tabla hash del bucket de perfiles
_Se muestra como byte_ | +| **gitlab.go_memstats_frees.count**
(count) | \[OpenMetrics V2\] El número total de libres
_Se muestra como solicitud_ | +| **gitlab.go_memstats_frees_total**
(count) | \[OpenMetrics V1\] El número total de libres
_Se muestra como solicitud_ | +| **gitlab.go_memstats_gc_cpu_fraction**
(gauge) | La fracción del tiempo de CPU disponible de este programa utilizado por el GC desde que el programa se inició
_Se muestra como solicitud_ | +| **gitlab.go_memstats_gc_sys_bytes**
(gauge) | El número de bytes utilizados para los metadatos del sistema de recopilación de elementos no usados
_Se muestra como byte_ | +| **gitlab.go_memstats_heap_alloc_bytes**
(gauge) | El número de bytes del heap asignados y aún en uso
_Se muestra como byte_ | +| **gitlab.go_memstats_heap_idle_bytes**
(gauge) | El número de bytes del heap en espera de ser utilizados
_Se muestra como byte_ | +| **gitlab.go_memstats_heap_inuse_bytes**
(gauge) | El número de bytes del heap que están en uso
_Se muestra como byte_ | +| **gitlab.go_memstats_heap_objects**
(gauge) | El número de objetos asignados
_Se muestra como solicitud_ | +| **gitlab.go_memstats_heap_released_bytes.count**
(count) | \[OpenMetrics V2\] El número total de bytes de heap liberados al SO
_Se muestra como byte_ | +| **gitlab.go_memstats_heap_released_bytes_total**
(count) | \[OpenMetrics V1\] El número total de bytes de heap liberados al SO
_Se muestra como byte_ | +| **gitlab.go_memstats_heap_sys_bytes**
(gauge) | El número de bytes del heap obtenidos del sistema
_Se muestra como byte_ | +| **gitlab.go_memstats_last_gc_time_seconds**
(gauge) | El número de segundos desde 1970 de la última recopilación de elementos no usados
_Se muestra como solicitud_ | +| **gitlab.go_memstats_lookups.count**
(count) | \[OpenMetrics V2\] El número total de búsquedas de punteros
_Se muestra como solicitud_ | +| **gitlab.go_memstats_lookups_total**
(count) | \[OpenMetrics V1\] El número total de búsquedas de punteros
_Se muestra como solicitud_ | +| **gitlab.go_memstats_mallocs.count**
(count) | \[OpenMetrics V2\] El número total de mallocs
_Se muestra como solicitud_ | +| **gitlab.go_memstats_mallocs_total**
(count) | \[OpenMetrics V1\] El número total de mallocs
_Se muestra como solicitud_ | +| **gitlab.go_memstats_mcache_inuse_bytes**
(gauge) | El número de bytes en uso por las estructuras mcache
_Se muestra como byte_ | +| **gitlab.go_memstats_mcache_sys_bytes**
(gauge) | El número de bytes utilizados para las estructuras mcache obtenidas del sistema
_Se muestra como byte_ | +| **gitlab.go_memstats_mspan_inuse_bytes**
(gauge) | El número de bytes en uso por las estructuras mspan
_Se muestra como byte_ | +| **gitlab.go_memstats_mspan_sys_bytes**
(gauge) | El número de bytes utilizados para las estructuras mspan obtenidas del sistema
_Se muestra como byte_ | +| **gitlab.go_memstats_next_gc_bytes**
(gauge) | El número de bytes del heap cuando la próxima recopilación de elementos no usados se llevará a cabo
_Se muestra como byte_ | +| **gitlab.go_memstats_other_sys_bytes**
(gauge) | El número de bytes utilizados para otras asignaciones del sistema
_Se muestra como byte_ | +| **gitlab.go_memstats_stack_inuse_bytes**
(gauge) | El número de bytes en uso por el asignador de stack tecnológico
_Se muestra como byte_ | +| **gitlab.go_memstats_stack_sys_bytes**
(gauge) | El número de bytes obtenidos del sistema para el asignador de stack tecnológico
_Se muestra como byte_ | +| **gitlab.go_memstats_sys_bytes**
(gauge) | Número de bytes obtenidos por sistema. Suma de todas las asignaciones del sistema
_Se muestra como byte_ | +| **gitlab.go_threads**
(gauge) | El número de subprocesos de SO create
_Se muestra como solicitud_ | +| **gitlab.http.elasticsearch_requests_duration_seconds.bucket**
(count) | \[OpenMetrics V2\] El recuento de la duración de las solicitudes elasticsearch durante las transacciones web.| +| **gitlab.http.elasticsearch_requests_duration_seconds.count**
(count) | El recuento de la duración de las solicitudes elasticsearch durante las transacciones web| +| **gitlab.http.elasticsearch_requests_duration_seconds.sum**
(count) | La suma de la duración de las solicitudes elasticsearch durante las transacciones web
_Se muestra como segundo_ | +| **gitlab.http.elasticsearch_requests_total**
(count) | Recuento de solicitudes de Elasticsearch durante las transacciones web
_Se muestra como solicitud_ | +| **gitlab.http_request_duration_microseconds**
(gauge) | Las latencias de las solicitudes HTTP en microsegundos
_Se muestra como solicitud_ | +| **gitlab.http_request_size_bytes**
(gauge) | El tamaño de las solicitudes HTTP en bytes
_Se muestra como byte_ | +| **gitlab.http_response_size_bytes**
(gauge) | El tamaño de la respuesta HTTP en bytes
_Se muestra como byte_ | +| **gitlab.job.waiter_started.count**
(count) | \[OpenMetrics V2\] El número de lotes de trabajos iniciados donde una solicitud web está esperando a que los trabajos se completen
_Se muestra como trabajo_ | +| **gitlab.job.waiter_started_total**
(count) | \[OpenMetrics V1\] El número de lotes de trabajos iniciados donde una solicitud web está esperando a que los trabajos se completen
_Se muestra como trabajo_ | +| **gitlab.job.waiter_timeouts.count**
(count) | \[OpenMetrics V2\] El número de lotes de trabajos que expiraron cuando una solicitud web está esperando a que los trabajos se completen
_Se muestra como trabajo_ | +| **gitlab.job.waiter_timeouts_total**
(count) | \[OpenMetrics V1\] El número de lotes de trabajos que expiraron cuando una solicitud web está esperando a que los trabajos se completen
_Se muestra como trabajo_ | +| **gitlab.method_call_duration_seconds.bucket**
(count) | \[OpenMetrics V2\] El recuento de la duración real de las llamadas al método
_Se muestra como segundo_ | +| **gitlab.method_call_duration_seconds.count**
(count) | El recuento de duración real de llamadas al método| +| **gitlab.method_call_duration_seconds.sum**
(count) | La suma de duración real de las llamadas al método
_Se muestra como segundo_ | +| **gitlab.page_out_of_bounds**
(count) | Contador del límite de paginación PageLimiter alcanzado| +| **gitlab.pipelines_created.count**
(count) | \[OpenMetrics V2\] El contador de pipelines creados.| +| **gitlab.pipelines_created_total**
(count) | \[OpenMetrics V1\] El contador de pipelines creados| +| **gitlab.process_cpu_seconds.count**
(count) | \[OpenMetrics V2\] El tiempo total de CPU del usuario y del sistema empleado en segundos
_Se muestra como solicitud_ | +| **gitlab.process_cpu_seconds_total**
(count) | \[OpenMetrics V1\] El tiempo total de CPU del usuario y del sistema empleado en segundos
_Se muestra como solicitud_ | +| **gitlab.process_max_fds**
(gauge) | El número máximo de descriptores de archivo abiertos
_Se muestra como solicitud_ | +| **gitlab.process_open_fds**
(gauge) | El número de descriptores de archivo abiertos
_Se muestra como solicitud_ | +| **gitlab.process_resident_memory_bytes**
(gauge) | El tamaño de la memoria residente en bytes
_Se muestra como byte_ | +| **gitlab.process_start_time_seconds**
(gauge) | La hora de inicio del proceso desde unix epoch en segundos
_Se muestra como solicitud_ | +| **gitlab.process_virtual_memory_bytes**
(gauge) | El tamaño de la memoria virtual en bytes
_Se muestra como byte_ | +| **gitlab.prometheus_build_info**
(gauge) | Una métrica con un valor constante de '1' etiquetada por rama de revisión de versión y goversion a partir de la cual se construyó prometheus
_Se muestra como solicitud_ | +| **gitlab.prometheus_config_last_reload_success_timestamp_seconds**
(gauge) | La marca de tiempo de la última recarga de configuración con éxito
_Se muestra como solicitud_ | +| **gitlab.prometheus_config_last_reload_successful**
(gauge) | Si el último intento de recarga de la configuración se ha realizado correctamente
_Se muestra como solicitud_ | +| **gitlab.prometheus_engine_queries**
(gauge) | El número actual de consultas en ejecución o en espera
_Se muestra como solicitud_ | +| **gitlab.prometheus_engine_queries_concurrent_max**
(gauge) | El número máximo de consultas concurrentes
_Se muestra como solicitud_ | +| **gitlab.prometheus_engine_query_duration_seconds**
(gauge) | El tiempo de consulta
_Se muestra como solicitud_ | +| **gitlab.prometheus_evaluator_duration_seconds**
(gauge) | La duración de las evaluaciones de los grupos de reglas
_Se muestra como solicitud_ | +| **gitlab.prometheus_evaluator_iterations.count**
(count) | \[OpenMetrics V2\] Número total de evaluaciones de grupos de reglas programadas, tanto si se han ejecutado como si se han omitido
_Se muestra como solicitud_ | +| **gitlab.prometheus_evaluator_iterations_missed.count**
(count) | \[OpenMetrics V2\] Número total de evaluaciones de grupos de reglas perdidas debido a la lentitud de la evaluación de grupos de reglas
_Se muestra como solicitud_ | +| **gitlab.prometheus_evaluator_iterations_missed_total**
(count) | \[OpenMetrics V1\] El número total de evaluaciones de grupos de reglas perdidas debido a la lentitud de la evaluación de grupos de reglas
_Se muestra como solicitud_ | +| **gitlab.prometheus_evaluator_iterations_skipped.count**
(count) | \[OpenMetrics V2\] Número total de evaluaciones de grupos de reglas omitidas debido al almacenamiento limitado de métricas
_Se muestra como solicitud_ | +| **gitlab.prometheus_evaluator_iterations_skipped_total**
(count) | \[OpenMetrics V1\] Número total de evaluaciones de grupos de reglas omitidas debido al almacenamiento de métricas limitado
_Se muestra como solicitud_ | +| **gitlab.prometheus_evaluator_iterations_total**
(count) | \[OpenMetrics V1\] Número total de evaluaciones de grupos de reglas programadas, tanto si se han ejecutado como si se han omitido
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_checkpoint_duration_seconds**
(gauge) | La duración en segundos de la comprobación de los chunks abiertos y los chunks pendientes de persistencia
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_checkpoint_last_duration_seconds**
(gauge) | La duración en segundos del último punto de control de los chunks abiertos y los chunks pendientes de persistencia
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_checkpoint_last_size_bytes**
(gauge) | El tamaño del último punto de control de chunks abiertos y chunks pendientes de persistencia
_Se muestra como byte_ | +| **gitlab.prometheus_local_storage_checkpoint_series_chunks_written**
(gauge) | El número de chunk escritos por serie durante la comprobación de chunks abiertos y chunks pendientes de persistencia
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_checkpointing**
(gauge) | 1 si el almacenamiento se comprueba y 0 en caso contrario
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_chunk_ops.count**
(count) | \[OpenMetrics V2\] El número total de operaciones chunk por su tipo
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_chunk_ops_total**
(count) | \[OpenMetrics V1\] El número total de operaciones chunk por su tipo
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_chunks_to_persist**
(count) | El número actual de chunks en espera de persistencia
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_fingerprint_mappings.count**
(count) | \[OpenMetrics V2\] El número total de huellas dactilares que se asignan para evitar colisiones
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_fingerprint_mappings_total**
(count) | \[OpenMetrics V1\] El número total de huellas dactilares que se asignan para evitar colisiones
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_inconsistencies.count**
(count) | \[OpenMetrics V2\] Contador que se incrementa cada vez que se detecta una inconsistencia en el almacenamiento local. Si es mayor que cero, reinicia el servidor lo antes posible
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_inconsistencies_total**
(count) | \[OpenMetrics V1\] Contador que se incrementa cada vez que se detecta una inconsistencia en el almacenamiento local. Si es mayor que cero entonces reinicia el servidor tan pronto como sea posible
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_indexing_batch_duration_seconds**
(gauge) | Los cuantiles para la duración de la indexación por lotes en segundos
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_indexing_batch_sizes**
(gauge) | Los cuantiles de los tamaños de los lotes de indexación (número de métricas por lote)
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_indexing_queue_capacity**
(gauge) | La capacidad de la cola de indexación
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_indexing_queue_length**
(gauge) | El número de métricas en espera de ser indexadas
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_ingested_samples.count**
(count) | \[OpenMetrics V2\] El número total de muestras ingeridas
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_ingested_samples_total**
(count) | \[OpenMetrics V1\] El número total de muestras ingeridas
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_maintain_series_duration_seconds**
(gauge) | La duración en segundos que se tardó en realizar el mantenimiento de una serie
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_memory_chunkdescs**
(gauge) | El número actual de descriptores de chunk en memoria
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_memory_chunks**
(gauge) | El número actual de chunks en memoria. El número no incluye los chunks clonados (es decir, chunks sin descriptor)
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_memory_dirty_series**
(gauge) | El número actual de series que requerirían una búsqueda de disco durante la recuperación de un fallo
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_memory_series**
(gauge) | El número actual de series en memoria
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_non_existent_series_matches.count**
(count) | \[OpenMetrics V2\] Cuántas veces se hizo referencia a una serie inexistente durante la coincidencia de etiquetas o la precarga de chunks. Esto indica que los índices de etiquetas no están actualizados
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_non_existent_series_matches_total**
(count) | \[OpenMetrics V1\] Cuántas veces se hizo referencia a una serie inexistente durante la coincidencia de etiquetas o la precarga de checks. Esto indica que los índices de etiquetas no están actualizados
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_open_head_chunks**
(gauge) | El número actual de chunks de encabezado abiertos
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_out_of_order_samples.count**
(count) | \[OpenMetrics V2\] Número total de muestras descartadas porque sus marcas temporales eran iguales o anteriores a la última muestra recibida de una serie
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_out_of_order_samples_total**
(count) | \[OpenMetrics V1\] El número total de muestras que se descartaron porque sus marcas temporales eran iguales o anteriores a la última muestra recibida de una serie
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_persist_errors.count**
(count) | \[OpenMetrics V2\] El número total de errores al escribir en la capa de persistencia
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_persist_errors_total**
(count) | \[OpenMetrics V1\] El número total de errores al escribir en la capa de persistencia
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_persistence_urgency_score**
(gauge) | Una puntuación de urgencia para la persistencia de chunks. 0 es menos urgente y 1 más
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_queued_chunks_to_persist.count**
(count) | \[OpenMetrics V2\] El número total de chunks en cola para la persistencia
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_queued_chunks_to_persist_total**
(count) | \[OpenMetrics V1\] El número total de chunks en cola para la persistencia
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_rushed_mode**
(gauge) | 1 si el almacenamiento está en modo rápido y 0 en caso contrario
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_series_chunks_persisted**
(gauge) | El número de chunks persistidos por serie
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_series_ops.count**
(count) | \[OpenMetrics V2\] El número total de operaciones en serie por su tipo
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_series_ops_total**
(count) | \[OpenMetrics V1\] El número total de operaciones en serie por su tipo
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_started_dirty**
(gauge) | Si el almacenamiento local se encontró sucio (y se produjo la recuperación del fallo) durante el inicio de Prometheus
_Se muestra como solicitud_ | +| **gitlab.prometheus_local_storage_target_heap_size_bytes**
(gauge) | El tamaño del heap de destino configurado en bytes
_Se muestra como byte_ | +| **gitlab.prometheus_notifications_alertmanagers_discovered**
(gauge) | El número de alertmanagers descubiertos y activos
_Se muestra como solicitud_ | +| **gitlab.prometheus_notifications_dropped.count**
(count) | \[OpenMetrics V2\] Número total de alertas descartadas debido a errores al enviarlas a Alertmanager
_Se muestra como solicitud_ | +| **gitlab.prometheus_notifications_dropped_total**
(count) | \[OpenMetrics V1\] Número total de alertas descartadas por errores al enviarlas a Alertmanager
_Se muestra como solicitud_ | +| **gitlab.prometheus_notifications_queue_capacity**
(gauge) | La capacidad de la cola de notificaciones de alerta
_Se muestra como solicitud_ | +| **gitlab.prometheus_notifications_queue_length**
(gauge) | El número de notificaciones de alerta en la cola
_Se muestra como solicitud_ | +| **gitlab.prometheus_rule_evaluation_failures.count**
(count) | \[OpenMetrics V2\] El número total de fallos en la evaluación de reglas
_Se muestra como solicitud_ | +| **gitlab.prometheus_rule_evaluation_failures_total**
(count) | \[OpenMetrics V1\] El número total de fallos en la evaluación de reglas
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_azure_refresh_duration_seconds**
(gauge) | La duración de una actualización de Azure-SD en segundos
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_azure_refresh_failures.count**
(count) | \[OpenMetrics V2\] El número de fallos de actualización de Azure-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_azure_refresh_failures_total**
(count) | \[OpenMetrics V1\] El número de fallos de actualización de Azure-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_consul_rpc_duration_seconds**
(gauge) | La duración de una llamada RPC de Consul en segundos
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_consul_rpc_failures.count**
(count) | \[OpenMetrics V2\] El número de fallos de llamadas RPC de Consul
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_consul_rpc_failures_total**
(count) | \[OpenMetrics V1\] El número de fallos de llamadas RPC de Consul
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_dns_lookup_failures.count**
(count) | \[OpenMetrics V2\] El número de fallos de búsqueda DNS-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_dns_lookup_failures_total**
(count) | \[OpenMetrics V1\] El número de fallos de búsqueda DNS-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_dns_lookups.count**
(count) | \[OpenMetrics V2\] El número de búsquedas DNS-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_dns_lookups_total**
(count) | \[OpenMetrics V1\] El número de búsquedas DNS-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_ec2_refresh_duration_seconds**
(gauge) | La duración de una actualización de EC2-SD en segundos
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_ec2_refresh_failures.count**
(count) | \[OpenMetrics V2\] El número de fallos de scrape EC2-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_ec2_refresh_failures_total**
(count) | \[OpenMetrics V1\] El número de fallos de scrape EC2-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_file_read_errors.count**
(count) | \[OpenMetrics V2\] El número de errores de lectura File-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_file_read_errors_total**
(count) | \[OpenMetrics V1\] El número de errores de lectura de File-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_file_scan_duration_seconds**
(gauge) | La duración de la exploración del File-SD en segundos
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_gce_refresh_duration**
(gauge) | La duración de una actualización de GCE-SD en segundos
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_gce_refresh_failures.count**
(count) | \[OpenMetrics V2\] El número de fallos de actualización GCE-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_gce_refresh_failures_total**
(count) | \[OpenMetrics V1\] El número de fallos de actualización GCE-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_kubernetes_events.count**
(count) | \[OpenMetrics V2\] Número de eventos de Kubernetes gestionados
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_kubernetes_events_total**
(count) | \[OpenMetrics V1\] Número de eventos de Kubernetes gestionados
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_marathon_refresh_duration_seconds**
(gauge) | La duración de una actualización de Marathon-SD en segundos
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_marathon_refresh_failures.count**
(count) | \[OpenMetrics V2\] El número de fallos de actualización de Marathon-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_marathon_refresh_failures_total**
(count) | \[OpenMetrics V1\] El número de fallos de actualización de Marathon-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_openstack_refresh_duration_seconds**
(gauge) | La duración de una actualización de OpenStack-SD en segundos
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_openstack_refresh_failures.count**
(count) | \[OpenMetrics V2\] El número de fallos de scrape OpenStack-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_openstack_refresh_failures_total**
(count) | \[OpenMetrics V1\] El número de fallos de scrape OpenStack-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_triton_refresh_duration_seconds**
(gauge) | La duración de una actualización de Triton-SD en segundos
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_triton_refresh_failures.count**
(count) | \[OpenMetrics V2\] El número de fallos de scrape Triton-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_sd_triton_refresh_failures_total**
(count) | \[OpenMetrics V1\] El número de fallos de scrape Triton-SD
_Se muestra como solicitud_ | +| **gitlab.prometheus_target_interval_length_seconds**
(gauge) | Los intervalos reales entre scrapes
_Se muestra como solicitud_ | +| **gitlab.prometheus_target_scrape_pool_sync.count**
(count) | \[OpenMetrics V2\] El número total de sincronizaciones que se ejecutaron en un grupo de scrape
_Se muestra como solicitud_ | +| **gitlab.prometheus_target_scrape_pool_sync_total**
(count) | \[OpenMetrics V1\] El número total de sincronizaciones que se ejecutaron en un grupo de scrape
_Se muestra como solicitud_ | +| **gitlab.prometheus_target_scrapes_exceeded_sample_limit.count**
(count) | \[OpenMetrics V2\] Número total de scrape que alcanzaron el límite de muestra y fueron rechazados
_Se muestra como solicitud_ | +| **gitlab.prometheus_target_scrapes_exceeded_sample_limit_total**
(count) | \[OpenMetrics V1\] Número total de scrape que alcanzaron el límite de muestra y fueron rechazados
_Se muestra como solicitud_ | +| **gitlab.prometheus_target_skipped_scrapes.count**
(count) | \[OpenMetrics V2\] El número total de scrapes que se omitieron porque el almacenamiento de métricas se limitó
_Se muestra como solicitud_ | +| **gitlab.prometheus_target_skipped_scrapes_total**
(count) | \[OpenMetrics V1\] El número total de scrapes que se omitieron debido a que el almacenamiento de métricas se limitó
_Se muestra como solicitud_ | +| **gitlab.prometheus_target_sync_length_seconds**
(gauge) | El intervalo real para sincronizar el grupo de scrape
_Se muestra como solicitud_ | +| **gitlab.prometheus_treecache_watcher_goroutines**
(gauge) | El número actual de goroutines de observador
_Se muestra como solicitud_ | +| **gitlab.prometheus_treecache_zookeeper_failures.count**
(count) | \[OpenMetrics V2\] El número total de fallos de ZooKeeper
_Se muestra como solicitud_ | +| **gitlab.prometheus_treecache_zookeeper_failures_total**
(count) | \[OpenMetrics V1\] El número total de fallos de ZooKeeper
_Se muestra como solicitud_ | +| **gitlab.puma.active_connections**
(gauge) | El número de subprocesos de puma que procesan una solicitud
_Se muestra como subproceso_ | +| **gitlab.puma.idle_threads**
(gauge) | El número de subprocesos de puma generados que no están procesando una solicitud
_Se muestra como subproceso_ | +| **gitlab.puma.killer_terminations.count**
(count) | \[OpenMetrics V2\] El número de workers terminados por PumaWorkerKiller
_Se muestra como worker_ | +| **gitlab.puma.killer_terminations_total**
(count) | \[OpenMetrics V1\] El número de workers terminados por PumaWorkerKiller
_Se muestra como worker_ | +| **gitlab.puma.max_threads**
(gauge) | El número máximo de subprocesos del worker de puma
_Se muestra como subproceso_ | +| **gitlab.puma.pool_capacity**
(gauge) | El número de solicitudes que el worker de puma es capaz de tomar en este momento
_Se muestra como solicitud_ | +| **gitlab.puma.queued_connections**
(gauge) | El número de conexiones en el conjunto `todo` de ese worker de puma en espera de un subproceso de worker
_Se muestra como conexión_ | +| **gitlab.puma.running**
(gauge) | El número de subproceso de puma en ejecución
_Se muestra como subproceso_ | +| **gitlab.puma.running_workers**
(gauge) | El número de worker de puma arrancado
_Se muestra como worker_ | +| **gitlab.puma.stale_workers**
(gauge) | El número de workers de puma antiguos
_Se muestra como worker_ | +| **gitlab.puma.workers**
(gauge) | Número total de workers de puma
_Se muestra como worker_ | +| **gitlab.rack.http_request_duration_seconds.bucket**
(count) | \[OpenMetrics V2\] El tiempo de respuesta HTTP de rack middleware
_Se muestra como segundo_ | +| **gitlab.rack.http_request_duration_seconds.count**
(count) | Recuento del tiempo de respuesta HTTP de rack middleware| +| **gitlab.rack.http_request_duration_seconds.sum**
(count) | La suma del tiempo de respuesta HTTP de rack middleware
_Se muestra en segundos_ | +| **gitlab.rack.http_requests.count**
(count) | \[OpenMetrics V2\] El recuento de solicitudes de rack
_Se muestra como solicitud_ | +| **gitlab.rack.http_requests_total**
(count) | \[OpenMetrics V1\] El recuento de solicitudes de rack
_Se muestra como solicitud_ | +| **gitlab.rack.uncaught_errors.count**
(count) | \[OpenMetrics V2\] El recuento de conexiones de rack que manejan errores uncaught
_Se muestra como conexión_ | +| **gitlab.rack.uncaught_errors_total**
(count) | \[OpenMetrics V1\] El recuento de conexiones de rack que manejan errores uncaught
_Se muestra como conexión_ | +| **gitlab.rails_queue_duration_seconds.bucket**
(count) | \[OpenMetrics V2\] La latencia entre GitLab Workhorse reenviando una solicitud a Rails
_Se muestra como segundo_ | +| **gitlab.rails_queue_duration_seconds.count**
(count) | El contador de latencia entre que GitLab Workhorse reenvía una solicitud a Rails| +| **gitlab.rails_queue_duration_seconds.sum**
(count) | La suma de la latencia entre que GitLab Workhorse reenvía una solicitud a Rails
_Se muestra como segundo_ | +| **gitlab.redis.client_exceptions.count**
(count) | \[OpenMetrics V2\] Número de excepciones de cliente de Redis, desglosado por clase de excepción
_Se muestra como error_ | +| **gitlab.redis.client_exceptions_total**
(count) | \[OpenMetrics V1\] Número de excepciones de cliente de Redis, desglosado por clase de excepción
_Se muestra como error_ | +| **gitlab.redis.client_requests.count**
(count) | \[OpenMetrics V2\] Número de solicitudes de clientes de Redis
_Se muestra como solicitud_ | +| **gitlab.redis.client_requests_duration_seconds.bucket**
(count) | \[OpenMetrics V2\] El recuento de la latencia de las solicitudes de redis, excluyendo los comandos de bloqueo.| +| **gitlab.redis.client_requests_duration_seconds.count**
(count) | El recuento de la latencia de las solicitudes de redis, excluyendo los comandos de bloqueo| +| **gitlab.redis.client_requests_duration_seconds.sum**
(count) | La suma de la latencia de las peticiones de redis, excluyendo los comandos de bloqueo
_Se muestra como segundo_ | +| **gitlab.redis.client_requests_total**
(count) | \[OpenMetrics V1\] Número de solicitudes de clientes de Redis
_Se muestra como solicitud_ | +| **gitlab.ruby.file_descriptors**
(gauge) | Número de descriptores de archivo por proceso| +| **gitlab.ruby.gc_duration_seconds.bucket**
(count) | \[OpenMetrics V2\] El tiempo empleado por Ruby en GC
_Se muestra como segundo_ | +| **gitlab.ruby.gc_duration_seconds.count**
(count) | El recuento del tiempo empleado por Ruby en GC| +| **gitlab.ruby.gc_duration_seconds.sum**
(count) | La suma del tiempo empleado por Ruby en GC
_Se muestra como segundo_ | +| **gitlab.ruby.gc_stat**
(gauge) | \[OpenMetrics V2\] El número de recolectores de elementos no usados de ruby| +| **gitlab.ruby.gc_stat.count**
(gauge) | \[OpenMetrics V1\] El número de recolectores de elementos no usados de ruby| +| **gitlab.ruby.gc_stat.heap_allocatable_pages**
(gauge) | El número de páginas malloced que se pueden utilizar
_Se muestra como página_ | +| **gitlab.ruby.gc_stat.heap_allocated_pages**
(gauge) | El número de páginas del heap asignadas actualmente
_Se muestra como página_ | +| **gitlab.ruby.gc_stat.heap_available_slots**
(gauge) | El número de ranuras en las páginas del heap| +| **gitlab.ruby.gc_stat.heap_eden_pages**
(gauge) | El número de páginas del heap que contienen un objeto activo
_Se muestra como página_ | +| **gitlab.ruby.gc_stat.heap_final_slots**
(gauge) | El número de ranuras en el heap con finalizadores| +| **gitlab.ruby.gc_stat.heap_free_slots**
(gauge) | Número de ranuras vacías en el heap| +| **gitlab.ruby.gc_stat.heap_live_slots**
(gauge) | Número de ranuras activas en el heap| +| **gitlab.ruby.gc_stat.heap_marked_slots**
(gauge) | El número de ranuras que están marcadas o son antiguas
_Se muestra como página_ | +| **gitlab.ruby.gc_stat.heap_sorted_length**
(gauge) | La longitud del heap en memoria| +| **gitlab.ruby.gc_stat.heap_tomb_pages**
(gauge) | El número de páginas del heap que no contienen un objeto activo
_Se muestra como página_ | +| **gitlab.ruby.gc_stat.major_gc_count**
(gauge) | El número de recolectores de elementos no usados principales
_Se muestra como recolección de elementos no usados_ | +| **gitlab.ruby.gc_stat.malloc_increase_bytes**
(gauge) | El número de bytes asignados fuera del heap
_Se muestra como byte_ | +| **gitlab.ruby.gc_stat.malloc_increase_bytes_limit**
(gauge) | El límite de bytes que se pueden asignar fuera del heap
_Se muestra como byte_ | +| **gitlab.ruby.gc_stat.minor_gc_count**
(gauge) | El número de recolectores de elementos no usados menores
_Se muestra como recolección de elementos no usados_ | +| **gitlab.ruby.gc_stat.old_objects**
(gauge) | El número de objetos antiguos| +| **gitlab.ruby.gc_stat.old_objects_limit**
(gauge) | El límite del número de objetos antiguos| +| **gitlab.ruby.gc_stat.oldmalloc_increase_bytes**
(gauge) | El número de bytes asignados fuera del stack tecnológico para objetos antiguos
_Se muestra como byte_ | +| **gitlab.ruby.gc_stat.oldmalloc_increase_bytes_limit**
(gauge) | El límite de cuántos bytes se pueden asignar fuera del heap para objetos antiguos
_Se muestra como byte_ | +| **gitlab.ruby.gc_stat.remembered_wb_unprotected_objects**
(gauge) | Número de objetos antiguos que hacen referencia a objetos nuevos| +| **gitlab.ruby.gc_stat.remembered_wb_unprotected_objects_limit**
(gauge) | El límite de objetos wb no protegidos| +| **gitlab.ruby.gc_stat.total_allocated_objects**
(gauge) | El número total de objetos asignados| +| **gitlab.ruby.gc_stat.total_allocated_pages**
(gauge) | El número de páginas asignadas
_Se muestra como página_ | +| **gitlab.ruby.gc_stat.total_freed_objects**
(gauge) | El número de objetos liberados| +| **gitlab.ruby.gc_stat.total_freed_pages**
(gauge) | El número de páginas liberadas
_Se muestra como página_ | +| **gitlab.ruby.memory_bytes**
(gauge) | El uso de memoria
_Se muestra como byte_ | +| **gitlab.ruby.process_cpu_seconds_total**
(gauge) | \[OpenMetrics V1 y V2\] La cantidad total de tiempo de CPU por proceso
_Se muestra como segundo_ | +| **gitlab.ruby.process_max_fds**
(gauge) | Número máximo de descriptores de archivo abiertos por proceso| +| **gitlab.ruby.process_proportional_memory_bytes**
(gauge) | Uso de memoria por proceso (PSS/Proportional Set Size)
_Se muestra como byte_ | +| **gitlab.ruby.process_resident_memory_bytes**
(gauge) | El uso de memoria por proceso
_Se muestra como byte_ | +| **gitlab.ruby.process_start_time_seconds**
(gauge) | La marca de tiempo UNIX de la hora de inicio del proceso
_Se muestra como segundo_ | +| **gitlab.ruby.process_unique_memory_bytes**
(gauge) | Uso de memoria por proceso (USS/Unique Set Size)
_Se muestra como byte_ | +| **gitlab.ruby.sampler_duration_seconds.count**
(count) | \[OpenMetrics V2\] El tiempo dedicado a la recopilación de estadísticas
_Se muestra como segundo_ | +| **gitlab.ruby.sampler_duration_seconds_total**
(count) | \[OpenMetrics V1\] El tiempo dedicado a la recopilación de estadísticas
_Se muestra como segundo_ | +| **gitlab.ruby.threads_max_expected_threads**
(gauge) | Número máximo de subprocesos que se espera que se ejecuten y realicen el trabajo de la aplicación
_Se muestra como subproceso_ | +| **gitlab.ruby.threads_running_threads**
(gauge) | Número de subprocesos de Ruby en ejecución por nombre
_Se muestra como subproceso_ | +| **gitlab.sidekiq.concurrency**
(gauge) | El número máximo de trabajos de Sidekiq
_Se muestra como trabajo_ | +| **gitlab.sidekiq.elasticsearch_requests.count**
(count) | \[OpenMetrics V2\] Solicitudes de Elasticsearch durante una ejecución de trabajo de Sidekiq
_Se muestra como solicitud_ | +| **gitlab.sidekiq.elasticsearch_requests_duration_seconds.bucket**
(count) | \[OpenMetrics V2\] El recuento de la duración en segundos que un trabajo de Sidekiq gastado en las solicitudes a un servidor de Elasticsearch| +| **gitlab.sidekiq.elasticsearch_requests_duration_seconds.count**
(count) | El recuento de la duración en segundos que un trabajo de Sidekiq gastado en solicitudes a un servidor de Elasticsearch| +| **gitlab.sidekiq.elasticsearch_requests_duration_seconds.sum**
(count) | La suma de la duración en segundos que un trabajo de Sidekiq pasó en solicitudes a un servidor de Elasticsearch
_Se muestra como segundo_ | +| **gitlab.sidekiq.elasticsearch_requests_total**
(count) | \[OpenMetrics V1\] Solicitudes de Elasticsearch durante una ejecución de trabajo de Sidekiq
_Se muestra como solicitud_ | +| **gitlab.sidekiq.jobs_completion_seconds.count**
(count) | El recuento de segundos para completar un trabajo de Sidekiq
_Se muestra como segundo_ | +| **gitlab.sidekiq.jobs_completion_seconds.sum**
(count) | La suma de segundos para completar un trabajo de Sidekiq
_Se muestra como segundo_ | +| **gitlab.sidekiq.jobs_cpu_seconds.bucket**
(count) | \[OpenMetrics V2\] El recuento de segundos de tiempo de cpu para ejecutar un trabajo de Sidekiq
_Se muestra como segundo_ | +| **gitlab.sidekiq.jobs_cpu_seconds.count**
(count) | El recuento de segundos de tiempo de cpu para ejecutar un trabajo de Sidekiq| +| **gitlab.sidekiq.jobs_cpu_seconds.sum**
(count) | El recuento de segundos de tiempo de cpu para ejecutar un trabajo de Sidekiq
_Se muestra como segundo_ | +| **gitlab.sidekiq.jobs_db_second.bucket**
(count) | \[OpenMetrics V2\] El recuento de segundos de tiempo de DB para ejecutar un trabajo de Sidekiq
_Se muestra como segundo_ | +| **gitlab.sidekiq.jobs_db_second.count**
(count) | La cuenta de segundos de tiempo DB para ejecutar un trabajo de Sidekiq| +| **gitlab.sidekiq.jobs_db_second.sum**
(count) | La suma de segundos de tiempo DB para ejecutar un trabajo de Sidekiq
_Se muestra como segundo_ | +| **gitlab.sidekiq.jobs_failed.count**
(count) | \[OpenMetrics V2\] El número de trabajos sidekiq fallidos
_Se muestra como trabajo_ | +| **gitlab.sidekiq.jobs_failed_total**
(count) | \[OpenMetrics V1\] El número de trabajos sidekiq fallidos
_Se muestra como trabajo_ | +| **gitlab.sidekiq.jobs_gitaly_seconds.bucket**
(count) | \[OpenMetrics V2\] El recuento de segundos de tiempo de Gitaly para ejecutar un trabajo de Sidekiq
_Se muestra como segundo_ | +| **gitlab.sidekiq.jobs_gitaly_seconds.count**
(count) | El recuento de segundos de tiempo de Gitaly para ejecutar un trabajo de Sidekiq| +| **gitlab.sidekiq.jobs_gitaly_seconds.sum**
(count) | La suma de segundos de tiempo de Gitaly para ejecutar un trabajo de Sidekiq
_Se muestra como segundo_ | +| **gitlab.sidekiq.jobs_queue_duration_seconds.bucket**
(count) | \[OpenMetrics V2\] El recuento de la duración en segundos que un trabajo de Sidekiq estuvo en cola antes de ser ejecutado
_Se muestra como segundo_ | +| **gitlab.sidekiq.jobs_queue_duration_seconds.count**
(count) | El recuento de la duración en segundos que un trabajo de Sidekiq estuvo en cola antes de ser ejecutado| +| **gitlab.sidekiq.jobs_queue_duration_seconds.sum**
(count) | La suma de la duración en segundos que un trabajo de Sidekiq estuvo en cola antes de ser ejecutado
_Se muestra como segundo_ | +| **gitlab.sidekiq.jobs_retried.count**
(count) | \[OpenMetrics V2\] El número de trabajos sidekiq reintentados
_Se muestra como trabajo_ | +| **gitlab.sidekiq.jobs_retried_total**
(count) | \[OpenMetrics V1\] El número de trabajos sidekiq reintentados
_Se muestra como trabajo_ | +| **gitlab.sidekiq.redis_requests.count**
(count) | \[OpenMetrics V2\] Solicitudes de Redis durante una ejecución de trabajo de Sidekiq
_Se muestra como solicitud_ | +| **gitlab.sidekiq.redis_requests_duration_seconds.bucket**
(count) | \[OpenMetrics V2\] El recuento de la duración en segundos que un trabajo de Sidekiq pasó consultando un servidor de Redis.| +| **gitlab.sidekiq.redis_requests_duration_seconds.count**
(count) | El recuento de la duración en segundos que un trabajo de Sidekiq pasó consultando un servidor de Redis| +| **gitlab.sidekiq.redis_requests_duration_seconds.sum**
(count) | La suma de la duración en segundos que un trabajo de Sidekiq pasó consultando un servidor de Redis
_Se muestra como segundo_ | +| **gitlab.sidekiq.redis_requests_total**
(count) | \[OpenMetrics V1\] Solicitudes de Redis durante una ejecución de trabajo de Sidekiq
_Se muestra como solicitud_ | +| **gitlab.sidekiq.running_jobs**
(gauge) | El número de trabajos sidekiq en ejecución
_Se muestra como trabajo_ | +| **gitlab.sql_duration_seconds.bucket**
(count) | \[OpenMetrics V2\] El tiempo total de ejecución de SQL, excluyendo las operaciones SCHEMA y BEGIN/COMMIT
_Se muestra en segundos_ | +| **gitlab.sql_duration_seconds.count**
(count) | El tiempo total de ejecución de SQL, excluyendo las operaciones SCHEMA y BEGIN/COMMIT| +| **gitlab.sql_duration_seconds.sum**
(count) | La suma del tiempo de ejecución de SQL, excluyendo las operaciones SCHEMA y BEGIN/COMMIT
_Se muestra en segundos_ | +| **gitlab.successful_login_captcha.count**
(count) | El contador de intentos de CAPTCHA con éxito durante el inicio de sesión| +| **gitlab.successful_login_captcha_total**
(count) | El contador de intentos de CAPTCHA con éxito durante el inicio de sesión| +| **gitlab.transaction.allocated_memory_bytes.bucket**
(count) | \[OpenMetrics V2\] La memoria asignada para todas las transacciones (métricas gitlab_transaction\_\*)
_Se muestra como byte_ | +| **gitlab.transaction.allocated_memory_bytes.count**
(count) | El recuento de memoria asignada para todas las transacciones (métricas gitlab_transaction\_\*)
_Se muestra como byte_ | +| **gitlab.transaction.allocated_memory_bytes.sum**
(count) | La suma de la memoria asignada para todas las transacciones (métricas gitlab_transaction\_\*)
_Se muestra como byte_ | +| **gitlab.transaction.cache_count.count**
(count) | \[OpenMetrics V2\] Contador del total de llamadas a la caché de Rails (agregado)| +| **gitlab.transaction.cache_count_total**
(count) | \[OpenMetrics V1\] Contador del total de llamadas a la caché de Rails (agregado)| +| **gitlab.transaction.cache_duration.count**
(count) | \[OpenMetrics V2\] Contador del tiempo total (segundos) empleado en llamadas a la caché de Rails (agregado)
_Se muestra en segundos_. | +| **gitlab.transaction.cache_duration_total**
(count) | \[OpenMetrics V1\] El contador del tiempo total (segundos) empleado en llamadas a la caché de Rails (agregado)
_Se muestra como segundo_ | +| **gitlab.transaction.cache_read_hit_count.count**
(count) | \[OpenMetrics V2\] El contador de visitas a la caché para las llamadas a la caché de Rails
_Se muestra como acierto_ | +| **gitlab.transaction.cache_read_hit_count_total**
(count) | \[OpenMetrics V1\] El contador de visitas a la caché para las llamadas a la caché de Rails
_Se muestra como acierto_ | +| **gitlab.transaction.cache_read_miss_count.count**
(count) | \[OpenMetrics V2\] El contador de fallos de caché para las llamadas de caché Rails
_Se muestra como fallo_ | +| **gitlab.transaction.cache_read_miss_count_total**
(count) | \[OpenMetrics V1\] El contador de fallos de caché para las llamadas de caché de Rails
_Se muestra como fallo_ | +| **gitlab.transaction.duration_seconds.bucket**
(count) | \[OpenMetrics V2\] El recuento de la duración de todas las transacciones (métricas gitlab_transaction\_\*)
_Se muestra como segundo_ | +| **gitlab.transaction.duration_seconds.count**
(count) | El recuento de la duración de todas las transacciones (métricas gitlab_transaction_\*)| +| **gitlab.transaction.duration_seconds.sum**
(count) | La suma de la duración de todas las transacciones (métricas gitlab_transaction_\*)
_Se muestra como segundo_ | +| **gitlab.transaction.event_build_found.count**
(count) | \[OpenMetrics V2\] El contador de compilación encontrado para API/trabajos/solicitud| +| **gitlab.transaction.event_build_found_total**
(count) | \[OpenMetrics V1\] El contador de compilación encontrado para API/trabajos/solicitud| +| **gitlab.transaction.event_build_invalid.count**
(count) | \[OpenMetrics V2\] El contador para compilación inválido debido al conflicto de concurrencia para API/trabajos/solicitud| +| **gitlab.transaction.event_build_invalid_total**
(count) | \[OpenMetrics V1\] El contador para compilación inválido debido al conflicto de concurrencia para API/trabajos/solicitud| +| **gitlab.transaction.event_build_not_found.count**
(count) | \[OpenMetrics V2\] El contador de compilación no se encuentra para API/trabajos/solicitud| +| **gitlab.transaction.event_build_not_found_cached.count**
(count) | \[OpenMetrics V2\] El contador para la respuesta en caché de la compilación no se encuentra para API/trabajos/solicitud| +| **gitlab.transaction.event_build_not_found_cached_total**
(count) | \[OpenMetrics V1\] El contador para la respuesta en caché de la compilación no se encuentra para API/trabajos/solicitud| +| **gitlab.transaction.event_build_not_found_total**
(count) | \[OpenMetrics V1\] El contador de compilación no se encuentra para API/trabajos/solicitud| +| **gitlab.transaction.event_change_default_branch.count**
(count) | \[OpenMetrics V2\] El contador cuando la rama por defecto se cambia para cualquier repositorio| +| **gitlab.transaction.event_change_default_branch_total**
(count) | \[OpenMetrics V1\] El contador cuando se cambia la rama por defecto para cualquier repositorio| +| **gitlab.transaction.event_create_repository.count**
(count) | \[OpenMetrics V2\] El contador cuando se crea cualquier repositorio| +| **gitlab.transaction.event_create_repository_total**
(count) | \[OpenMetrics V1\] El contador cuando se crea cualquier repositorio.| +| **gitlab.transaction.event_etag_caching_cache_hit.count**
(count) | \[OpenMetrics V2\] El contador por acierto de caché etag.
_Se muestra como acierto_ | +| **gitlab.transaction.event_etag_caching_cache_hit_total**
(count) | \[OpenMetrics V1\] El contador por acierto de caché etag.
_Se muestra como acierto_ | +| **gitlab.transaction.event_etag_caching_header_missing.count**
(count) | \[OpenMetrics V2\] El contador de fallo de caché etag, falta encabezado
_Se muestra como fallo_ | +| **gitlab.transaction.event_etag_caching_header_missing_total**
(count) | \[OpenMetrics V1\] El contador de fallo de caché etag, falta encabezado
_Se muestra como fallo_ | +| **gitlab.transaction.event_etag_caching_key_not_found.count**
(count) | \[OpenMetrics V2\] El contador de fallo de caché etag, clave no encontrada
_Se muestra como fallo_ | +| **gitlab.transaction.event_etag_caching_key_not_found_total**
(count) | \[OpenMetrics V1\] El contador de fallo de caché etag, clave no encontrada
_Se muestra como fallo_ | +| **gitlab.transaction.event_etag_caching_middleware_used.count**
(count) | \[OpenMetrics V2\] El contador de etag middleware accedido| +| **gitlab.transaction.event_etag_caching_middleware_used_total**
(count) | \[OpenMetrics V1\] El contador de etag middleware accedido| +| **gitlab.transaction.event_etag_caching_resource_changed.count**
(count) | \[OpenMetrics V2\] El contador de fallo de caché etag, recurso cambiado| +| **gitlab.transaction.event_etag_caching_resource_changed_total**
(count) | \[OpenMetrics V1\] El contador de fallo de caché etag, recurso cambiado| +| **gitlab.transaction.event_fork_repository.count**
(count) | \[OpenMetrics V2\] El contador de bifurcaciones de repositorios (RepositoryForkWorker). Solo se incrementa cuando existe la fuente de repositorio| +| **gitlab.transaction.event_fork_repository_total**
(count) | \[OpenMetrics V1\] El contador de bifurcaciones de repositorios (RepositoryForkWorker). Solo se incrementa cuando existe la fuente de repositorio| +| **gitlab.transaction.event_import_repository.count**
(count) | \[OpenMetrics V2\] El contador de importaciones de repositorios (RepositoryImportWorker)| +| **gitlab.transaction.event_import_repository_total**
(count) | \[OpenMetrics V1\] El contador de importaciones de repositorios (RepositoryImportWorker)| +| **gitlab.transaction.event_push_branch.count**
(count) | \[OpenMetrics V2\] El contador de todos los push de rama| +| **gitlab.transaction.event_push_branch_total**
(count) | \[OpenMetrics V1\] El contador de todos los push de rama| +| **gitlab.transaction.event_push_commit.count**
(count) | \[OpenMetrics V2\] El contador de confirmaciones| +| **gitlab.transaction.event_push_commit_total**
(count) | \[OpenMetrics V1\] El contador de confirmaciones| +| **gitlab.transaction.event_push_tag.count**
(count) | \[OpenMetrics V2\] El contador de push de etiqueta| +| **gitlab.transaction.event_push_tag_total**
(count) | \[OpenMetrics V1\] El contador de push de etiquetas| +| **gitlab.transaction.event_rails_exception.count**
(count) | \[OpenMetrics V2\] El contador del número de excepciones de rails.| +| **gitlab.transaction.event_rails_exception_total**
(count) | \[OpenMetrics V1\] El contador del número de excepciones de rails.| +| **gitlab.transaction.event_receive_email.count**
(count) | \[OpenMetrics V2\] El contador de correos electrónicos recibidos
_Se muestra como correo electrónico_ | +| **gitlab.transaction.event_receive_email_total**
(count) | \[OpenMetrics V1\] El contador de correos electrónicos recibidos
_Se muestra como correo electrónico_ | +| **gitlab.transaction.event_remote_mirrors_failed.count**
(count) | \[OpenMetrics V2\] El contador de réplicas remotas fallidas.| +| **gitlab.transaction.event_remote_mirrors_failed_total**
(count) | \[OpenMetrics V1\] El contador de réplicas remotas fallidas.| +| **gitlab.transaction.event_remote_mirrors_finished.count**
(count) | \[OpenMetrics V2\] El contador de las réplicas remotas terminadas.| +| **gitlab.transaction.event_remote_mirrors_finished_total**
(count) | \[OpenMetrics V1\] El contador de reflejos remotos terminados.| +| **gitlab.transaction.event_remote_mirrors_running.count**
(count) | \[OpenMetrics V2\] El contador para ejecutar réplicas remotas| +| **gitlab.transaction.event_remote_mirrors_running_total**
(count) | \[OpenMetrics V1\] El contador para ejecutar réplicas remotas| +| **gitlab.transaction.event_remove_branch.count**
(count) | \[OpenMetrics V2\] El contador cuando se elimina una rama para cualquier repositorio.| +| **gitlab.transaction.event_remove_branch_total**
(count) | \[OpenMetrics V1\] El contador cuando se elimina una rama para cualquier repositorio.| +| **gitlab.transaction.event_remove_repository.count**
(count) | \[OpenMetrics V2\] El contador cuando se elimina un repositorio| +| **gitlab.transaction.event_remove_repository_total**
(count) | \[OpenMetrics V1\] El contador cuando se elimina un repositorio| +| **gitlab.transaction.event_remove_tag.count**
(count) | \[OpenMetrics V2\] El contador cuando se elimina una etiqueta para cualquier repositorio.| +| **gitlab.transaction.event_remove_tag_total**
(count) | \[OpenMetrics V1\] El contador cuando se elimina una etiqueta para cualquier repositorio.| +| **gitlab.transaction.event_sidekiq_exception.count**
(count) | \[OpenMetrics V2\] El contador de excepciones de Sidekiq| +| **gitlab.transaction.event_sidekiq_exception_total**
(count) | \[OpenMetrics V1\] El contador de excepciones de Sidekiq| +| **gitlab.transaction.event_stuck_import_jobs.count**
(count) | \[OpenMetrics V2\] El recuento de trabajos de importación atascados.| +| **gitlab.transaction.event_stuck_import_jobs_total**
(count) | \[OpenMetrics V1\] El recuento de trabajos de importación atascados.| +| **gitlab.transaction.event_update_build.count**
(count) | \[OpenMetrics V2\] El contador de actualización de API/trabajos/solicitud/:id| +| **gitlab.transaction.event_update_build_total**
(count) | \[OpenMetrics V1\] El contador de actualización de la compilación para API/trabajos/solicitud/:id| +| **gitlab.transaction.new_redis_connections.count**
(count) | \[OpenMetrics V2\] El contador de nuevas conexiones de Redis
_Se muestra como conexión_ | +| **gitlab.transaction.new_redis_connections_total**
(count) | \[OpenMetrics V1\] El contador de nuevas conexiones de Redis
_Se muestra como conexión_ | +| **gitlab.transaction.queue_duration.count**
(count) | \[OpenMetrics V2\] La duración de los trabajos se pusieron en cola antes de procesar| +| **gitlab.transaction.queue_duration_total**
(count) | \[OpenMetrics V1\] La duración de los trabajos se pusieron en cola antes de procesar| +| **gitlab.transaction.rails_queue_duration_total**
(gauge) | \[OpenMetrics V1 y V2\] La latencia entre que GitLab Workhorse reenvía una solicitud a Rails| +| **gitlab.transaction.view_duration.count**
(count) | \[OpenMetrics V2\] La duración de las vistas| +| **gitlab.transaction.view_duration_total**
(count) | \[OpenMetrics V1\] La duración de las vistas| +| **gitlab.unicorn.active_connections**
(gauge) | El número de conexiones Unicorn (workers) activas
_Se muestra como conexión_ | +| **gitlab.unicorn.queued_connections**
(gauge) | El número de conexiones Unicorn en cola
_Se muestra como conexión_ | +| **gitlab.unicorn.workers**
(gauge) | El número de workers de Unicorn
_Se muestra como worker_ | +| **gitlab.upload_file_does_not_exist**
(count) | El número de veces que un registro de carga no pudo encontrar su archivo| +| **gitlab.user_session_logins.count**
(count) | \[OpenMetrics V2\] El contador de cuántos usuarios han iniciado sesión| +| **gitlab.user_session_logins_total**
(count) | \[OpenMetrics V1\] El contador de cuántos usuarios se han conectado| +| **gitlab.view_rendering_duration_seconds.bucket**
(count) | \[OpenMetrics V2\] El recuento de la duración de las vistas (histograma)
_Se muestra como segundo_ | +| **gitlab.view_rendering_duration_seconds.count**
(count) | El recuento de la duración de las vistas (histograma)| +| **gitlab.view_rendering_duration_seconds.sum**
(count) | La suma de la duración de las vistas (histograma)
_Se muestra como segundo_ | ### Eventos El check de GitLab no incluye eventos. ### Checks de servicio -{{< get-service-checks-from-git "gitlab" >}} - Puedes obtener más información sobre los checks de servicios `gitlab.readiness.*` en la [documentación oficial de GitLab][6]. -## Solucionar problemas +**gitlab.prometheus_endpoint_up** -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][7]. +Devuelve `CRITICAL` si el check no puede acceder al endpoint de métricas de Prometheus de la instancia de Gitlab. +_Estados: ok, critical_ +**gitlab.openmetrics.health** +Devuelve `CRITICAL` si el check no puede acceder al endpoint de métricas de Prometheus de la instancia de Gitlab. - -## Integración del GitLab Runner +_Estados: ok, critical_ -## Información general +**gitlab.gitaly.openmetrics.health** -Una integración que te permite: +Devuelve `CRITICAL` si el check no puede acceder al endpoint de métricas de Prometheus de la instancia de Gitaly. -- visualizar y monitorizar las métricas recopiladas con los ejecutores de GitLab a través de Prometheus; -- comprobar que el GitLab Runner puede conectarse a GitLab. +_Estados: ok, critical_ -Para obtener más información sobre el GitLab Runner y su integración con Prometheus, consulta la [documentación del GitLab Runner][8]. +**gitlab.health** -## Configuración +Devuelve `CRITICAL` si el check no puede acceder a la instancia de Gitlab. -Sigue las instrucciones de abajo para instalar y configurar este check para un Agent que se ejecuta en un host. En el caso de entornos en contenedores, consulta las [Plantillas de integración de Autodiscovery][9] para obtener orientación sobre la aplicación de estas instrucciones. +_Estados: ok, critical_ -### Instalación +**gitlab.liveness** -El check del GitLab Runner está incluido en el paquete del [Datadog Agent][4], por lo que no necesitas instalar nada más en tus servidores de GitLab. +Devuelve `CRITICAL` si el check no puede acceder a la instancia de Gitlab debido a un bloqueo con los controladores de Rails. -### Configuración +_Estados: ok, critical_ -Edita el archivo `gitlab_runner.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del [directorio de configuración del Agent][10], de modo que apunte hacia el endpoint de las métricas de Prometheus del Runner y hacia el master de GitLab para tener un check de servicios. Consulta el [archivo de ejemplo gitlab_runner.d/conf.yaml][11] para conocer todas las opciones de configuración disponibles. +**gitlab.readiness** -El elemento `allowed_metrics` de la sección `init_config` permite especificar las métricas que deben extraerse. Algunas métricas deben informarse como `rate`, por ejemplo: `ci_runner_errors`. +Devuelve `CRITICAL` si la instancia de Gitlab no puede aceptar tráfico a través de los controladores de Rails. -### Validación +_Estados: ok, critical_ -[Ejecuta el subcomando `status` del Agent][5] y busca `gitlab_runner` en la sección Checks. +**gitlab.readiness.master** -## Datos recopilados +Devuelve `CRITICAL` si el maestro no está listo. -### Métricas -{{< get-metrics-from-git "gitlab-runner" >}} +_Estados: ok, critical, unknown_ +**gitlab.readiness.database** -### Recopilación de logs +Devuelve `CRITICAL` si la base de datos no está lista. +_Estados: ok, critical, unknown_ -1. En el [archivo de configuración][12] `gitlab_runner`, cambia el formato de logs por `json` (_Disponible para las versiones del GitLab Runner a partir de la 11.4.0_): - ```toml - log_format = "json" - ``` +**gitlab.readiness.cache** -2. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent; debes habilitarla en el archivo `datadog.yaml`: +Devuelve `CRITICAL` si la caché no está lista. - ```yaml - logs_enabled: true - ``` +_Estados: ok, critical, unknown_ -3. Añade el usuario `dd-agent` al grupo `systemd-journal` ejecutando lo siguiente: - ```text - usermod -a -G systemd-journal dd-agent - ``` +**gitlab.readiness.database_load_balancing** -4. Añade este bloque de configuración al archivo `gitlab_runner.d/conf.yaml` para empezar a recopilar logs del GitLab Runner: +Devuelve `CRITICAL` si el equilibrio de carga de la base de datos no está listo. - ```yaml - logs: - - type: journald - source: gitlab-runner - ``` +_Estados: ok, critical, unknown_ - Consulta el [archivo de ejemplo gitlab_runner.d/conf.yaml][11] para ver todas las opciones de configuración disponibles. +**gitlab.readiness.queues** -5. [Reinicia el Agent][13]. +Devuelve `CRITICAL` si las colas no están listas. -### Eventos +_Estados: ok, critical, unknown_ -El check del GitLab Runner no incluye eventos. +**gitlab.readiness.rate_limiting** -### Checks de servicio +Devuelve `CRITICAL` si la limitación de velocidad no está lista. + +_Estados: ok, critical, unknown_ + +**gitlab.readiness.repository_cache** + +Devuelve `CRITICAL` si la caché del repositorio no está lista. + +_Estados: ok, critical, unknown_ + +**gitlab.readiness.cluster_rate_limiting** + +Devuelve `CRITICAL` si la limitación de velocidad del clúster no está lista. + +_Estados: ok, critical, unknown_ + +**gitlab.readiness.sessions** + +Devuelve `CRITICAL` si las sesiones no están listas. + +_Estados: ok, critical, unknown_ + +**gitlab.readiness.shared_state** + +Devuelve `CRITICAL` si el estado compartido no está listo. + +_Estados: ok, critical, unknown_ + +**gitlab.readiness.trace_chunks** + +Devuelve `CRITICAL` si los chunks de traza no están listos. + +_Estados: ok, critical, unknown_ + +**gitlab.readiness.gitaly** + +Devuelve `CRITICAL` si gitaly no está listo. + +_Estados: ok, critical, unknown_ + +**gitlab.readiness.redis** + +Devuelve `CRITICAL` si redis no está listo. -El check del GitLab Runner brinda un check de servicios para confirmar que el Runner puede comunicarse con el master de GitLab y otro para comprobar que el endpoint local de Prometheus está disponible. +_Estados: ok, critical, unknown_ ## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][7]. - - -[1]: https://docs.gitlab.com/ee/administration/monitoring/prometheus -[2]: https://app.datadoghq.com/ci/getting-started -[3]: https://docs.datadoghq.com/integrations/guide/versions-for-openmetrics-based-integrations -[4]: https://app.datadoghq.com/account/settings/agent/latest -[5]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information -[6]: https://docs.gitlab.com/ee/user/admin_area/monitoring/health_check.html#readiness -[7]: https://docs.datadoghq.com/help/ -[8]: https://docs.gitlab.com/runner/monitoring/ -[9]: https://docs.datadoghq.com/agent/kubernetes/integrations/ -[10]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory -[11]: https://github.com/DataDog/integrations-core/blob/master/gitlab_runner/datadog_checks/gitlab_runner/data/conf.yaml.example -[12]: https://docs.gitlab.com/runner/configuration/advanced-configuration.html -[13]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/iocs_dmi.md b/content/es/integrations/iocs_dmi.md new file mode 100644 index 0000000000000..e6ce2f48da1c5 --- /dev/null +++ b/content/es/integrations/iocs_dmi.md @@ -0,0 +1,203 @@ +--- +algolia: + subcategory: Integraciones de Marketplace +app_id: iocs-dmi +app_uuid: d546c16a-7623-42dd-8158-c98bb9656d81 +assets: + dashboards: + 'IO Connect Services Development: Optimizations': assets/dashboards/development_optimizations.json + 'IO Connect Services Execs: Cost Optimization': assets/dashboards/execs_cost_optimization.json + 'IO Connect Services Operations: APIs': assets/dashboards/operations_apis.json + 'IO Connect Services Operations: Infrastructure': assets/dashboards/operations_infrastructure.json + 'IO Connect Services Operations: Private spaces': assets/dashboards/private_spaces.json + 'IO Connect Services Operations: RTF Infrastructure': assets/dashboards/rtf_infrastructure.json + 'IO Connect Services Operations: RTF Resource Allocation and Usage': assets/dashboards/rtf_resource_allocation.json + 'IO Connect Services Operations: Resources allocation': assets/dashboards/operations_resources_allocation_and_usage.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: ioconnect.mulesoft.anypoint.access_management.organization.entitlements.vcores_production.assigned + metadata_path: metadata.csv + prefix: ioconnect.mulesoft.anypoint. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10390703 + source_type_name: IO_Connect_DMI + monitors: + A CloudHubTM Mule® application has a message in VM queue: assets/monitors/cloudhub_queue_overload_monitor.json + A CloudHubTM Mule® application has very high CPU load: assets/monitors/cloudhub_cpu_load_monitor.json + A CloudHubTM Mule® application is running out of memory: assets/monitors/cloudhub_memory_usage_monitor.json + A CloudHubTM Mule® application is stopped: assets/monitors/cloudhub_app_stopped_monitor.json + A Mule® server is disconnected: assets/monitors/server_disconnected_monitor.json + An On-Premise Mule® application has very high CPU load: assets/monitors/onpremise_cpu_load_monitor.json + An On-Premise Mule® application is presenting an error: assets/monitors/onpremise_app_error_monitor.json + An On-Premise Mule® application is running out of memory: assets/monitors/onpremise_memory_usage_monitor.json + An On-Premise Mule® application is stopped: assets/monitors/onpremise_app_stopped_monitor.json + CPU Usage is high: assets/monitors/rtf_cpu_total_usage.json + Memory is low: assets/monitors/rtf_memory_usage.json + RTF Application is pending and temporarily inactive: assets/monitors/rtf_application_status_pending.json + RTF Application is stopped: assets/monitors/rtf_applications_has_been_stopped.json +author: + homepage: https://www.novacloud.io/ + name: Nova + sales_email: products.sales@novacloud.io + support_email: support_ddp@novacloud.io + vendor_id: ioconnect +categories: +- nube +- marketplace +- red +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: iocs_dmi +integration_id: iocs-dmi +integration_title: Mule® +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: iocs_dmi +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.ioconnect.iocs_dmi + product_id: dmi + short_description: Precio unitario por vCore de producción y Sandbox + tag: vcoreid + unit_label: vCore de producción y Sandbox + unit_price: 35 +public_title: Mule® +short_description: Recopila métricas de los productos de MuleSoft y cárgalas en Datadog. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Cloud + - Category::Marketplace + - Category::Network + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: Recopila métricas de los productos de MuleSoft y cárgalas en Datadog. + media: + - caption: 'Operaciones: Dashboard de API' + image_url: images/dmi_ops_apis.png + media_type: imagen + - caption: 'Operaciones: Dashboard de infraestructura' + image_url: images/dmi_ops_infra.png + media_type: imagen + - caption: 'Operaciones: Dashboard de asignación y utilización de recursos' + image_url: images/dmi_ops_allocation.png + media_type: imagen + - caption: 'Desarrollo: Dashboard de optimizaciones' + image_url: images/dmi_dev_optimization.png + media_type: imagen + - caption: 'Ejecutivos: Dashboard de optimización de costos' + image_url: images/dmi_exec_cost_optimization.png + media_type: imagen + - caption: 'Operaciones: Información general del espacio privado' + image_url: images/dmi_ops_spaces1.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Mule® + uninstallation: README.md#Uninstallation +--- + + + + +## Información general + +[Nova][1] es una empresa especializada en servicios de consultoría de tecnologías de la información. Nuestras prácticas son tecnologías de la nube, integración de sistemas, big data, ciberseguridad e ingeniería de software. Proveemos servicios en toda América del Norte, Europa y América Latina. Nuestra sede está en el área metropolitana de Nueva York y también tenemos oficinas en Guadalajara, México y Madrid, España. + +La integración de Datadog y Mule® es una aplicación basada en el Agent que recopila métricas de los productos de MuleSoft y las carga en Datadog. + +Puedes recopilar los siguientes métricas de los productos de MuleSoft: + +- Mule Runtime para CloudHub, CloudHub 2.0 Runtime Fabric y servidores autónomos on-premise +- Anypoint Runtime Fabric +- Anypoint API Manager and API Analytics +- Anypoint Exchange +- Anypoint Access Management +- Object Store v2 + +Puedes utilizar métricas para sacar partido de los dashboards y monitores predefinidos de Datadog o crear tus propias visualizaciones. + +### **La observabilidad que necesitas para tus aplicaciones Mule** + +#### Operaciones (_Dashboards de infraestructura, API, alertas y asignación de recursos_) + +- Monitoriza el estado de tus servidores, aplicaciones, API y otras infraestructuras de tecnologías de la información de Mule +- Recibe y visualiza alertas sobre tu infraestructura de Mule +- Obtén información sobre la asignación de recursos de Anypoint Platform de tu organización + +{{< img src="marketplace/iocs_dmi/images/dmi_ops_infra.png" alt="Operaciones: Dashboard de infraestructura" >}} + +{{< img src="marketplace/iocs_dmi/images/dmi_ops_apis.png" alt="Operaciones: Dashboard de API" >}} + +{{< img src="marketplace/iocs_dmi/images/dmi_ops_allocation.png" alt="Operaciones: Dashboard de asignación y uso de recursos" >}} + +#### Desarrollo (_Dashboard de optimización_) + +- Identifica rápidamente problemas de memoria, CPU y red en tus aplicaciones Mule. +- Encuentra cuellos de botella en tus aplicaciones Mule para optimizar el rendimiento + +{{< img src="marketplace/iocs_dmi/images/dmi_dev_optimization.png" alt="Desarrollo: Dashboard de optimizaciones" >}} + +#### Ejecutivo (_Dashboard de optimización de costos y caída del sistema_) + +- Analiza y predice tu ROI en función de los recursos utilizados y no utilizados +- Obtén visibilidad del tiempo de actividad del sistema de tu inversión en Mule + +{{< img src="marketplace/iocs_dmi/images/dmi_exec_cost_optimization.png" alt="Executivos: Dashboard de optimización de costos" >}} + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "iocs_dmi" >}} + +### Eventos + +La integración Datadog y Mule® no incluye eventos. + +## Asistencia + +Tómate un momento para conocer el proceso de configuración de la integración de Datadog y Mule® aquí: [Requisitos previos][12] e [Instalación][13] + +Para solicitar asistencia o funciones, ponte en contacto con el servicio de asistencia de Nova a través de los siguientes canales: + +- Ventas: [products.sales@novacloud.io][9] +- Asistencia técnica: [support_ddp@novacloud.io][14] + + +[1]: https://www.novacloud.io +[2]: https://docs.datadoghq.com/es/agent/autodiscovery/integrations +[3]: https://github.com/DataDog/integrations-core/blob/master/iocs_dmi/datadog_checks/iocs_dmi/data/conf.yaml.example +[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/?tab=agentv6v7#agent-information +[6]: https://github.com/DataDog/integrations-core/blob/master/iocs_dmi/metadata.csv +[7]: https://docs.datadoghq.com/es/developers/integrations/new_check_howto/?tab=configurationfile#installing +[8]: https://docs.datadoghq.com/es/developers/guide/custom-python-package/?tab=linux +[9]: mailto:products.sales@novacloud.io +[10]: https://app.datadoghq.com/account/settings#agent/overview +[11]: https://github.com/DataDog/integrations-core/blob/master/iocs_dmi/service_checks.json +[12]: https://docs.ioconnectservices.com/dmi/systemarchitecture +[13]: https://docs.ioconnectservices.com/dmi/installation +[14]: mailto:support_ddp@novacoud.io + +--- +Esta aplicación está disponible a través de Datadog Marketplace y cuenta con el apoyo de un socio tecnológico de Datadog. Para utilizarla, adquiere esta aplicación en el Marketplace. \ No newline at end of file diff --git a/content/es/integrations/iocs_dsi.md b/content/es/integrations/iocs_dsi.md new file mode 100644 index 0000000000000..955f3861cf1e3 --- /dev/null +++ b/content/es/integrations/iocs_dsi.md @@ -0,0 +1,145 @@ +--- +algolia: + subcategory: Integraciones de Marketplace +app_id: iocs-dsi +app_uuid: fa54c361-9ffe-4f43-8636-7e6104da2dcd +assets: + dashboards: + 'Stripe® Execs: Account & Application Management': assets/dashboards/Stripe_AccountApplicationManagement.json + 'Stripe® Execs: Customer Engagement Interaction': assets/dashboards/Stripe_CustomerEngagementInteraction.json + 'Stripe® Execs: Payment Lifecycle': assets/dashboards/Stripe_PaymentLifecycle.json + 'Stripe® Execs: Subscription Billing and Management': assets/dashboards/Stripe_SubscriptionBillingandManagement.json + 'Stripe® Execs: Transactions and Revenue': assets/dashboards/Stripe_Execs_TransactionsandRevenue.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: ioconnect.stripe.agent + metadata_path: metadata.csv + prefix: ioconnect.stripe + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 21692159 + source_type_name: iocs_dsi + monitors: + Stripe® High Transaction Volume Monitor: assets/monitors/StripeHighTransactionVolumeMonitor.json + Stripe® Revenue Drop Monitor: assets/monitors/StripeRevenueDropMonitor.json + Stripe® Transaction Failure Rate Monitor: assets/monitors/StripeTransactionFailureRateMonitor.json +author: + homepage: https://www.novacloud.io/ + name: Nova + sales_email: products.sales@novacloud.io + support_email: support_ddp@novacloud.io + vendor_id: ioconnect +categories: +- marketplace +- nube +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: iocs_dsi +integration_id: iocs-dsi +integration_title: Stripe® +integration_version: '' +is_public: true +legal_terms: + eula: assets/eula.pdf +manifest_version: 2.0.0 +name: iocs_dsi +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: dsi + short_description: Tarifa plana mensual + unit_price: 5 +public_title: Stripe® +short_description: Monitoriza métricas de ingresos y transacciones de Stripe. +supported_os: +- linux +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Category::Marketplace + - Category::Cloud + - Offering::Integration + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: Monitoriza métricas de ingresos y transacciones de Stripe. + media: + - caption: 'Stripe® Execs: Gestión de cuentas y aplicaciones' + image_url: images/StripeAccountAndApplicationManagement.png + media_type: imagen + - caption: 'Stripe® Execs: Interacción con el compromiso del cliente' + image_url: images/StripeCustomerEngagementInteraction.png + media_type: imagen + - caption: 'Stripe® Execs: Transacciones e ingresos' + image_url: images/StripeExecsTransactionsAndRevenuesDashboard.png + media_type: imagen + - caption: 'Stripe® Execs: Ciclo de vida del pago' + image_url: images/StripePaymentLifeCycle.png + media_type: imagen + - caption: 'Stripe® Execs: Facturación y gestión de suscripciones' + image_url: images/StripeSubscriptionBillingAndManagement.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Stripe® + uninstallation: README.md#Desinstalación +--- + + + + +## Información general + +Obtén información valiosa de tus eventos de Stripe® con nuestra integración continua de Datadog **basada en el Agent**. Stripe® es una plataforma líder en el procesamiento de pagos en línea que permite a las empresas aceptar pagos, gestionar suscripciones y dirigir una variedad de operaciones financieras en todo el mundo. Esta integración ayuda a las empresas a monitorizar y visualizar más de 200 métricas de sus transacciones de Stripe® sin ningún esfuerzo, lo que permite una monitorización y un análisis exhaustivos. [Más información sobre Stripe][8]. + +Esta solución proporciona información general completa de eventos de pago, seguimiento de ingresos y monitorización de errores, lo que te ayuda a tomar decisiones informadas para optimizar tus operaciones financieras. + +Características principales: + +- Monitorización: Realiza un seguimiento y analiza las transacciones de pagos, las suscripciones y la actividad de los clientes para obtener una visibilidad instantánea de tus datos de Stripe®. +- Amplia cobertura de métricas: Admite más de 200 eventos clave de Stripe®, ofreciendo información detallada sobre tendencias de pago, frecuencias de error y rendimiento financiero. +- Monitor y dashboard preconfigurados: Despliega al instante un dashboard totalmente personalizable y configura un monitor para detectar anomalías. Esto te permitirá anticiparte a posibles problemas antes de que afecten a tu empresa. +- Manejo continuo de datos: Captura eventos de Stripe® a través de un webhook, procesos los datos de forma eficiente y los envía directamente a Datadog, reduciendo la latencia y proporcionando una experiencia de monitorización fiable. +- Escalable y fiable: Creado para manejar grandes volúmenes de eventos de Stripe®, asegurando que incluso las empresas en crecimiento puedan confiar en esta integración para obtener informes de datos precisos y oportunos seleccionando qué eventos escuchar de Stripe® en diferentes webhooks. + +Con esta integración, puedes transformar sin ningún esfuerzo datos de eventos de Stripe® en información práctica, lo que permitirá a tu empresa tomar decisiones basadas en datos con confianza. + +**Nota de seguridad importante:** +Esta integración no almacena ni procesa ninguna información de pago confidencial (como información de tarjetas de crédito o datos personales de clientes). Solo captura eventos como métricas de recuento y cantidad de transacciones de intento de pago como métricas gauge, garantizando que tus datos financieros permanezcan seguros a la vez que se respeta el pleno cumplimiento de las normativas del sector, como PCI-DSS. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "iocs_dsi" >}} + + +### Eventos + +La integración Stripe Datadog no incluye eventos. + +## Asistencia + +Para solicitar asistencia o funciones, ponte en contacto con el servicio de asistencia de Nova a través de los siguientes canales: + +- Correo electrónico: [support_ddp@novacloud.io][2] + +[1]: https://app.datadoghq.com/account/settings#agent/overview +[2]: mailto:support_ddp@novacloud.io +[3]: https://docs.datadoghq.com/es/agent/autodiscovery/integrations +[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#restart-the-agent +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/?tab=agentv6v7#agent-information +[6]: https://app.datadoghq.com/account/settings/agent/latest +[7]: https://docs.stripe.com/webhooks#register-webhook +[8]: https://www.stripe.com/ +[9]: https://github.com/DataDog/integrations-core/blob/master/iocs_dsi/metadata.csv +[10]: https://github.com/DataDog/integrations-core/blob/master/iocs_dsi/service_checks.json + +--- +Esta aplicación está disponible a través del Marketplace de Datadog y cuenta con el respaldo de un socio tecnológico de Datadog. Para utilizar esta aplicación, adquiérela en el Marketplace. \ No newline at end of file diff --git a/content/es/integrations/istio.md b/content/es/integrations/istio.md index 1f1c8dc485182..71cb55ea28986 100644 --- a/content/es/integrations/istio.md +++ b/content/es/integrations/istio.md @@ -1,133 +1,70 @@ --- -"app_id": "istio" -"app_uuid": "de5b5443-5038-46cf-a052-0484348776d6" -"assets": - "dashboards": - "Istio Overview": "assets/dashboards/overview.json" - "Istio Overview 1.5": "assets/dashboards/istio_1_5_overview.json" - "Istio Overview 1.5 (OpenMetrics)": "assets/dashboards/istio_1_5_openmetrics_overview.json" - "Istio base dashboard": "assets/dashboards/istio_overview.json" - "integration": - "auto_install": true - "configuration": - "spec": "assets/configuration/spec.yaml" - "events": - "creates_events": false - "metrics": - "check": - - "istio.mixer.process.cpu_seconds_total" - - "istio.mesh.request.count" - - "istio.galley.endpoint_no_pod" - "metadata_path": "metadata.csv" - "prefix": "istio." - "process_signatures": - - "pilot-agent proxy router" - - "envoy envoy-rev0.json" - "service_checks": - "metadata_path": "assets/service_checks.json" - "source_type_id": !!int "10017" - "source_type_name": "Istio" - "monitors": - "Istio Proxy Requests Error Percentage": "assets/monitors/request_error_rate.json" - "Istio xDS Push Error Rate": "assets/monitors/xds_push_error_rate.json" - "Number of failed Istio sidecar injection is high": "assets/monitors/failed_sidecar_injection.json" - "saved_views": - "Istio Error Overview": "assets/saved_views/istio_error_overview.json" - "Istio Overview": "assets/saved_views/istio_overview.json" - "Istio Pilot Error Logs": "assets/saved_views/istio_pilot_errors.json" - "Istio Pilot Logs": "assets/saved_views/istio_pilot_logs.json" - "Istio Proxyv2 Error Logs": "assets/saved_views/istio_proxyv2_errors.json" - "Istio Proxyv2 Logs": "assets/saved_views/istio_proxyv2_logs.json" -"author": - "homepage": "https://www.datadoghq.com" - "name": "Datadog" - "sales_email": "info@datadoghq.com" - "support_email": "help@datadoghq.com" -"categories": -- "log collection" -- "network" -- "tracing" -"custom_kind": "integración" -"dependencies": -- "https://github.com/DataDog/integrations-core/blob/master/istio/README.md" -"display_on_public_website": true -"draft": false -"git_integration_title": "istio" -"integration_id": "istio" -"integration_title": "Istio" -"integration_version": "8.1.0" -"is_public": true -"manifest_version": "2.0.0" -"name": "istio" -"public_title": "Istio" -"short_description": "Recopila métricas de esquemas de rendimiento, rendimiento de consultas, métricas personalizadas y mucho más." -"supported_os": -- "linux" -- "windows" -- "macos" -"tile": - "changelog": "CHANGELOG.md" - "classifier_tags": - - "Category::Recopilación de logs" - - "Category::Red" - - "Category::Rastreo" - - "Supported OS::Linux" - - "Supported OS::Windows" - - "Supported OS::macOS" - - "Submitted Data Type::Métricas" - - "Submitted Data Type::Logs" - - "Submitted Data Type::Trazas (traces)" - - "Offering::Integración" - "configuration": "README.md#Configuración" - "description": "Recopila métricas de esquema de rendimiento, rendimiento de consultas, métricas personalizadas y mucho más." - "media": [] - "overview": "README.md#Información general" - "resources": - - "resource_type": "blog" - "url": "https://www.datadoghq.com/blog/monitor-istio-with-datadog" - - "resource_type": "blog" - "url": "https://www.datadoghq.com/blog/istio-metrics/" - - "resource_type": "blog" - "url": "https://www.datadoghq.com/blog/istio-datadog/" - "support": "README.md#Soporte" - "title": "Istio" +app_id: istio +categories: +- log collection +- network +- security +- tracing +custom_kind: integración +description: Recopilación de métricas de rendimiento de esquemas, rendimiento de consultas + y métricas personalizadas and more. +further_reading: +- link: https://www.datadoghq.com/blog/monitor-istio-with-datadog + tag: blog + text: Blog de Istio +- link: https://www.datadoghq.com/blog/istio-metrics/ + tag: blog + text: Métricas clave para monitorizar Istio +- link: https://www.datadoghq.com/blog/istio-datadog/ + tag: blog + text: Cómo monitorizar Istio con Datadog +integration_version: 9.0.0 +media: [] +supported_os: +- linux +- windows +- macos +title: Istio --- - - - - ## Información general Datadog monitoriza todos los aspectos de tu entorno Istio, de modo que puedes hacer lo siguiente: + - Evaluar el estado de Envoy y el plano de control de Istio con [logs](#log-collection). - Desglosar el rendimiento de tu malla de servicios con [métricas de solicitudes, ancho de banda y consumo de recursos](#metrics). -- Asigna la comunicación de red entre contenedores, pods y servicios en la malla con [Cloud Network Monitoring][1]. -- Profundizar en las trazas distribuidas de aplicaciones que realizan transacciones a través de la malla con [APM][2]. +- Asigna la comunicación de red entre contenedores, pods y servicios a través de la malla con [Cloud Network Monitoring](https://www.datadoghq.com/blog/monitor-istio-with-npm/). +- Profundiza en las trazas distribuidas de las aplicaciones que realizan transacciones en la malla con [APM](https://docs.datadoghq.com/tracing/setup_overview/proxy_setup/?tab=istio). +- Utiliza [Datadog App and API Protection](https://docs.datadoghq.com/security/application_security/?source=istio-tile-overview) para proteger tu malla de servicios de Istio con detección y bloqueo de amenazas en tiempo real en el borde de tu infraestructura. -Para obtener más información sobre la monitorización de tu entorno Istio con Datadog, [consulta la entrada del blog de monitor][3]. +Para obtener más información sobre la monitorización de tu entorno de Istio con Datadog, [consulta la entrada del blog Monitorización](https://www.datadoghq.com/blog/istio-datadog/). ## Configuración -Para obtener instrucciones generales sobre la configuración de integraciones en entornos en contenedores, consulta [Configurar integraciones con Autodiscovery en Kubernetes][4] o [Configurar integraciones con Autodiscovery en Docker][5]. +Para obtener instrucciones generales sobre la configuración de integraciones en entornos con contenedores, consulta [Configurar integraciones con Autodiscovery en Kubernetes](https://docs.datadoghq.com/containers/kubernetes/integrations/) o [Configurar integraciones con Autodiscovery en Docker](https://docs.datadoghq.com/containers/docker/integrations/). -Esta integración basada en OpenMetrics tiene un modo más reciente (`use_openmetrics: true`) y un modo legacy (`use_openmetrics: false`). Para obtener todas las características más actualizadas, Datadog recomienda habilitar el modo más reciente. Para obtener más información, consulta [Control de versiones más reciente y legacy para las integraciones basadas en OpenMetrics][6]. +Esta integración basada en OpenMetrics tiene un modo _más reciente_ (`use_openmetrics: true`) y un modo _heredado_ (`use_openmetrics: false`). Para obtener todas las características más actualizadas, Datadog recomienda activar el modo _más reciente_. Para obtener más información, consulta [Latest and Legacy Versioning For OpenMetrics-based Integrations](https://docs.datadoghq.com/integrations/guide/versions-for-openmetrics-based-integrations). Si tienes varias instancias de Datadog que recopilan métricas de Istio, asegúrate de utilizar el mismo modo para todas ellas. De lo contrario, los datos de las métricas pueden fluctuar en el sitio de Datadog. Las métricas marcadas como `[OpenMetrics V1]`, `[OpenMetrics V2]` u `[OpenMetrics V1 and V2]` solo están disponibles con el uso del modo correspondiente de la integración Istio. Las métricas marcadas como `Istio v1.5+` se recopilan mediante la versión 1.5 de Istio o posteriores. -### Instalación +### Instalación (métricas) -Istio está incluido en el Datadog Agent. [Instala el Datadog Agent][7] en tus servidores de Istio o en tu clúster y apúntalo hacia Istio. +Istio está incluido en el Datadog Agent. [Instala el Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest) en tus servidores de Istio o en tu clúster y apúntelo a Istio. #### Envoy -Si quieres monitorizar los proxies de Envoy en Istio, configura la [integración de Envoy][8]. +Si deseas monitorizar los proxies de Envoy en Istio, configura la [integración de Envoy](https://github.com/DataDog/integrations-core/tree/master/envoy#istio). + +### Instalación (Seguridad: App and API Protection) + +El proceso de instalación requiere un enfoque diferente al de habilitar esta integración. Las instrucciones de instalación están disponibles en la documentación [Enabling App and API Protection for Istio](https://docs.datadoghq.com/security/application_security/setup/istio/?source=istio-tile-setup). ### Configuración #### Recopilación de métricas -Para monitorizar Istio v1.5 o posterior hay dos componentes clave que coinciden con la [arquitectura Istio][9] para métricas con formato Prometheus: + +Para monitorizar Istio v1.5+ hay dos componentes clave que coinciden con la [arquitectura de Istio](https://istio.io/latest/docs/ops/deployment/architecture/) para las métricas con formato Prometheus: - **Plano de datos**: Contenedores sidecar del `istio-proxy`. - **Plano de control**: Servicio `istiod` que gestiona los proxies. @@ -136,9 +73,9 @@ Ambos se ejecutan como checks del Agent de `istio`, pero tienen responsabilidade ##### Configuración del plano de datos -El archivo por defecto [`istio.d/auto_conf.yaml`][10] inicializa automáticamente la monitorización para cada uno de los contenedores sidecar `istio-proxy`. El Agent inicializa este check para cada contenedor sidecar que detecta automáticamente. Esta configuración permite la notificación de métricas `istio.mesh.*` para los datos expuestos por cada uno de estos contenedores sidecar. +El archivo predeterminado [`istio.d/auto_conf.yaml`](https://github.com/DataDog/integrations-core/blob/master/istio/datadog_checks/istio/data/auto_conf.yaml) configura automáticamente la monitorización para cada uno de los contenedores `istio-proxy` auxiliares. El Agent inicializa este check para cada contenedor auxiliar que detecta automáticamente. Esta configuración permite la generación de informes de métricas `istio.mesh.*` para los datos expuestos por cada uno de estos contenedores auxiliares. -Para personalizar la parte del plano de datos de la integración, crea un archivo de configuración Istio personalizado `istio.yaml`. Para ver opciones para la creación de este archivo, consulta [Configurar integraciones en Kubernetes][4] o [Configurar integraciones con Autodiscovery en Docker][5]. +Para personalizar la parte del plano de datos de la integración, crea un archivo de configuración de Istio personalizado `istio.yaml`. Consulta [Configurar integraciones en Kubernetes](https://docs.datadoghq.com/containers/kubernetes/integrations/) o [Configurar integraciones con Autodiscovery en Docker](https://docs.datadoghq.com/containers/docker/integrations/) para conocer las opciones de creación de este archivo. Este archivo debe contener: @@ -156,9 +93,10 @@ instances: tag_by_endpoint: false ``` -Personaliza este archivo con cualquier configuración adicional. Para ver todas las opciones de configuración disponibles, consulta el [istio.d/conf.yaml de ejemplo][11]. +Personaliza este archivo con cualquier configuración adicional. Consulta el [istio.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/istio/datadog_checks/istio/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. ##### Configuración del plano de control + Para monitorizar el plano de control de Istio y notificar las métricas `mixer`, `galley`, `pilot` y `citadel`, debes configurar el Agent para monitorizar el despliegue de `istiod`. En Istio v1.5 o posterior, aplica las siguientes anotaciones de pod para el despliegue de `istiod` en el espacio de nombres `istio-system`: ```yaml @@ -174,15 +112,16 @@ ad.datadoghq.com/discovery.checks: | } } ``` + **Nota**: La sintaxis de Autodiscovery Annotations v2 es compatible con el Agent v7.36 o posterior. Esta anotación especifica el contenedor `discovery` para que coincida con el nombre por defecto del contenedor Istio en este pod. Sustituye esta anotación `ad.datadoghq.com/.checks` por el nombre (`.spec.containers[i].name`) de tu contenedor Istio, si el tuyo difiere. -El método para aplicar estas anotaciones varía en función de la [estrategia de despliegue de Istio (Istioctl, Helm, Operator)][12] utilizada. Consulta la documentación de Istio para conocer el método adecuado para aplicar estas anotaciones de pod. Para ver todas las opciones de configuración disponibles, consulta el [istio.d/conf.yaml de ejemplo][11]. +El método para aplicar estas anotaciones varía en función de la [estrategia de despliegue de Istio (Istioctl, Helm, Operator)](https://istio.io/latest/docs/setup/install/) utilizada. Consulta la documentación de Istio para conocer el método adecuado para aplicar estas anotaciones de pod. Consulta el [istio.d/conf.yaml de ejemplo](https://github.com/DataDog/integrations-core/blob/master/istio/datadog_checks/istio/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. #### Desactivar la inyección de sidecars para pods del Datadog Agent -Si estás instalando el [Datadog Agent en un contenedor][13], Datadog recomienda que primero desactives la inyección de sidecars de Istio. +Si estás instalando el [Datadog Agent en un contenedor](https://docs.datadoghq.com/agent/kubernetes/), Datadog recomienda que primero desactives la inyección auxiliar de Istio. _Versiones de Istio iguales o superiores a la v1.10:_ @@ -204,7 +143,7 @@ Esto también puede hacerse con el comando `kubectl patch`. kubectl patch daemonset datadog-agent -p '{"spec":{"template":{"metadata":{"labels":{"sidecar.istio.io/inject":"false"}}}}}' ``` -_Versiones de Istio iguales o anteriores a la v1.9:_ +_Versiones de Istio <= 1.9:_ Añade la **anotación** `sidecar.istio.io/inject: "false"` al DaemonSet `datadog-agent`: @@ -226,9 +165,9 @@ kubectl patch daemonset datadog-agent -p '{"spec":{"template":{"metadata":{"anno #### Recopilación de logs -_Disponible para la versión 6.0 o posteriores del Agent_ +_Disponible para las versiones 6.0 o posteriores del Agent_ -En primer lugar, habilita el Datadog Agent para realizar la recopilación de logs en Kubernetes. Consulta [Recopilación de logs de Kubernetes][14]. +En primer lugar, habilita el Datadog Agent para realizar la recopilación de logs en Kubernetes. Consulta la [recopilación de logs de Kubernetes](https://docs.datadoghq.com/agent/kubernetes/log/). #### Logs de Istio @@ -252,8 +191,8 @@ Sustituye `` por el nombre de servicio Istio que elijas. Para recopilar logs de acceso a Envoy de tu plano de datos (`istio-proxy`): -1. Habilita la [generación de logs de acceso a Envoy en Istio][15] -2. Aplica la siguiente anotación al pod en el que se inyectó el contenedor `istio-proxy` +1. Activa [Envoy access logging within Istio](https://istio.io/latest/docs/tasks/observability/logs/access-log/) +1. Aplica la siguiente anotación al pod en el que se inyectó el contenedor `istio-proxy` ```yaml ad.datadoghq.com/istio-proxy.logs: | @@ -271,25 +210,496 @@ Sustituye `` por el nombre de servicio de proxy de Istio que elija ### Validación -[Ejecuta el subcomando `info` del Agent][16] y busca `istio` en la sección **Checks**. +[Ejecuta el subcomando `info` del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `istio` en la sección Checks. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "istio" >}} +| | | +| --- | --- | +| **istio.mesh.request.count**
(count) | \[OpenMetrics V1 y V2\] El número de solicitudes. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como solicitud_ | +| **istio.mesh.request.duration.count**
(count) | \[OpenMetrics V1 y V2\] Recuento de la duración de las solicitudes. Esta métrica es como indicador por defecto en OpenMetrics V1.
_Se muestra como solicitud_ | +| **istio.mesh.request.duration.sum**
(count) | \[OpenMetrics V1 y V2\] Suma de las duraciones de las solicitudes. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como milisegundo_ | +| **istio.mesh.request.size.count**
(count) | \[OpenMetrics V1 y V2\] Recuento del tamaño de las solicitudes. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como solicitud_ | +| **istio.mesh.request.size.sum**
(count) | \[OpenMetrics V1 y V2\] Suma del tamaño de las solicitudes. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como byte_ | +| **istio.mesh.response.size.count**
(count) | \[OpenMetrics V1 y V2\] Recuento de tamaños de respuesta. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como respuesta_ | +| **istio.mesh.response.size.sum**
(count) | \[OpenMetrics V1 y V2\] Suma de tamaños de respuesta. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como byte_ | +| **istio.mixer.adapter.dispatch_count**
(gauge) | \[OpenMetrics V1 y V2\] Número total de envíos de adaptadores gestionados por Mixer
_Se muestra como operación_ | +| **istio.mixer.adapter.dispatch_duration.count**
(count) | \[OpenMetrics V1 y V2\] Recuento de duraciones de los envíos de adaptadores gestionados por Mixer. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como operación_ | +| **istio.mixer.adapter.dispatch_duration.sum**
(count) | \[OpenMetrics V1 y V2\] Suma de las duraciones de los envíos de adaptadores gestionados por Mixer. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como operación_ | +| **istio.mixer.adapter.old_dispatch_count**
(gauge) | \[OpenMetrics V1 y V2\] Número total de envíos de adaptadores gestionados por Mixer.
_Se muestra como operación_ | +| **istio.mixer.adapter.old_dispatch_duration.count**
(count) | \[OpenMetrics V1 y V2\] Recuento de veces de envíos de adaptadores gestionados por Mixer. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como operación_ | +| **istio.mixer.adapter.old_dispatch_duration.sum**
(count) | \[OpenMetrics V1 y V2\] Suma de tiempos de envíos de adaptadores gestionados por Mixer. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como operación_ | +| **istio.mixer.config.resolve_actions.count**
(count) | \[OpenMetrics V1 y V2\] Recuento de acciones resueltas por Mixer. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como operación_ | +| **istio.mixer.config.resolve_actions.sum**
(count) | \[OpenMetrics V1 y V2\] Suma de acciones resueltas por Mixer. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como operación_ | +| **istio.mixer.config.resolve_count**
(gauge) | \[OpenMetrics V1 y V2\] Número de resoluciones de configuración manejadas por mixer
_Se muestra como operación_ | +| **istio.mixer.config.resolve_duration.count**
(count) | \[OpenMetrics V1 y V2\] Segundos por resolución de configuración. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.mixer.config.resolve_duration.sum**
(count) | \[OpenMetrics V1 y V2\] Suma de veces para resoluciones de configuración manejadas por Mixer. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.mixer.config.resolve_rules.count**
(count) | \[OpenMetrics V1 y V2\] Número de reglas resueltas por Mixer. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como elementos_ | +| **istio.mixer.config.resolve_rules.sum**
(count) | \[OpenMetrics V1 y V2\] Suma de reglas resueltas por Mixer. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como elemento_ | +| **istio.mixer.go.gc_duration_seconds.count**
(count) | \[OpenMetrics V1 y V2\] Recuento de las duraciones de invocación GC. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.mixer.go.gc_duration_seconds.quantile**
(gauge) | \[OpenMetrics V1 y V2\] Cuantil de las duraciones de invocación GC.
_Se muestra como segundo_ | +| **istio.mixer.go.gc_duration_seconds.sum**
(count) | \[OpenMetrics V1 y V2\] Suma de las duraciones de invocación GC. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.mixer.go.goroutines**
(gauge) | \[OpenMetrics V1 y V2\] Número de goroutines que existen actualmente.
_Se muestra como subproceso_ | +| **istio.mixer.go.info**
(gauge) | \[OpenMetrics V1 y V2\] Información sobre el entorno Go.| +| **istio.mixer.go.memstats.alloc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes asignados y aún en uso.
_Se muestra como byte_ | +| **istio.mixer.go.memstats.alloc_bytes_total**
(gauge) | \[OpenMetrics V1 y V2\] Número total de bytes asignados aunque se hayan liberado.
_Se muestra como byte_ | +| **istio.mixer.go.memstats.buck_hash_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados por la tabla hash del bucket de perfiles.
_Se muestra como byte_ | +| **istio.mixer.go.memstats.frees_total**
(gauge) | \[OpenMetrics V1 y V2\] Número total de libres.| +| **istio.mixer.go.memstats.gc_cpu_fraction**
(gauge) | \[OpenMetrics V1 y V2\] CPU ocupada por GC
_Se muestra en porcentaje_ | +| **istio.mixer.go.memstats.gc_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para los metadatos del sistema de recopilación de elementos no usados.
_Se muestra como byte_ | +| **istio.mixer.go.memstats.heap_alloc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Bytes asignados al heap
_Se muestra como byte_ | +| **istio.mixer.go.memstats.heap_idle_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes ociosos en el heap
_Se muestra como byte_ | +| **istio.mixer.go.memstats.heap_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en el heap
_Se muestra como byte_ | +| **istio.mixer.go.memstats.heap_objects**
(gauge) | \[OpenMetrics V1 y V2\] Número de objetos en el heap
_Se muestra como objeto_ | +| **istio.mixer.go.memstats.heap_released_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes liberados al sistema en el último gc
_Se muestra como byte_ | +| **istio.mixer.go.memstats.heap_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados por el heap
_Se muestra como byte_ | +| **istio.mixer.go.memstats.last_gc_time_seconds**
(gauge) | \[OpenMetrics V1 y V2\] Longitud de la última GC
_Se muestra como segundo_ | +| **istio.mixer.go.memstats.lookups_total**
(gauge) | \[OpenMetrics V1 y V2\] Número de búsquedas
_Se muestra como operación_ | +| **istio.mixer.go.memstats.mallocs_total**
(gauge) | \[OpenMetrics V1 y V2\] Número de mallocs
_Se muestra como operación_ | +| **istio.mixer.go.memstats.mcache_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por las estructuras mcache.
_Se muestra como byte_ | +| **istio.mixer.go.memstats.mcache_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para las estructuras mcache obtenidas del sistema.
_Se muestra como byte_ | +| **istio.mixer.go.memstats.mspan_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por las estructuras mspan.
_Se muestra como byte_ | +| **istio.mixer.go.memstats.mspan_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para las estructuras mspan obtenidas del sistema.
_Se muestra como byte_ | +| **istio.mixer.go.memstats.next_gc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes del heap cuando se realice la próxima recopilación de elementos no usados
_Se muestra como byte_ | +| **istio.mixer.go.memstats.other_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para otras asignaciones del sistema
_Se muestra como byte_ | +| **istio.mixer.go.memstats.stack_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por el asignador de stack tecnológico
_Se muestra como byte_ | +| **istio.mixer.go.memstats.stack_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes obtenidos del sistema para el asignador de stack tecnológico
_Se muestra como byte_ | +| **istio.mixer.go.memstats.sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes obtenidos del sistema
_Se muestra como byte_ | +| **istio.mixer.go.threads**
(gauge) | \[OpenMetrics V1 y V2\] Número de subprocesos de SO creados.
_Se muestra como subproceso_ | +| **istio.mixer.grpc.server.handled_total**
(gauge) | \[OpenMetrics V1 y V2\] Número total de solicitudes totalmente gestionadas, con respuestas
_Se muestra como solicitud_ | +| **istio.mixer.grpc.server.handling_seconds.count**
(count) | \[OpenMetrics V1 y V2\] Recuento de la latencia de respuesta (segundos) de gRPC que ha sido gestionada a nivel de aplicación por el servidor. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.mixer.grpc.server.handling_seconds.sum**
(count) | \[OpenMetrics V1 y V2\] Suma de la latencia de respuesta (segundos) de gRPC que ha sido gestionada a nivel de aplicación por el servidor. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.mixer.grpc.server.msg_received_total**
(gauge) | \[OpenMetrics V1 y V2\] Número total de mensajes de flujo de RPC recibidos en el servidor.
_Se muestra como mensaje_ | +| **istio.mixer.grpc.server.msg_sent_total**
(gauge) | \[OpenMetrics V1 y V2\] Número total de mensajes enviados
_Se muestra como mensaje_ | +| **istio.mixer.grpc.server.started_total**
(gauge) | \[OpenMetrics V1 y V2\] Número total de RPCs iniciados en el servidor.| +| **istio.mixer.process.cpu_seconds_total**
(gauge) | \[OpenMetrics V1 y V2\] Tiempo total de CPU del usuario y del sistema empleado en segundos.
_Se muestra en segundos_ | +| **istio.mixer.process.max_fds**
(gauge) | \[OpenMetrics V1 y V2\] Número máximo de descriptores de archivo abiertos.
_Se muestra como archivo_ | +| **istio.mixer.process.open_fds**
(gauge) | \[OpenMetrics V1 y V2\] Número de descriptores de archivo abiertos.
_Se muestra como archivo_ | +| **istio.mixer.process.resident_memory_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Tamaño de la memoria residente en bytes.
_Se muestra como byte_ | +| **istio.mixer.process.start_time_seconds**
(gauge) | \[OpenMetrics V1 y V2\] Tiempo de inicio del proceso desde unix epoch en segundos.
_Se muestra como segundo_ | +| **istio.mixer.process.virtual_memory_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Tamaño de la memoria virtual en bytes.
_Se muestra como byte_ | +| **istio.mixer.grpc_io_server.completed_rpcs**
(gauge) | \[OpenMetrics V1 y V2\] Recuento de RPCs por método y estado.| +| **istio.mixer.grpc_io_server.received_bytes_per_rpc**
(gauge) | \[OpenMetrics V1 y V2\] Distribución de bytes recibidos por RPC, por método.
_Se muestra como byte_ | +| **istio.mixer.grpc_io_server.sent_bytes_per_rpc**
(gauge) | \[OpenMetrics V1 y V2\] Distribución del total de bytes enviados por RPC, por método.
_Se muestra como byte_ | +| **istio.mixer.grpc_io_server.server_latency**
(gauge) | \[OpenMetrics V1 y V2\] Distribución de la latencia del servidor en milisegundos, por método.| +| **istio.mixer.config.attributes_total**
(gauge) | \[OpenMetrics V1 y V2\] El número de atributos conocidos en la configuración actual.| +| **istio.mixer.config.handler_configs_total**
(gauge) | \[OpenMetrics V1 y V2\] El número de manejadores conocidos en la configuración actual.| +| **istio.mixer.config.instance_configs_total**
(gauge) | \[OpenMetrics V1 y V2\] El número de instancias conocidas en la configuración actual.| +| **istio.mixer.config.rule_configs_total**
(gauge) | \[OpenMetrics V1 y V2\] El número de reglas conocidas en la configuración actual.| +| **istio.mixer.dispatcher.destinations_per_request**
(gauge) | \[OpenMetrics V1 y V2\] Número de gestores enviados por solicitud por Mixer.| +| **istio.mixer.dispatcher.instances_per_request**
(gauge) | \[OpenMetrics V1 y V2\] Número de instancias creadas por solicitud por Mixer.| +| **istio.mixer.handler.daemons_total**
(gauge) | \[OpenMetrics V1 y V2\] El número actual de rutinas daemon activas en un entorno de adaptador dado.| +| **istio.mixer.handler.new_handlers_total**
(gauge) | \[OpenMetrics V1 y V2\] El número de manejadores que se crearon recientemente durante la transición de configuración.| +| **istio.mixer.mcp_sink.reconnections**
(gauge) | \[OpenMetrics V1 y V2\] El número de veces que el sink se ha vuelto a conectar.| +| **istio.mixer.mcp_sink.request_acks_total**
(gauge) | \[OpenMetrics V1 y V2\] El número de aceptaciones de solicitud recibidas por la fuente.| +| **istio.mixer.runtime.dispatches_total**
(gauge) | \[OpenMetrics V1 y V2\] Número total de envíos de adaptadores gestionados por Mixer.
_Se muestra como operación_ | +| **istio.mixer.runtime.dispatch_duration_seconds**
(gauge) | \[OpenMetrics V1 y V2\] Duración en segundos de los envíos de adaptadores gestionados por Mixer.
_Se muestra como segundo_ | +| **istio.pilot.go.gc_duration_seconds.count**
(count) | \[OpenMetrics V1 y V2\] Recuento de las duraciones de invocación GC. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.pilot.go.gc_duration_seconds.quantile**
(gauge) | \[OpenMetrics V1 y V2\] Cuantil de las duraciones de invocación GC.
_Se muestra como segundo_ | +| **istio.pilot.go.gc_duration_seconds.sum**
(count) | \[OpenMetrics V1 y V2\] Suma de las duraciones de invocación GC. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.pilot.go.goroutines**
(gauge) | \[OpenMetrics V1 y V2\] Número de goroutines que existen actualmente.
_Se muestra como subproceso_ | +| **istio.pilot.go.info**
(gauge) | \[OpenMetrics V1 y V2\] Información sobre el entorno de Go.| +| **istio.pilot.go.memstats.alloc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes asignados y aún en uso.
_Se muestra como byte_ | +| **istio.pilot.go.memstats.alloc_bytes_total**
(gauge) | \[OpenMetrics V1 y V2\] Número total de bytes asignados aunque se hayan liberado.
_Se muestra como byte_ | +| **istio.pilot.go.memstats.buck_hash_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados por la tabla hash del bucket de perfiles.
_Se muestra como byte_ | +| **istio.pilot.go.memstats.frees_total**
(gauge) | \[OpenMetrics V1 y V2\] Número total de libres.| +| **istio.pilot.go.memstats.gc_cpu_fraction**
(gauge) | \[OpenMetrics V1 y V2\] CPU ocupada por GC
_Se muestra en porcentaje_ | +| **istio.pilot.go.memstats.gc_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para los metadatos del sistema de recopilación de elementos no usados.
_Se muestra como byte_ | +| **istio.pilot.go.memstats.heap_alloc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Bytes asignados al heap
_Se muestra como byte_ | +| **istio.pilot.go.memstats.heap_idle_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes ociosos en el heap
_Se muestra como byte_ | +| **istio.pilot.go.memstats.heap_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en el heap
_Se muestra como byte_ | +| **istio.pilot.go.memstats.heap_objects**
(gauge) | \[OpenMetrics V1 y V2\] Número de objetos en el heap
_Se muestra como objeto_ | +| **istio.pilot.go.memstats.heap_released_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes liberados al sistema en el último gc
_Se muestra como byte_ | +| **istio.pilot.go.memstats.heap_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados por el heap
_Se muestra como byte_ | +| **istio.pilot.go.memstats.last_gc_time_seconds**
(gauge) | \[OpenMetrics V1 y V2\] Longitud de la última GC
_Se muestra como segundo_ | +| **istio.pilot.go.memstats.lookups_total**
(gauge) | \[OpenMetrics V1 y V2\] Número de búsquedas
_Se muestra como operación_ | +| **istio.pilot.go.memstats.mallocs_total**
(gauge) | \[OpenMetrics V1 y V2\] Número de mallocs
_Se muestra como operación_ | +| **istio.pilot.go.memstats.mcache_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por las estructuras mcache.
_Se muestra como byte_ | +| **istio.pilot.go.memstats.mcache_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para las estructuras mcache obtenidas del sistema.
_Se muestra como byte_ | +| **istio.pilot.go.memstats.mspan_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por las estructuras mspan.
_Se muestra como byte_ | +| **istio.pilot.go.memstats.mspan_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para las estructuras mspan obtenidas del sistema.
_Se muestra como byte_ | +| **istio.pilot.go.memstats.next_gc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes del heap cuando se realice la próxima recopilación de elementos no usados
_Se muestra como byte_ | +| **istio.pilot.go.memstats.other_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para otras asignaciones del sistema
_Se muestra como byte_ | +| **istio.pilot.go.memstats.stack_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por el asignador de stack tecnológico
_Se muestra como byte_ | +| **istio.pilot.go.memstats.stack_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes obtenidos del sistema para el asignador de stack tecnológico
_Se muestra como byte_ | +| **istio.pilot.go.memstats.sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes obtenidos del sistema
_Se muestra como byte_ | +| **istio.pilot.go.threads**
(gauge) | \[OpenMetrics V1 y V2\] Número de subprocesos de SO creados.
_Se muestra como subproceso_ | +| **istio.pilot.process.cpu_seconds_total**
(gauge) | \[OpenMetrics V1 y V2\] Tiempo total de CPU del usuario y del sistema empleado en segundos.
_Se muestra en segundos_ | +| **istio.pilot.process.max_fds**
(gauge) | \[OpenMetrics V1 y V2\] Número máximo de descriptores de archivo abiertos.
_Se muestra como archivo_ | +| **istio.pilot.process.open_fds**
(gauge) | \[OpenMetrics V1 y V2\] Número de descriptores de archivo abiertos.
_Se muestra como archivo_ | +| **istio.pilot.process.resident_memory_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Tamaño de la memoria residente en bytes.
_Se muestra como byte_ | +| **istio.pilot.process.start_time_seconds**
(gauge) | \[OpenMetrics V1 y V2\] Tiempo de inicio del proceso desde unix epoch en segundos.
_Se muestra como segundo_ | +| **istio.pilot.process.virtual_memory_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Tamaño de la memoria virtual en bytes.
_Se muestra como byte_ | +| **istio.pilot.conflict.inbound_listener**
(gauge) | \[OpenMetrics V1 y V2\] Número de escuchas entrantes en conflicto.| +| **istio.pilot.conflict.outbound_listener.http_over_current_tcp**
(gauge) | \[OpenMetrics V1 y V2\] Número de escuchas http comodín en conflicto con la escucha tcp comodín actual.| +| **istio.pilot.conflict.outbound_listener.tcp_over_current_http**
(gauge) | \[OpenMetrics V1 y V2\] Número de escuchas tcp comodín en conflicto con la escucha http comodín actual.| +| **istio.pilot.conflict.outbound_listener.tcp_over_current_tcp**
(gauge) | \[OpenMetrics V1 y V2\] Número de escuchas tcp en conflicto con la escucha tcp actual.| +| **istio.pilot.destrule_subsets**
(gauge) | \[OpenMetrics V1 y V2\] Subconjuntos duplicados en reglas de destino para el mismo host.| +| **istio.pilot.duplicate_envoy_clusters**
(gauge) | \[OpenMetrics V1 y V2\] Clústeres envoy duplicados causados por entradas de servicio con el mismo nombre de host.| +| **istio.pilot.eds_no_instances**
(gauge) | \[OpenMetrics V1 y V2\] Número de clústeres sin instancias.| +| **istio.pilot.endpoint_not_ready**
(gauge) | \[OpenMetrics V1 y V2\] Endpoint encontrado en estado no preparado.| +| **istio.pilot.invalid_out_listeners**
(gauge) | \[OpenMetrics V1 y V2\] Número de oyentes salientes no válidos.| +| **istio.pilot.mcp_sink.reconnections**
(count) | \[OpenMetrics V1 y V2\] El número de veces que el sink se ha vuelto a conectar.| +| **istio.pilot.mcp_sink.recv_failures_total**
(count) | \[OpenMetrics V1 y V2\] El número de fallos recv en la fuente.| +| **istio.pilot.mcp_sink.request_acks_total**
(count) | \[OpenMetrics V1 y V2\] El número de aceptaciones de solicitud recibidas por la fuente.| +| **istio.pilot.no_ip**
(gauge) | \[OpenMetrics V1 y V2\] Pods no encontrados en la tabla de endpoints, posiblemente no válidos.| +| **istio.pilot.proxy_convergence_time**
(gauge) | \[OpenMetrics V1 y V2\] Retraso entre el cambio de configuración y la convergencia de todos los proxies.
_Se muestra como segundo_ | +| **istio.pilot.proxy_convergence_time.sum**
(count) | \[OpenMetrics V1 y V2\] Suma del retardo entre el cambio de configuración y la convergencia de todos los proxies. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.pilot.proxy_convergence_time.count**
(count) | \[OpenMetrics V1 y V2\] Número de entradas de pilot.proxy_convergence_time. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.pilot.rds_expired_nonce**
(count) | \[OpenMetrics V1 y V2\] Número total de mensajes RDS con un nonce caducado.| +| **istio.pilot.services**
(gauge) | \[OpenMetrics V1 y V2\] Total de servicios conocidos por el pilot.| +| **istio.pilot.total_xds_internal_errors**
(count) | \[OpenMetrics V1 y V2\] Número total de errores XDS internos en pilot.| +| **istio.pilot.total_xds_rejects**
(count) | \[OpenMetrics V1 y V2\] Número total de respuestas XDS del pilot rechazadas por el proxy.| +| **istio.pilot.virt_services**
(gauge) | \[OpenMetrics V1 y V2\] Total de servicios virtuales conocidos por el pilot.| +| **istio.pilot.vservice_dup_domain**
(gauge) | \[OpenMetrics V1 y V2\] Servicios virtuales con dominios dup.| +| **istio.pilot.xds**
(gauge) | \[OpenMetrics V1 y V2\] Número de endpoints conectados a este pilot usando XDS.| +| **istio.pilot.xds.eds_instances**
(gauge) | \[OpenMetrics V1 y V2\] Instancias para cada clúster, a partir del último push.| +| **istio.pilot.xds.push.context_errors**
(count) | \[OpenMetrics V1 y V2\] Número de errores (tiempos de espera) iniciando contexto push.| +| **istio.pilot.xds.push.timeout**
(count) | \[OpenMetrics V1 y V2\] El tiempo de espera del push del pilot se reintentará.| +| **istio.pilot.xds.push.timeout_failures**
(count) | \[OpenMetrics V1 y V2\] Fallos de tiempo de espera de push de pilot después de intentos repetidos.| +| **istio.pilot.xds.pushes**
(count) | \[OpenMetrics V1 y V2\] Compilación de Pilot y errores de envío para lds, rds, cds y eds.| +| **istio.pilot.xds.write_timeout**
(count) | \[OpenMetrics V1 y V2\] Tiempos de espera de escritura de respuesta XDS de pilot.| +| **istio.pilot.xds.rds_reject**
(count) | \[OpenMetrics V1 y V2\] Pilot rechazó RDS.| +| **istio.pilot.xds.lds_reject**
(count) | \[OpenMetrics V1 y V2\] Pilot rechazó LDS.| +| **istio.pilot.xds.eds_reject**
(count) | \[OpenMetrics V1 y V2\] Pilot rechazó EDS.| +| **istio.pilot.xds.cds_reject**
(count) | \[OpenMetrics V1 y V2\] Pilot rechazó CDS.| +| **istio.galley.go.gc_duration_seconds.count**
(count) | \[OpenMetrics V1 y V2\] Recuento de las duraciones de invocación GC. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.galley.go.gc_duration_seconds.quantile**
(gauge) | \[OpenMetrics V1 y V2\] Cuantil de las duraciones de invocación GC.
_Se muestra como segundo_ | +| **istio.galley.go.gc_duration_seconds.sum**
(count) | \[OpenMetrics V1 y V2\] Suma de las duraciones de invocación GC. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.galley.go.goroutines**
(gauge) | \[OpenMetrics V1 y V2\] Número de goroutines que existen actualmente.
_Se muestra como subproceso_ | +| **istio.galley.go.info**
(gauge) | \[OpenMetrics V1 y V2\] Información sobre el entorno de Go.| +| **istio.galley.go.memstats.alloc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes asignados y aún en uso.
_Se muestra como byte_ | +| **istio.galley.go.memstats.alloc_bytes_total**
(gauge) | \[OpenMetrics V1 y V2\] Número total de bytes asignados aunque se hayan liberado.
_Se muestra como byte_ | +| **istio.galley.go.memstats.buck_hash_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados por la tabla hash del bucket de perfiles.
_Se muestra como byte_ | +| **istio.galley.go.memstats.frees_total**
(gauge) | \[OpenMetrics V1 y V2\] Número total de libres.| +| **istio.galley.go.memstats.gc_cpu_fraction**
(gauge) | \[OpenMetrics V1 y V2\] CPU ocupada por GC
_Se muestra en porcentaje_ | +| **istio.galley.go.memstats.gc_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para los metadatos del sistema de recopilación de elementos no usados.
_Se muestra como byte_ | +| **istio.galley.go.memstats.heap_alloc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Bytes asignados al heap
_Se muestra como byte_ | +| **istio.galley.go.memstats.heap_idle_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes ociosos en el heap
_Se muestra como byte_ | +| **istio.galley.go.memstats.heap_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en el heap
_Se muestra como byte_ | +| **istio.galley.go.memstats.heap_objects**
(gauge) | \[OpenMetrics V1 y V2\] Número de objetos en el heap
_Se muestra como objeto_ | +| **istio.galley.go.memstats.heap_released_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes liberados al sistema en el último gc
_Se muestra como byte_ | +| **istio.galley.go.memstats.heap_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados por el heap
_Se muestra como byte_ | +| **istio.galley.go.memstats.last_gc_time_seconds**
(gauge) | \[OpenMetrics V1 y V2\] Longitud de la última GC
_Se muestra como segundo_ | +| **istio.galley.go.memstats.lookups_total**
(gauge) | \[OpenMetrics V1 y V2\] Número de búsquedas
_Se muestra como operación_ | +| **istio.galley.go.memstats.mallocs_total**
(gauge) | \[OpenMetrics V1 y V2\] Número de mallocs
_Se muestra como operación_ | +| **istio.galley.go.memstats.mcache_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por las estructuras mcache.
_Se muestra como byte_ | +| **istio.galley.go.memstats.mcache_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para las estructuras mcache obtenidas del sistema.
_Se muestra como byte_ | +| **istio.galley.go.memstats.mspan_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por las estructuras mspan.
_Se muestra como byte_ | +| **istio.galley.go.memstats.mspan_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para las estructuras mspan obtenidas del sistema.
_Se muestra como byte_ | +| **istio.galley.go.memstats.next_gc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes del heap cuando se realice la próxima recopilación de elementos no usados
_Se muestra como byte_ | +| **istio.galley.go.memstats.other_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para otras asignaciones del sistema
_Se muestra como byte_ | +| **istio.galley.go.memstats.stack_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por el asignador de stack tecnológico
_Se muestra como byte_ | +| **istio.galley.go.memstats.stack_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes obtenidos del sistema para el asignador de stack tecnológico
_Se muestra como byte_ | +| **istio.galley.go.memstats.sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes obtenidos del sistema
_Se muestra como byte_ | +| **istio.galley.go.threads**
(gauge) | \[OpenMetrics V1 y V2\] Número de subprocesos de SO creados.
_Se muestra como subproceso_ | +| **istio.galley.process.cpu_seconds_total**
(gauge) | \[OpenMetrics V1 y V2\] Tiempo total de CPU del usuario y del sistema empleado en segundos.
_Se muestra en segundos_ | +| **istio.galley.process.max_fds**
(gauge) | \[OpenMetrics V1 y V2\] Número máximo de descriptores de archivo abiertos.
_Se muestra como archivo_ | +| **istio.galley.process.open_fds**
(gauge) | \[OpenMetrics V1 y V2\] Número de descriptores de archivo abiertos.
_Se muestra como archivo_ | +| **istio.galley.process.resident_memory_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Tamaño de la memoria residente en bytes.
_Se muestra como byte_ | +| **istio.galley.process.start_time_seconds**
(gauge) | \[OpenMetrics V1 y V2\] Tiempo de inicio del proceso desde unix epoch en segundos.
_Se muestra como segundo_ | +| **istio.galley.process.virtual_memory_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Tamaño de la memoria virtual en bytes.
_Se muestra como byte_ | +| **istio.galley.endpoint_no_pod**
(gauge) | \[OpenMetrics V1 y V2\] Endpoints sin pod asociado.| +| **istio.galley.mcp_source.clients_total**
(gauge) | \[OpenMetrics V1 y V2\] El número de flujos conectados actualmente.| +| **istio.galley.runtime_processor.event_span_duration_milliseconds**
(gauge) | \[OpenMetrics V1 y V2\] La duración entre cada evento entrante.
_Se muestra como milisegundo_ | +| **istio.galley.runtime_processor.events_processed_total**
(gauge) | \[OpenMetrics V1 y V2\] El número de eventos que se han procesado.| +| **istio.galley.runtime_processor.snapshot_events_total.bucket**
(count) | \[OpenMetrics V2\] El número de eventos por snapshot por upper_bound.| +| **istio.galley.runtime_processor.snapshot_events_total.count**
(count) | \[OpenMetrics V1 y V2\] El número de eventos por snapshot.| +| **istio.galley.runtime_processor.snapshot_events_total.sum**
(count) | \[OpenMetrics V1 y V2\] La duración de los eventos de snapshot.| +| **istio.galley.runtime_processor.snapshot_lifetime_duration_milliseconds**
(gauge) | \[OpenMetrics V1 y V2\] La duración de cada snapshot.
_Se muestra en milisegundos_ | +| **istio.galley.runtime_processor.snapshots_published_total**
(count) | \[OpenMetrics V1 y V2\] El número de snapshots que se han publicado.| +| **istio.galley.runtime_state_type_instances_total**
(gauge) | \[OpenMetrics V1 y V2\] El número de instancias de tipo por URL de tipo.| +| **istio.galley.runtime_strategy.on_change_total**
(count) | \[OpenMetrics V1 y V2\] El número de veces que se ha llamado al onChange de la estrategia.| +| **istio.galley.runtime_strategy.timer_max_time_reached_total**
(count) | \[OpenMetrics V1 y V2\] El número de veces que se ha alcanzado el tiempo máximo.| +| **istio.galley.runtime_strategy.quiesce_reached_total**
(count) | \[OpenMetrics V1 y V2\] El número de veces que se ha alcanzado un quiesce.| +| **istio.galley.runtime_strategy.timer_resets_total**
(count) | \[OpenMetrics V1 y V2\] El número de veces que se ha reiniciado el temporizador.| +| **istio.galley.source_kube.dynamic_converter_success_total**
(count) | \[OpenMetrics V1 y V2\] El número de veces que una fuente de kubernetes dinámica convirtió con éxito un recurso.| +| **istio.galley.source_kube.event_success_total**
(count) | \[OpenMetrics V1 y V2\] El número de veces que una fuente de kubernetes gestionó con éxito un evento.| +| **istio.galley.validation.cert_key_updates**
(count) | \[OpenMetrics V1 y V2\] Actualizaciones de certificados del webhook de validación de Galley.| +| **istio.galley.validation.config_load**
(count) | |[OpenMetrics V1 y V2\] Recargas de configuración del webhook de K8s.| +| **istio.galley.validation.config_update**
(count) | \[OpenMetrics V1 y V2\] Actualizaciones de configuración del webhook de K8s.| +| **istio.galley.validation.passed**
(count) | \[OpenMetrics V1 y V2\] El recurso es válido.| +| **istio.citadel.secret_controller.csr_err_count**
(count) | \[OpenMetrics V1 y V2\] El número de errores ocurridos al crear el CSR.| +| **istio.citadel.secret_controller.secret_deleted_cert_count**
(count) | \[OpenMetrics V1 y V2\] El número de certificados recreados debido a la eliminación secreta (la cuenta de servicio aún existe).| +| **istio.citadel.secret_controller.svc_acc_created_cert_count**
(count) | \[OpenMetrics V1 y V2\] El número de certificados creados debido a la creación de cuentas de servicio.| +| **istio.citadel.secret_controller.svc_acc_deleted_cert_count**
(count) | \[OpenMetrics V1 y V2\] El número de certificados eliminados debido a la eliminación de cuentas de servicio.| +| **istio.citadel.server.authentication_failure_count**
(count) | \[OpenMetrics V1 y V2\] El número de fallos de autenticación.
_Se muestra como error_ | +| **istio.citadel.server.citadel_root_cert_expiry_timestamp**
(gauge) | \[OpenMetrics V1 y V2\] La fecha y hora unix, en segundos, en la que caducará el certificado raíz de Citadel. Lo ponemos en negativo en caso de error interno.
_Se muestra como segundo_ | +| **istio.citadel.server.csr_count**
(count) | \[OpenMetrics V1 y V2\] El número de CSRs recibidos por el servidor Citadel.| +| **istio.citadel.server.csr_parsing_err_count**
(count) | \[OpenMetrics V1 y V2\] El número de errores ocurridos al analizar el CSR.
_Se muestra como error_ | +| **istio.citadel.server.id_extraction_err_count**
(count) | \[OpenMetrics V1 y V2\] El número de errores ocurridos al extraer el ID de CSR.
_Se muestra como error_ | +| **istio.citadel.server.success_cert_issuance_count**
(count) | \[OpenMetrics V1 y V2\] El número de emisiones de certificados que han tenido éxito.| +| **istio.citadel.go.gc_duration_seconds.count**
(count) | \[OpenMetrics V1 y V2\] Recuento de las duraciones de invocación GC. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.citadel.go.gc_duration_seconds.quantile**
(gauge) | \[OpenMetrics V1 y V2\] Cuantil de las duraciones de invocación GC.
_Se muestra como segundo_ | +| **istio.citadel.go.gc_duration_seconds.sum**
(count) | \[OpenMetrics V1 y V2\] Suma de las duraciones de invocación GC. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.citadel.go.goroutines**
(gauge) | \[OpenMetrics V1 y V2\] Número de goroutines que existen actualmente.
_Se muestra como subproceso_ | +| **istio.citadel.go.info**
(gauge) | \[OpenMetrics V1 y V2\] Información sobre el entorno de Go.| +| **istio.citadel.go.memstats.alloc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes asignados y aún en uso.
_Se muestra como byte_ | +| **istio.citadel.go.memstats.alloc_bytes_total**
(count) | \[OpenMetrics V1 y V2\] Número total de bytes asignados aunque se hayan liberado.
_Se muestra como byte_ | +| **istio.citadel.go.memstats.buck_hash_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados por la tabla hash del bucket de perfiles.
_Se muestra como byte_ | +| **istio.citadel.go.memstats.frees_total**
(count) | \[OpenMetrics V1 y V2\] Número total de libres.| +| **istio.citadel.go.memstats.gc_cpu_fraction**
(gauge) | \[OpenMetrics V1 y V2\] CPU ocupada por GC
_Se muestra en porcentaje_ | +| **istio.citadel.go.memstats.gc_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para los metadatos del sistema de recopilación de elementos no usados.
_Se muestra como byte_ | +| **istio.citadel.go.memstats.heap_alloc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Bytes asignados al heap
_Se muestra como byte_ | +| **istio.citadel.go.memstats.heap_idle_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes ociosos en el heap
_Se muestra como byte_ | +| **istio.citadel.go.memstats.heap_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en el heap
_Se muestra como byte_ | +| **istio.citadel.go.memstats.heap_objects**
(gauge) | \[OpenMetrics V1 y V2\] Número de objetos en el heap
_Se muestra como objeto_ | +| **istio.citadel.go.memstats.heap_released_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes liberados al sistema en el último gc
_Se muestra como byte_ | +| **istio.citadel.go.memstats.heap_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados por el heap
_Se muestra como byte_ | +| **istio.citadel.go.memstats.last_gc_time_seconds**
(gauge) | \[OpenMetrics V1 y V2\] Longitud de la última GC
_Se muestra como segundo_ | +| **istio.citadel.go.memstats.lookups_total**
(count) | \[OpenMetrics V1 y V2\] Número de búsquedas
_Se muestra como operación_ | +| **istio.citadel.go.memstats.mallocs_total**
(count) | \[OpenMetrics V1 y V2\] Número de mallocs
_Se muestra como operación_ | +| **istio.citadel.go.memstats.mcache_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por las estructuras mcache.
_Se muestra como byte_ | +| **istio.citadel.go.memstats.mcache_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para las estructuras mcache obtenidas del sistema.
_Se muestra como byte_ | +| **istio.citadel.go.memstats.mspan_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por las estructuras mspan.
_Se muestra como byte_ | +| **istio.citadel.go.memstats.mspan_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para las estructuras mspan obtenidas del sistema.
_Se muestra como byte_ | +| **istio.citadel.go.memstats.next_gc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes del heap cuando se realice la próxima recopilación de elementos no usados
_Se muestra como byte_ | +| **istio.citadel.go.memstats.other_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para otras asignaciones del sistema
_Se muestra como byte_ | +| **istio.citadel.go.memstats.stack_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por el asignador de stack tecnológico
_Se muestra como byte_ | +| **istio.citadel.go.memstats.stack_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes obtenidos del sistema para el asignador de stack tecnológico
_Se muestra como byte_ | +| **istio.citadel.go.memstats.sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes obtenidos del sistema
_Se muestra como byte_ | +| **istio.citadel.go.threads**
(gauge) | \[OpenMetrics V1 y V2\] Número de subprocesos de SO creados.
_Se muestra como subproceso_ | +| **istio.citadel.process.cpu_seconds_total**
(gauge) | \[OpenMetrics V1 y V2\] Tiempo total de CPU del usuario y del sistema empleado en segundos.
_Se muestra en segundos_ | +| **istio.citadel.process.max_fds**
(gauge) | \[OpenMetrics V1 y V2\] Número máximo de descriptores de archivo abiertos.
_Se muestra como archivo_ | +| **istio.citadel.process.open_fds**
(gauge) | \[OpenMetrics V1 y V2\] Número de descriptores de archivo abiertos.
_Se muestra como archivo_ | +| **istio.citadel.process.resident_memory_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Tamaño de la memoria residente en bytes.
_Se muestra como byte_ | +| **istio.citadel.process.start_time_seconds**
(gauge) | \[OpenMetrics V1 y V2\] Tiempo de inicio del proceso desde unix epoch en segundos.
_Se muestra como segundo_ | +| **istio.citadel.process.virtual_memory_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Tamaño de la memoria virtual en bytes.
_Se muestra como byte_ | +| **istio.galley.validation.config_update_error**
(count) | \[OpenMetrics V1 y V2\] Error de actualización de la configuración del webhook de K8s
_Se muestra como error_ | +| **istio.citadel.server.cert_chain_expiry_timestamp**
(gauge) | \[OpenMetrics V1 y V2\] La fecha y hora unix (en segundos) en la que caducará la cadena de certificados Citadel. Negativo en caso de error interno
_Se muestra como segundo_ | +| **istio.citadel.server.root_cert_expiry_timestamp**
(gauge) | \[OpenMetrics V1 y V2\] La fecha y hora unix (en segundos) en que caducará el certificado raíz de Citadel. Negativo en caso de error interno
_Se muestra como segundo_ | +| **istio.galley.validation.failed**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Fallo en la validación de recursos| +| **istio.pilot.conflict.outbound_listener.http_over_https**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de escuchas HTTP en conflicto con puertos HTTPS bien conocidos.| +| **istio.pilot.inbound_updates**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número total de actualizaciones recibidas por pilot| +| **istio.pilot.k8s.cfg_events**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Eventos de configuración de k8s
_Se muestra como evento_ | +| **istio.pilot.k8s.reg_events**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Eventos del registro de k8s
_Se muestra como evento_ | +| **istio.pilot.proxy_queue_time.count**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Recuento de observaciones para cuando el proxy está en una cola push antes de salir de la cola. Esta métrica se envía como indicador por defecto en OpenMetrics V1.| +| **istio.pilot.proxy_queue_time.sum**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Suma de valores observados para cuando el proxy está en una cola push antes de salir de la cola. Esta métrica se envía como indicador por defecto en OpenMetrics V1.| +| **istio.pilot.push.triggers**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número total de veces que se activó un push
_Se muestra como evento_ | +| **istio.pilot.xds.eds_all_locality_endpoints**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Endpoints de red para cada clúster (a través de todas las localidades) desde el último push. Cero endpoints es un error| +| **istio.pilot.xds.push.time.count**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Recuento de observaciones del tiempo total que tarda Pilot en realizar un push. Esta métrica se envía como indicador por defecto en OpenMetrics V1.| +| **istio.pilot.xds.push.time.sum**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Suma de los valores observados del tiempo total que Pilot tarda en realizar un push. Esta métrica se envía como indicador por defecto en OpenMetrics V1.| +| **istio.sidecar_injection.requests_total**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número total de solicitudes de inyección auxiliar
_Se muestra como solicitud_ | +| **istio.sidecar_injection.success_total**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número total de solicitudes de inyección auxiliar con éxito
_Se muestra como solicitud_ | +| **istio.sidecar_injection.failure_total**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número total de solicitudes de inyección auxiliar fallidas
_Se muestra como solicitud_ | +| **istio.sidecar_injection.skip_total**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número total de solicitudes de inyección auxiliar omitidas
_Se muestra como solicitud_ | +| **istio.mesh.request.duration.milliseconds.sum**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Suma total de valores observados para la duración de las solicitudes en ms. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como milisegundo_ | +| **istio.mesh.request.duration.milliseconds.count**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Recuento total de valores observados para la duración de las solicitudes. Esta métrica se envía como indicador por defecto en OpenMetrics V1.| +| **istio.mesh.tcp.connections_closed.total**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Total de conexiones cerradas| +| **istio.mesh.tcp.connections_opened.total**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Total de conexiones abiertas| +| **istio.mesh.tcp.received_bytes.total**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Tamaño del total de bytes recibidos durante la solicitud en caso de una conexión TCP
_Se muestra como byte_ | +| **istio.mesh.tcp.send_bytes.total**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Tamaño del total de bytes enviados durante la respuesta en caso de una conexión TCP
_Se muestra como byte_ | +| **istio.mesh.request.count.total**
(count) | \[OpenMetrics V1 e Istio v1.5+\] El número de solicitudes como recuento monotónico
_Se muestra como solicitud_ | +| **istio.mesh.request.duration.milliseconds.count.total**
(count) | \[OpenMetrics V1 e Istio v1.5+\] Recuento total de valores observados para la duración de las solicitudes como recuento monotónico.| +| **istio.mesh.request.duration.milliseconds.sum.total**
(count) | \[OpenMetrics V1 e Istio v1.5+\] Suma total de los valores observados para la duración de las solicitudes como recuento monotónico.| +| **istio.mesh.request.size.count.total**
(count) | \[OpenMetrics V1 e Istio v1.5+\] Recuento de tamaños de solicitud observados como recuento monotónico.| +| **istio.mesh.request.size.sum.total**
(count) | \[OpenMetrics V1 e Istio v1.5+\] Suma de los tamaños de solicitud observados como recuento monotónico.| +| **istio.mesh.response.size.count.total**
(count) | \[OpenMetrics V1 e Istio v1.5+\] Recuento del tamaño de respuesta observado como recuento monotónico.| +| **istio.mesh.response.size.sum.total**
(count) | \[OpenMetrics V1 e Istio v1.5+\] Suma del tamaño de respuesta observado como recuento monotónico.| +| **istio.mesh.tcp.connections_closed.total.total**
(count) | \[OpenMetrics V1 e Istio v1.5+\] Total de conexiones cerradas como recuento monotónico| +| **istio.mesh.tcp.connections_opened.total.total**
(count) | \[OpenMetrics V1 e Istio v1.5+\] Total de conexiones abiertas como recuento monotónico| +| **istio.mesh.tcp.received_bytes.total.total**
(count) | \[OpenMetrics V1 e Istio v1.5+\] Tamaño del total de bytes recibidos durante la solicitud en caso de una conexión TCP como recuento monotónico
_Se muestra como byte_ | +| **istio.mesh.tcp.send_bytes.total.total**
(count) | \[OpenMetrics V1 e Istio v1.5+\] Tamaño del total de bytes enviados durante la respuesta en caso de una conexión TCP como recuento monotónico
_Se muestra como byte_ | +| **istio.mesh.request.duration.count.total**
(count) | \[OpenMetrics V1 e Istio v1.5+\] Recuento de duraciones de solicitud como recuento monotónico
_Se muestra como solicitud_ | +| **istio.mesh.request.duration.sum.total**
(count) | \[OpenMetrics V1 e Istio v1.5+\] Suma de las duraciones de las solicitudes como recuento monotónico
_Se muestra como milisegundo_ | +| **istio.grpc.server.handled_total**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número total de RPCs completadas en el servidor, independientemente del éxito o fracaso.| +| **istio.grpc.server.handling_seconds.count**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Latencia de respuesta de gRPC que ha sido manejada a nivel de aplicación por el servidor. Esta métrica se envía como indicador por defecto en OpenMetrics V1.| +| **istio.grpc.server.handling_seconds.sum**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Latencia de respuesta de gRPC que ha sido manejada a nivel de aplicación por el servidor. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.grpc.server.msg_received_total**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número total de mensajes de flujo RPC recibidos en el servidor.
_Se muestra como mensaje_ | +| **istio.grpc.server.msg_sent_total**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número total de mensajes de flujo gRPC enviados por el servidor.
_Se muestra como mensaje_ | +| **istio.grpc.server.started_total**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número total de RPCs iniciadas en el servidor.| +| **istio.go.gc_duration_seconds.count**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Recuento de las duraciones de invocación GC. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.go.gc_duration_seconds.quantile**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Cuantil de las duraciones de invocación GC.
_Se muestra como segundo_ | +| **istio.go.gc_duration_seconds.sum**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Suma de las duraciones de invocación GC. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.go.goroutines**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de goroutines que existen actualmente.
_Se muestra como subproceso_ | +| **istio.go.info**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Información sobre el entorno de Go.| +| **istio.go.memstats.alloc_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de bytes asignados y aún en uso.
_Se muestra como byte_ | +| **istio.go.memstats.alloc_bytes_total**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número total de bytes asignados aunque se hayan liberado.
_Se muestra como byte_ | +| **istio.go.memstats.buck_hash_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de bytes utilizados por la tabla hash del bucket de perfiles.
_Se muestra como byte_ | +| **istio.go.memstats.frees_total**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número total de libres.
_Se muestra como byte_ | +| **istio.go.memstats.gc_cpu_fraction**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] CPU ocupada por GC.
_Se muestra en porcentaje_ | +| **istio.go.memstats.gc_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de bytes utilizados para los metadatos del sistema de recopilación de elementos no usados.
_Se muestra como byte_ | +| **istio.go.memstats.heap_alloc_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Bytes asignados al heap.
_Se muestra como byte_ | +| **istio.go.memstats.heap_idle_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de bytes ociosos en el heap.
_Se muestra como byte_ | +| **istio.go.memstats.heap_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de bytes en el heap.
_Se muestra como byte_ | +| **istio.go.memstats.heap_objects**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de objetos en el heap.
_Se muestra como objeto_ | +| **istio.go.memstats.heap_released_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de bytes liberados al sistema en el último gc.
_Se muestra como byte_ | +| **istio.go.memstats.heap_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de bytes utilizados por el heap.
_Se muestra como byte_ | +| **istio.go.memstats.last_gc_time_seconds**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Duración de la última GC.
_Se muestra como segundo_ | +| **istio.go.memstats.lookups_total**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de búsquedas.
_Se muestra como operación_ | +| **istio.go.memstats.mallocs_total**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de mallocs
_Se muestra como operación_ | +| **istio.go.memstats.mcache_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de bytes en uso por las estructuras mcache.
_Se muestra como byte_ | +| **istio.go.memstats.mcache_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de bytes utilizados para las estructuras mcache obtenidas del sistema.
_Se muestra como byte_ | +| **istio.go.memstats.mspan_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de bytes en uso por las estructuras mspan.
_Se muestra como byte_ | +| **istio.go.memstats.mspan_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de bytes utilizados para las estructuras mspan obtenidas del sistema.
_Se muestra como byte_ | +| **istio.go.memstats.next_gc_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de bytes del heap cuando se realice la próxima recopilación de elementos no usados.
_Se muestra como byte_ | +| **istio.go.memstats.other_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de bytes utilizados para otras asignaciones del sistema.
_Se muestra como byte_ | +| **istio.go.memstats.stack_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de bytes en uso por el asignador de stack tecnológico.
_Se muestra como byte_ | +| **istio.go.memstats.stack_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de bytes obtenidos del sistema para el asignador de stack tecnológico.
_Se muestra como byte_ | +| **istio.go.memstats.sys_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de bytes obtenidos del sistema.
_Se muestra como byte_ | +| **istio.go.threads**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de subprocesos de SO creados.
_Se muestra como subproceso_ | +| **istio.process.cpu_seconds_total**
(count) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Tiempo total empleado por el usuario y la CPU del sistema.
_Se muestra en segundos_ | +| **istio.process.max_fds**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número máximo de descriptores de archivo abiertos.
_Se muestra como archivo_ | +| **istio.process.open_fds**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Número de descriptores de archivo abiertos.
_Se muestra como archivo_ | +| **istio.process.resident_memory_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Tamaño de la memoria residente en bytes.
_Se muestra como byte_ | +| **istio.process.start_time_seconds**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Tiempo de inicio del proceso desde unix epoch en segundos.
_Se muestra como segundo_ | +| **istio.process.virtual_memory_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Cantidad de memoria virtual utilizada.
_Se muestra como byte_ | +| **istio.process.virtual_memory_max_bytes**
(gauge) | \[OpenMetrics V1 y V2 e Istio v1.5+\] Cantidad máxima de memoria virtual disponible.
_Se muestra como byte_ | +| **istio.galley.validation.config_update_error.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Error de actualización de la configuración del webhook de K8s
_Se muestra como error_ | +| **istio.galley.validation.config_update.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Actualizaciones de configuración del webhook de K8s.| +| **istio.galley.validation.failed.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Recuento de fallos en la validación de recursos| +| **istio.go.memstats.frees.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Número total de libres.| +| **istio.go.memstats.lookups.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Número de búsquedas
_Se muestra como operación_ | +| **istio.go.memstats.mallocs.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Número de mallocs
_Se muestra como byte_ | +| **istio.grpc.server.handled.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Número total de solicitudes totalmente gestionadas, con respuestas
_Se muestra como solicitud_ | +| **istio.grpc.server.msg_received.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Número total de mensajes de flujo RPC recibidos en el servidor.
_Se muestra como mensaje_ | +| **istio.grpc.server.msg_sent.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Número total de mensajes enviados
_Se muestra como mensaje_ | +| **istio.grpc.server.started.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Número total de RPC iniciadas en el servidor.| +| **istio.pilot.inbound_updates.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Número total de actualizaciones recibidas por pilot| +| **istio.pilot.k8s.cfg_events.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Eventos de configuración de k8s
_Se muestra como evento_ | +| **istio.pilot.k8s.reg_events.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Eventos del registro de k8s
_Se muestra como evento_ | +| **istio.pilot.push.triggers.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Número total de veces que se activó un push.| +| **istio.pilot.xds.pushes.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\\] Compilación de Pilot y envío de errores para lds, rds, cds y eds.| +| **istio.process.cpu_seconds.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Tiempo total de CPU del usuario y del sistema empleado en segundos.
_Se muestra como segundo_ | +| **istio.sidecar_injection.requests.count**
(count) | \[OpenMetrics V2 and Istio v1.5+\] Número total de solicitudes de inyección auxiliar
_Se muestra como solicitud_ | +| **istio.sidecar_injection.success.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Número total de solicitudes de inyección auxiliar con éxito
_Se muestra como solicitud_ | +| **istio.mesh.tcp.connections_closed.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Total de conexiones cerradas como recuento monotónico| +| **istio.mesh.tcp.connections_opened.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Total de conexiones abiertas como recuento monotónico| +| **istio.mesh.tcp.received_bytes.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Tamaño del total de bytes recibidos durante la solicitud en caso de una conexión TCP como recuento monotónico
_Se muestra como byte_ | +| **istio.mesh.tcp.send_bytes.count**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Tamaño del total de bytes enviados durante la respuesta en caso de una conexión TCP como recuento monotónico
_Se muestra como byte_ | +| **istio.grpc.server.handling_seconds.bucket**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Bucket de latencia de respuesta (segundos) de gRPC que había sido manejado a nivel de aplicación por el servidor.
_Se muestra como segundo_ | +| **istio.pilot.proxy_convergence_time.bucket**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Retraso entre el cambio de configuración y la convergencia de todos los proxies.
_Se muestra como segundo_ | +| **istio.pilot.proxy_queue_time.bucket**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Bucket de valores observados para cuando el proxy está en una cola push antes de salir de la cola.| +| **istio.pilot.xds.push.time.bucket**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Bucket de observación del tiempo total que Pilot tarda en realizar un push.| +| **istio.mesh.request.duration.milliseconds.bucket**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Bucket de valores observados para la duración de las solicitudes
_Se muestra como milisegundo_ | +| **istio.mesh.response.size.bucket**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Bucket de tamaños de respuesta
_Se muestra como respuesta_ | +| **istio.mesh.request.size.bucket**
(count) | \[OpenMetrics V2 e Istio v1.5+\] Bucket de tamaños de solicitud
_Se muestra como solicitud_ | +| **istio.mesh.agent.pilot.conflict.outbound_listener.http_over_current_tcp**
(gauge) | \[OpenMetrics V1 y V2\] Número de escuchas http comodín en conflicto con la escucha tcp comodín actual.| +| **istio.mesh.agent.go.memstats.stack_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes obtenidos del sistema para el asignador de stack tecnológico
_Se muestra como byte_ | +| **istio.mesh.agent.conflict.inbound_listener**
(gauge) | \[OpenMetrics V1 y V2\] Número de escuchas entrantes en conflicto.| +| **istio.mesh.agent.go.memstats.sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes obtenidos del sistema
_Se muestra como byte_ | +| **istio.mesh.agent.pilot.xds**
(gauge) | \[OpenMetrics V1 y V2\] Número de endpoints conectados a este pilot usando XDS.| +| **istio.mesh.agent.go.memstats.alloc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes asignados y aún en uso.
_Se muestra como byte_ | +| **istio.mesh.agent.go.memstats.heap_idle_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes ociosos en el heap.
_Se muestra como byte_ | +| **istio.mesh.agent.process.resident_memory_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Tamaño de la memoria residente en bytes.
_Se muestra como byte_ | +| **istio.mesh.agent.conflict.outbound_listener.tcp_over_current_tcp**
(gauge) | \[OpenMetrics V1 y V2\] Número de escuchas tcp en conflicto con la escucha tcp actual.| +| **istio.mesh.agent.go.memstats.gc_cpu_fraction**
(gauge) | \[OpenMetrics V1 y V2\] CPU ocupada por GC.| +| **istio.mesh.agent.go.memstats.heap_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados por el heap.
_Se muestra como byte_ | +| **istio.mesh.agent.go.memstats.stack_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por el asignador de stack tecnológico
_Se muestra como byte_ | +| **istio.mesh.agent.go.memstats.heap_released_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes liberados al sistema en el último gc.
_Se muestra como byte_ | +| **istio.mesh.agent.go.memstats.mspan_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por las estructuras mspan.
_Se muestra como byte_ | +| **istio.mesh.agent.go.memstats.mallocs.count**
(count) | \[OpenMetrics V1 y V2\] Número de mallocs
_Se muestra como byte_ | +| **istio.mesh.agent.pilot.endpoint_not_ready**
(gauge) | \ [OpenMetrics V1 y V2\] Endpoint encontrado en estado no preparado.| +| **istio.mesh.agent.pilot.no_ip**
(gauge) | \[OpenMetrics V1 y V2\] Pods no encontrados en la tabla de endpoint, posiblemente no válidos.| +| **istio.mesh.agent.num_outgoing_requests.count**
(count) | \[OpenMetrics V1 y V2\] Número de solicitudes salientes.| +| **istio.mesh.agent.go.memstats.other_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para otras asignaciones del sistema.
_Se muestra como byte_ | +| **istio.mesh.agent.pilot.xds.config_size_bytes.sum**
(count) | \[OpenMetrics V1 y V2\] Suma del tamaño de la configuración XDS de pilot.
_Se muestra como byte_ | +| **istio.mesh.agent.pilot.xds.config_size_bytes.count**
(count) | \[OpenMetrics V1 y V2\] Recuento de muestras de tamaño de configuración XDS de pilot.| +| **istio.mesh.agent.pilot.xds.config_size_bytes.bucket**
(count) | \[OpenMetrics V1 y V2\] Número de tamaño de configuración XDS de pilot.
_Se muestra como byte_ | +| **istio.mesh.agent.process.open_fds**
(gauge) | \[OpenMetrics V1 y V2\] Número de descriptores de archivo abiertos.
_Se muestra como archivo_ | +| **istio.mesh.agent.go.goroutines**
(gauge) | \[OpenMetrics V1 y V2\] Número de goroutines que existen actualmente.
_Se muestra como subproceso_ | +| **istio.mesh.agent.go.threads**
(gauge) | \[OpenMetrics V1 y V2\] Número de subprocesos de SO creados.
_Se muestra como subproceso_ | +| **istio.mesh.agent.go.info**
(gauge) | \[OpenMetrics V1 y V2\] Información sobre el entorno de Go.| +| **istio.mesh.agent.go.memstats.frees.count**
(count) | \[OpenMetrics V1 y V2\] Número total de libres.| +| **istio.mesh.agent.go.memstats.mcache_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en uso por las estructuras mcache.
_Se muestra como byte_ | +| **istio.mesh.agent.process.virtual_memory_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Tamaño de la memoria virtual en bytes.
_Se muestra como byte_ | +| **istio.mesh.agent.endpoint_no_pod**
(gauge) | \[OpenMetrics V1 y V2\] Endpoints sin pod asociado.| +| **istio.mesh.agent.go.gc_duration_seconds.sum**
(count) | \[OpenMetrics V1 y V2\] Suma de las duraciones de invocación GC. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.mesh.agent.go.gc_duration_seconds.count**
(count) | \[OpenMetrics V1 y V2\] Recuento de las duraciones de invocación GC. Esta métrica se envía como indicador por defecto en OpenMetrics V1.
_Se muestra como segundo_ | +| **istio.mesh.agent.go.gc_duration_seconds.quantile**
(gauge) | \[OpenMetrics V1 y V2\] Cuantil de las duraciones de invocación GC.
_Se muestra como segundo_ | +| **istio.mesh.agent.process.cpu_seconds.count**
(count) | \[OpenMetrics V1 y V2\] Tiempo total de CPU del usuario y del sistema empleado en segundos.
_Se muestra en segundos_ | +| **istio.mesh.agent.go.memstats.heap_objects**
(gauge) | \[OpenMetrics V1 y V2\] Número de objetos en el heap
_Se muestra como objeto_ | +| **istio.mesh.agent.pilot.vservice_dup_domain**
(gauge) | \[OpenMetrics V1 y V2\] Servicios virtuales con dominios dup.| +| **istio.mesh.agent.process.virtual_memory_max_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Cantidad máxima de memoria virtual disponible.
_Se muestra como byte_ | +| **istio.mesh.agent.go.memstats.mcache_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para las estructuras mcache obtenidas del sistema.
_Se muestra como byte_ | +| **istio.mesh.agent.scrapes.count**
(count) | \[OpenMetrics V1 y V2\] Número de scrapes.| +| **istio.mesh.agent.pilot.duplicate_envoy_clusters**
(gauge) | \[OpenMetrics V1 y V2\] Clústeres envoy duplicados causados por entradas de servicio con el mismo nombre de host.| +| **istio.mesh.agent.go.memstats.buck_hash_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados por la tabla hash del bucket de perfiles.
_Se muestra como byte_ | +| **istio.mesh.agent.pilot.xds.push_time.sum**
(count) | \[OpenMetrics V1 y V2\] Suma el tiempo de push XDS del pilot.| +| **istio.mesh.agent.pilot.xds.push_time.count**
(count) | \[OpenMetrics V1 y V2\] Número total de muestras de tiempo de push XDS del pilot.| +| **istio.mesh.agent.pilot.xds.push_time.bucket**
(count) | \[OpenMetrics V1 y V2\] Tiempo de push XDS del pilot.| +| **istio.mesh.agent.wasm_cache_entries**
(gauge) | \[OpenMetrics V1 y V2\] Número de entradas en la caché de Web Assembly.
_Se muestra como entrada_ | +| **istio.mesh.agent.pilot.eds_no_instances**
(gauge) | \[OpenMetrics V1 y V2\] Número de clústeres sin instancias.| +| **istio.mesh.agent.go.memstats.heap_alloc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Bytes asignados al heap
_Se muestra como byte_ | +| **istio.mesh.agent.pilot.virt_services**
(gauge) | \[OpenMetrics V1 y V2\] Total de servicios virtuales conocidos por el pilot.| +| **istio.mesh.agent.go.memstats.next_gc_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes del heap cuando se realice la próxima recopilación de elementos no usados
_Se muestra como byte_ | +| **istio.mesh.agent.startup_duration_seconds**
(gauge) | \[OpenMetrics V1 y V2\] Tiempo de duración del arranque en segundos.
_Se muestra como segundo_ | +| **istio.mesh.agent.go.memstats.last_gc_time_seconds**
(gauge) | \[OpenMetrics V1 y V2\] Longitud de la última GC
_Se muestra como segundo_ | +| **istio.mesh.agent.pilot.xds.send_time.sum**
(count) | \[OpenMetrics V1 y V2\] Suma del tiempo de envío XDS de pilot.| +| **istio.mesh.agent.pilot.xds.send_time.count**
(count) | \[OpenMetrics V1 y V2\] Recuento de la muestra de tiempo de envío XDS de pilot.| +| **istio.mesh.agent.pilot.xds.send_time.bucket**
(count) | \[OpenMetrics V1 y V2\] Tiempo de envío XDS de pilot.| +| **istio.mesh.agent.go.memstats.heap_inuse_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes en el heap
_Se muestra como byte_ | +| **istio.mesh.agent.process.max_fds**
(gauge) | \[OpenMetrics V1 y V2\] Número máximo de descriptores de archivo abiertos.
_Se muestra como archivo_ | +| **istio.mesh.agent.go.memstats.gc_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para los metadatos del sistema de recopilación de elementos no usados.
_Se muestra como byte_ | +| **istio.mesh.agent.pilot.destrule_subsets**
(gauge) | \[OpenMetrics V1 y V2\] Subconjuntos duplicados en reglas de destino para el mismo host.| +| **istio.mesh.agent.pilot.xds.pushes.count**
(count) | \[OpenMetrics V1 y V2\] Compilación de pilot y errores de envío para lds, rds, cds y eds.| +| **istio.mesh.agent.process.start_time_seconds**
(gauge) | \[OpenMetrics V1 y V2\] Tiempo de inicio del proceso desde unix epoch en segundos.
_Se muestra como segundo_ | +| **istio.mesh.agent.go.memstats.lookups.count**
(count) | \[OpenMetrics V1 y V2\] Número de búsquedas
_Se muestra como operación_ | +| **istio.mesh.agent.outgoing_latency.count**
(count) | \[OpenMetrics V1 y V2\] Latencia total de salida.| +| **istio.mesh.agent.go.memstats.mspan_sys_bytes**
(gauge) | \[OpenMetrics V1 y V2\] Número de bytes utilizados para las estructuras mspan obtenidas del sistema.
_Se muestra como byte_ | +| **istio.mesh.agent.pilot.conflict.outbound_listener.tcp_over_current_http**
(gauge) | \[OpenMetrics V1 y V2\] Número de escuchas tcp comodín en conflicto con la escucha http comodín actual.| +| **istio.galley.source.kube.event.error.count**
(count) | \[OpenMetrics V2\] Número de veces que una fuente de kubernetes encontró error al manejar un evento.| +| **istio.galley.source.kube.dynamic.converter.failure.count**
(count) | \[OpenMetrics V2\] Número de veces que una fuente dinámica de kubernetes falló al convertir un recurso.| +| **istio.galley.validation.cert.key.update.errors.count**
(count) | \[OpenMetrics V2\] Número de errores de actualización de certificados del webhook de validación de Galley.| +| **istio.galley.validation.http.error.count**
(count) | \[OpenMetrics V2\] Número de errores de servicio http de validación de recursos.| +| **istio.mcp.clients.count**
(count) | \[OpenMetrics V2\] Número de flujos conectados actualmente.| +| **istio.mcp.request.acks.count**
(count) | \[OpenMetrics V2\] Número de aceptaciones de solicitud recibidas por la fuente.| +| **istio.mcp.request.nacks.count**
(count) | \[OpenMetrics V2\] Número de nacks de solicitud recibidos por la fuente.| +| **istio.mixer.config.rule.config.errors.count**
(count) | \[OpenMetrics V2\] Número de errores encontrados durante el procesamiento de la configuración de reglas.| +| **istio.mixer.config.rule.config.match.errors.count**
(count) | \[OpenMetrics V2\] Número de condiciones de reglas que no se han podido analizar.| +| **istio.mixer.config.unsatisfied.action.handlers.count**
(count) | \[OpenMetrics V2\] Número de acciones que fallaron debido a que los manejadores no estaban disponibles.| +| **istio.mixer.config.adapter.info.configs.count**
(count) | \[OpenMetrics V2\] Número de adaptadores conocidos en la configuración actual.| +| **istio.mixer.config.adapter.info.config.errors.count**
(count) | \[OpenMetrics V2\] Número de errores encontrados durante el procesamiento de la configuración de la información del adaptador.| +| **istio.mixer.config.handler.validation.errors.count**
(count) | \[OpenMetrics V2\] Número de errores encontrados porque la validación del manejador devolvió error.| +| **istio.mixer.config.instance.config.errors.count**
(count) | \[OpenMetrics V2\] Número de errores encontrados durante el procesamiento de la configuración de la instancia.| +| **istio.mixer.handler.handler.build.failures.count**
(count) | \[OpenMetrics V2\] Número de gestores cuya creación ha fallado durante la transición de configuración.| +| **istio.galley.istio.networking.virtualservices**
(gauge) | | +| **istio.galley.istio.networking.destinationrules**
(gauge) | | +| **istio.galley.istio.networking.gateways**
(gauge) | | +| **istio.galley.istio.authentication.meshpolicies**
(gauge) | | ### Eventos El check de Istio no incluye eventos. ### Checks de servicio -{{< get-service-checks-from-git "istio" >}} +**istio.prometheus.health** + +Devuelve `CRITICAL` si el check no puede acceder al endpoint de métricas. En caso contrario, devuelve `OK`. + +_Estados: ok, critical_ + +**istio.openmetrics.health** + +Devuelve `CRITICAL` si el Agent no puede conectarse al endpoint de OpenMetrics, en caso contrario devuelve `OK`. + +_Estados: ok, critical_ + +**istio.pilot.prometheus.health** + +Devuelve `CRITICAL` si el check no puede acceder al endpoint de métricas. En caso contrario, devuelve `OK`. + +_Estados: ok, critical_ + +**istio.galley.prometheus.health** + +Devuelve `CRITICAL` si el check no puede acceder al endpoint de métricas. En caso contrario, devuelve `OK`. + +_Estados: ok, critical_ + +**istio.citadel.prometheus.health** + +Devuelve `CRITICAL` si el check no puede acceder al endpoint de métricas. En caso contrario, devuelve `OK`. + +_Estados: ok, critical_ ## Solucionar problemas ### Error de longitud de fragmento no válida + Si ves el siguiente error en el modo legacy de la integración Istio (versión `3.13.0` o anterior de la integración Istio): ```python @@ -303,12 +713,12 @@ Debes actualizar como mínimo al Agent `7.31.0` y a Python 3. Consulta la secci ### Uso de la integración genérica OpenMetrics en un despliegue de Istio -Si la inyección de sidecar proxy de Istio está habilitada, la monitorización de otras métricas de Prometheus utilizando la [integración OpenMetrics][19] con el mismo endpoint de métricas que `istio_mesh_endpoint` puede resultar en un uso elevado de métricas personalizadas y en una recopilación duplicada de métricas. +Si está activada la inyección auxiliar del proxy de Istio, la monitorización de otras métricas de Prometheus mediante la [integración de OpenMetrics](https://docs.datadoghq.com/integrations/openmetrics/) con el mismo endpoint de métricas que `istio_mesh_endpoint` puede dar lugar a un uso elevado de métricas personalizadas y a una recopilación duplicada de métricas. Para asegurarte de que tu configuración de OpenMetrics no recopile métricas de forma redundante, puedes: 1. Utilizar una coincidencia de métricas específica en la opción de configuración de `metrics` o -2. Si utilizas el valor comodín `*` para `metrics`, considera la posibilidad de utilizar las siguientes opciones de la integración OpenMetrics para excluir métricas ya compatibles con las integraciones Istio y Envoy. +1. Si utilizas el valor comodín `*` para `metrics`, considera la posibilidad de utilizar las siguientes opciones de la integración OpenMetrics para excluir métricas ya compatibles con las integraciones Istio y Envoy. #### Configuración del modo más reciente de OpenMetrics con recopilación de métricas genéricas @@ -341,36 +751,12 @@ instances: - envoy_* ``` -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][20]. +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog](https://docs.datadoghq.com/help/). ## Referencias adicionales Documentación útil adicional, enlaces y artículos: -- [Monitorización de tu malla de servicios Istio con Datadog][21] -- [Más información sobre cómo Datadog recopila claves métricas para la monitorización de Istio][22] -- [Monitorizarización de Istio con Datadog][3] - -[1]: https://www.datadoghq.com/blog/monitor-istio-with-npm/ -[2]: https://docs.datadoghq.com/tracing/setup_overview/proxy_setup/?tab=istio -[3]: https://www.datadoghq.com/blog/istio-datadog/ -[4]: https://docs.datadoghq.com/containers/kubernetes/integrations/ -[5]: https://docs.datadoghq.com/containers/docker/integrations/ -[6]: https://docs.datadoghq.com/integrations/guide/versions-for-openmetrics-based-integrations -[7]: https://app.datadoghq.com/account/settings/agent/latest -[8]: https://github.com/DataDog/integrations-core/tree/master/envoy#istio -[9]: https://istio.io/latest/docs/ops/deployment/architecture/ -[10]: https://github.com/DataDog/integrations-core/blob/master/istio/datadog_checks/istio/data/auto_conf.yaml -[11]: https://github.com/DataDog/integrations-core/blob/master/istio/datadog_checks/istio/data/conf.yaml.example -[12]: https://istio.io/latest/docs/setup/install/ -[13]: https://docs.datadoghq.com/agent/kubernetes/ -[14]: https://docs.datadoghq.com/agent/kubernetes/log/ -[15]: https://istio.io/latest/docs/tasks/observability/logs/access-log/ -[16]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information -[17]: https://github.com/DataDog/integrations-core/blob/master/istio/metadata.csv -[18]: https://github.com/DataDog/integrations-core/blob/master/istio/assets/service_checks.json -[19]: https://docs.datadoghq.com/integrations/openmetrics/ -[20]: https://docs.datadoghq.com/help/ -[21]: https://www.datadoghq.com/blog/monitor-istio-with-datadog -[22]: https://www.datadoghq.com/blog/istio-metrics/ - +- [Monitorizar tu malla de servicio de Istio con Datadog](https://www.datadoghq.com/blog/monitor-istio-with-datadog) +- [Aprende cómo Datadog recopila métricas clave para monitorizar Istio](https://www.datadoghq.com/blog/istio-metrics/) +- [Cómo monitorizar Istio con Datadog](https://www.datadoghq.com/blog/istio-datadog/) \ No newline at end of file diff --git a/content/es/integrations/lambdatest_license.md b/content/es/integrations/lambdatest_license.md new file mode 100644 index 0000000000000..90fefccc47185 --- /dev/null +++ b/content/es/integrations/lambdatest_license.md @@ -0,0 +1,126 @@ +--- +algolia: + subcategory: Integraciones de Marketplace +app_id: lambdatest-software-license +app_uuid: 19d686c3-df14-485b-8efb-539e3dbc23e9 +assets: {} +author: + homepage: https://www.lambdatest.com + name: LambdaTest Inc. + sales_email: billingteam@lambdatest.com + support_email: support@lambdatest.com + vendor_id: lambdatest +categories: +- rastreo de problemas +- automatización +- pruebas +- marketplace +- nube +- colaboración +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: lambdatest_license +integration_id: lambdatest-software-license +integration_title: LambdaTest +integration_version: '' +is_public: true +legal_terms: + eula: assets/eula.pdf +manifest_version: 2.0.0 +name: lambdatest_license +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: software-license + short_description: Cuota mensual por utilizar LambdaTest + unit_price: 19 +public_title: LambdaTest +short_description: Plataforma de pruebas de automatización inteligente para reducir + 10 veces el tiempo de ejecución de tests +supported_os: +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::macOS + - Supported OS::Windows + - Category::Issue Tracking + - Category::Automation + - Category::Testing + - Category::Marketplace + - Category::Cloud + - Category::Collaboration + - Offering::Software License + configuration: README.md#Setup + description: Plataforma de pruebas de automatización inteligente para reducir 10 + veces el tiempo de ejecución de tests + media: + - caption: Pruebas de aplicaciones + image_url: images/app-testing.jpg + media_type: imagen + - caption: Pruebas de automatización + image_url: images/automation-testing.jpg + media_type: imagen + - caption: Pruebas de Cypress + image_url: images/cypress-testing.jpg + media_type: imagen + - caption: Navegador LT + image_url: images/lt-browser.jpg + media_type: imagen + - caption: Pruebas en tiempo real + image_url: images/realtime-testing.jpg + media_type: imagen + overview: README.md#Overview + resources: + - resource_type: Blog + url: https://www.datadoghq.com/blog/monitor-user-bugs-with-lambdatest/ + support: README.md#Support + title: LambdaTest + uninstallation: README.md#Uninstallation +--- + + + + +## Información general + +[LambdaTest][4] es una plataforma de ejecución de tests basada en la nube que permite a los usuarios ejecutar tests manuales y automatizados en sitios y aplicaciones web en más de 2000 navegadores, versiones de navegadores y sistemas operativos. + +LambdaTest puede ejecutar tests manuales y automatizados y es compatible con distintos marcos de pruebas de automatización como Selenium, Cypress y TestCafe. Además, puedes log errores con un solo clic mientras realizas pruebas entre navegadores de tus sitios web (y aplicaciones web) desde la plataforma LambdaTest a Datadog. LambdaTest incluye automáticamente detalles del entorno de las pruebas, como la versión del navegador, el sistema operativo, la resolución, comentarios, junto con capturas de pantalla. + +Con LambdaTest, tienes acceso a: + +- Pruebas interactivas en más de 2000 navegadores y máquinas reales alojadas en la infraestructura basada en la nube. +- Una red de pruebas de automatización en línea que admite tests de Selenium y Cypress con cualquier pipeline de Continuous Integration Continuous Delivery que ayuda a los equipos de control de calidad a validar y enviar compilaciones de calidad con mayor rapidez. +- Un navegador de última generación, fácil de usar para desarrolladores, que te ayuda a crear sitios web eficaces y adaptables con rapidez. +- Más de 100 integraciones con herramientas de terceros para gestión de proyectos, comunicación, automatización sin código, Continuous Integration Continuous Delivery, etc. +- Asistencia por chat 24/7. +- Acceso gratuito de por vida a la plataforma con 100 minutos gratuitos de pruebas de automatización. + +Puedes adquirir una suscripción a LambdaTest a través de Datadog Marketplace. Una vez que tengas configurada tu cuenta de LambdaTest (o si ya eres cliente de LambdaTest), ve al [ícono de integración][1] para empezar a enviar datos a Datadog. + + +## Asistencia + +Para solicitar asistencia o funciones, ponte en contacto con LambdaTest a través de los siguientes canales: + +Correo electrónico: [support@lambdatest.com][3] +Teléfono: +1-(866)-430-7087 + +### Referencias adicionales + +Más enlaces, artículos y documentación útiles: + +- [Monitoriza errores de usuario con la suscripción de LambdaTest en Datadog Marketplace][5] + +[1]: https://app.datadoghq.com/integrations/lambdatest +[2]: https://www.lambdatest.com/pricing +[3]: mailto:support@lambdatest.com +[4]: https://www.lambdatest.com/ +[5]: https://www.datadoghq.com/blog/monitor-user-bugs-with-lambdatest/ + +--- +Esta aplicación está disponible a través de Datadog Marketplace y cuenta con el apoyo de un socio tecnológico de Datadog. Para utilizarla, adquiere esta aplicación en el Marketplace. \ No newline at end of file diff --git a/content/es/integrations/mapreduce.md b/content/es/integrations/mapreduce.md new file mode 100644 index 0000000000000..5d1aa59adc212 --- /dev/null +++ b/content/es/integrations/mapreduce.md @@ -0,0 +1,184 @@ +--- +app_id: mapreduce +categories: +- log collection +custom_kind: integración +description: Monitoriza el estado y la duración de las tareas de asignación reducción. +further_reading: +- link: https://www.datadoghq.com/blog/hadoop-architecture-overview + tag: blog + text: Información general de la arquitectura de Hadoop +- link: https://www.datadoghq.com/blog/monitor-hadoop-metrics + tag: blog + text: Cómo monitorizar métricas de Hadoop +- link: https://www.datadoghq.com/blog/collecting-hadoop-metrics + tag: blog + text: Cómo recopilar métricas de Hadoop +- link: https://www.datadoghq.com/blog/monitor-hadoop-metrics-datadog + tag: blog + text: Cómo monitorizar Hadoop con Datadog +integration_version: 7.0.0 +media: [] +supported_os: +- linux +- windows +- macos +title: MapReduce +--- +![Dashboard de MapReduce](https://raw.githubusercontent.com/DataDog/integrations-core/master/mapreduce/images/mapreduce_dashboard.png) + +## Información general + +Obtén métricas del servicio de MapReduce en tiempo real para hacer lo siguiente: + +- Visualizar y monitorizar los estados de MapReduce +- Recibir notificaciones sobre conmutaciones por error y eventos de MapReduce. + +## Configuración + +### Instalación + +El check de MapReduce está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest), por lo que no necesitas instalar nada más en tus servidores. + +### Configuración + +{{< tabs >}} + +{{% tab "Host" %}} + +#### host + +Para configurar este check para un Agent que se ejecuta en un host: + +1. Edita el archivo `mapreduce.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu [directorio de configuración del Agent](https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory) para apuntar a tu servidor y puerto, configura los maestros a monitorizar. Consulta el [ejemplo mapreduce.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/mapreduce/datadog_checks/mapreduce/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. + +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#restart-the-agent). + +##### Recopilación de logs + +1. La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent, actívala en tu archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +1. Quita los comentarios y edita el bloque de configuración de registros en tu archivo `mapreduce.d/conf.yaml`. Cambia los valores de los parámetros `type`, `path` y `service` en función de tu entorno. Consulta el [ejemplo mapreduce.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/mapreduce/datadog_checks/mapreduce/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. + + ```yaml + logs: + - type: file + path: + source: mapreduce + service: + # To handle multi line that starts with yyyy-mm-dd use the following pattern + # log_processing_rules: + # - type: multi_line + # pattern: \d{4}\-\d{2}\-\d{2} \d{2}:\d{2}:\d{2},\d{3} + # name: new_log_start_with_date + ``` + +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#restart-the-agent). + +{{% /tab %}} + +{{% tab "Containerized" %}} + +#### En contenedores + +Para los entornos en contenedores, consulta las [Plantillas de integración de Autodiscovery](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. + +| Parámetro | Valor | +| -------------------- | --------------------------------------------------------------------------------------------- | +| `` | `mapreduce` | +| `` | en blanco o `{}` | +| `` | `{"resourcemanager_uri": "https://%%host%%:8088", "cluster_name":""}` | + +##### Recopilación de logs + +La recopilación de logs está desactivada en forma predeterminada en el Datadog Agent. Para activarla, consulta la [Recopilación de logs de Docker](https://docs.datadoghq.com/agent/docker/log/). + +A continuación, configura las [integraciones de logs](https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations) como etiquetas de Docker: + +```yaml +LABEL "com.datadoghq.ad.logs"='[{"source": "mapreduce", "service": ""}]' +``` + +{{% /tab %}} + +{{< /tabs >}} + +### Validación + +Ejecuta el [subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `mapreduce` en la sección Checks. + +## Datos recopilados + +### Métricas + +| | | +| --- | --- | +| **mapreduce.job.counter.map_counter_value**
(tasa) | Valor del contador de las tareas de asignación
_Se muestra como tarea_ | +| **mapreduce.job.counter.reduce_counter_value**
(tasa) | Valor del contador de tareas de reducción
_Se muestra como tarea_ | +| **mapreduce.job.counter.total_counter_value**
(tasa) | Valor del contador de todas las tareas
_Se muestra como tarea_ | +| **mapreduce.job.elapsed_time.95percentile**
(gauge) | Percentil 95 del tiempo transcurrido desde el inicio de la aplicación
_Se muestra en milisegundos_ | +| **mapreduce.job.elapsed_time.avg**
(gauge) | Tiempo medio transcurrido desde el inicio de la aplicación
_Se muestra en milisegundos_ | +| **mapreduce.job.elapsed_time.count**
(tasa) | Número de veces que se ha muestreado el tiempo transcurrido| +| **mapreduce.job.elapsed_time.max**
(gauge) | Tiempo máximo transcurrido desde el inicio de la aplicación
_Se muestra en milisegundos_ | +| **mapreduce.job.elapsed_time.median**
(gauge) | Mediana del tiempo transcurrido desde el inicio de la aplicación
_Se muestra en milisegundos_ | +| **mapreduce.job.failed_map_attempts**
(tasa) | Número de intentos fallidos de asignación
_Se muestra como tarea_ | +| **mapreduce.job.failed_reduce_attempts**
(tasa) | Número de intentos de reducción fallidos
_Se muestra como tarea_ | +| **mapreduce.job.killed_map_attempts**
(tasa) | Número de intentos de asignación eliminados
_Se muestra como tarea_ | +| **mapreduce.job.killed_reduce_attempts**
(tasa) | Número de intentos de reducción eliminados
_Se muestra como tarea_ | +| **mapreduce.job.map.task.elapsed_time.95percentile**
(gauge) | Percentil 95 del tiempo transcurrido de todas las tareas de asignación
_Se muestra en milisegundos_ | +| **mapreduce.job.map.task.elapsed_time.avg**
(gauge) | Tiempo medio transcurrido de todas las tareas de asignación
_Se muestra en milisegundos_ | +| **mapreduce.job.map.task.elapsed_time.count**
(tasa) | Número de veces que se ha muestreado el tiempo transcurrido de las tareas de asignación| +| **mapreduce.job.map.task.elapsed_time.max**
(gauge) | Tiempo máximo transcurrido de todas las tareas de asignación
_Se muestra en milisegundos_ | +| **mapreduce.job.map.task.elapsed_time.median**
(gauge) | Mediana del tiempo transcurrido de todas las tareas de asignación
_Se muestra en milisegundos_ | +| **mapreduce.job.maps_completed**
(tasa) | Número de asignaciones finalizadas
_Se muestra como tarea_. | +| **mapreduce.job.maps_pending**
(tasa) | Número de asignaciones pendientes
_Se muestra como tarea_ | +| **mapreduce.job.maps_running**
(tasa) | Número de asignaciones en ejecución
_Se muestra como tarea_ | +| **mapreduce.job.maps_total**
(tasa) | Número total de asignaciones
_Se muestra como tarea_ | +| **mapreduce.job.new_map_attempts**
(tasa) | Número de nuevos intentos de asignación
_Se muestra como tarea_ | +| **mapreduce.job.new_reduce_attempts**
(tasa) | Número de nuevos intentos de reducción
_Se muestra como tarea_ | +| **mapreduce.job.reduce.task.elapsed_time.95percentile**
(gauge) | Percentil 95 de tiempo transcurrido de todas las tareas de reducción
_Se muestra en milisegundos_ | +| **mapreduce.job.reduce.task.elapsed_time.avg**
(gauge) | Tiempo medio transcurrido de todas las tareas de reducción
_Se muestra en milisegundos_ | +| **mapreduce.job.reduce.task.elapsed_time.count**
(tasa) | Número de veces que se ha muestreado el tiempo transcurrido de las tareas de reducción| +| **mapreduce.job.reduce.task.elapsed_time.max**
(gauge) | Tiempo máximo transcurrido de todas las tareas de reducción
_Se muestra en milisegundos_ | +| **mapreduce.job.reduce.task.elapsed_time.median**
(gauge) | Mediana del tiempo transcurrido de todas las tareas de reducción
_Se muestra en milisegundos_. | +| **mapreduce.job.reduces_completed**
(tasa) | Número de reducciones finalizadas
_Se muestra como tarea_ | +| **mapreduce.job.reduces_pending**
(tasa) | Número de reducciones pendientes
_Se muestra como tarea_ | +| **mapreduce.job.reduces_running**
(tasa) | Número de reducciones en ejecución
_Se muestra como tarea_ | +| **mapreduce.job.reduces_total**
(tasa) | Número de reducciones
_Se muestra como tarea_ | +| **mapreduce.job.running_map_attempts**
(tasa) | Número de intentos de asignación en ejecución
_Se muestra como tarea_ | +| **mapreduce.job.running_reduce_attempts**
(tasa) | Número de intentos de reducción en ejecución
_Se muestra como tarea_ | +| **mapreduce.job.successful_map_attempts**
(tasa) | Número de intentos de asignación con éxito
_Se muestra como tarea_ | +| **mapreduce.job.successful_reduce_attempts**
(tasa) | Número de intentos de reducción con éxito
_Se muestra como tarea_ | + +### Eventos + +El check de MapReduce no incluye eventos. + +### Checks de servicio + +**mapreduce.resource_manager.can_connect** + +Devuelve `CRITICAL` si el Agent no puede conectarse al gestor de recursos. En caso contrario, devuelve `OK`. + +_Estados: ok, crítico_ + +**mapreduce.application_master.can_connect** + +Devuelve `CRITICAL` si el Agent no puede conectarse a la aplicación maestra. En caso contrario, devuelve `OK`. + +_Estados: ok, crítico_ + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog](https://docs.datadoghq.com/help/). + +## Referencias adicionales + +- [Información general de la arquitectura de Hadoop](https://www.datadoghq.com/blog/hadoop-architecture-overview) +- [Cómo monitorizar métricas de Hadoop](https://www.datadoghq.com/blog/monitor-hadoop-metrics) +- [Cómo recopilar métricas de Hadoop](https://www.datadoghq.com/blog/collecting-hadoop-metrics) +- [Cómo monitoriozar Hadoop con Datadog](https://www.datadoghq.com/blog/monitor-hadoop-metrics-datadog) \ No newline at end of file diff --git a/content/es/integrations/maurisource_magento.md b/content/es/integrations/maurisource_magento.md new file mode 100644 index 0000000000000..6465a97212842 --- /dev/null +++ b/content/es/integrations/maurisource_magento.md @@ -0,0 +1,129 @@ +--- +algolia: + subcategory: Integraciones de Marketplace +app_id: maurisource-magento +app_uuid: 09849dc9-ec3b-43a1-9ec4-da7821c12b63 +assets: + dashboards: + Magento: assets/dashboards/maurisource_magento_overview.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: maurisource.magento.store.count + metadata_path: metadata.csv + prefix: maurisource.magento. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 25366756 + source_type_name: Maurisource Magento +author: + homepage: https://maurisource.com/ + name: Maurisource Inc + sales_email: info@maurisource.com + support_email: info@maurisource.com + vendor_id: maurisource +categories: +- marketplace +- métricas +- gestión de costes +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: maurisource_magento +integration_id: maurisource-magento +integration_title: Magento (Adobe Commerce) +integration_version: '' +is_public: true +legal_terms: + eula: assets/eula.pdf +manifest_version: 2.0.0 +name: maurisource_magento +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.maurisource.magento + product_id: maurisource-magento + short_description: Precio unitario por tienda Magento/Adobe Commerce habilitada + tag: user_login + unit_label: Tiendas habilitadas + unit_price: 49.0 +public_title: Magento (Adobe Commerce) +short_description: Monitoriza claves de métricas de las tiendas de Magento (Adobe + Commerce). +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Marketplace + - Category::Metrics + - Category::Cost Management + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: Monitoriza claves de métricas de las tiendas de Magento (Adobe Commerce). + media: + - caption: Captura de pantalla del dashboard de la integración de Maurisource Magento + image_url: images/dashboard-screenshot.png + media_type: imagen + - caption: Captura de pantalla del dashboard de Adobe Commerce + image_url: images/adobe-commerce-dashboard.png + media_type: imagen + - caption: Captura de pantalla del dashboard de Magento + image_url: images/magento-commerce-dashboard.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Magento (Adobe Commerce) + uninstallation: README.md#Uninstallation +--- + + + + +## Información general + +Esta integración recopila las métricas expuestas por [Magento Module][1]. + +### Magento (Adobe Commerce) + +Magento (Adobe Commerce) es una plataforma de comercio flexible y escalable que te permite crear experiencias B2B y B2C personalizadas únicas. Magento permite a las empresas crear, gestionar y escalar tiendas en línea. Ofrece herramientas avanzadas de gestión de productos, captación de clientes y análisis de ventas que permiten a miles de empresas crear y gestionar sus marcas. + +Esta integración recopila datos en formato de métricas abiertas de Magento y monitoriza las métricas de recuento de clientes, catálogo de productos, ventas, pedidos y otras métricas específicas del comercio electrónico. + +Esta integración proporciona visibilidad en tiempo real de Magento, lo que permite a las empresas tomar decisiones basadas en datos y garantizar una mejor comprensión de las necesidades de los clientes, ayudando a mejorar la retención y la satisfacción y a desarrollar campañas de marketing que lleguen a su público objetivo. + +## Soporte + +Para obtener soporte, ponte en contacto con Maurisource + +- Correo electrónico: [info@maurisource.com][9] +- Página web: [maurisource.com][10] + +### Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Maurisource][9]. + +[1]: https://github.com/run-as-root/magento2-prometheus-exporter +[2]: https://docs.datadoghq.com/es/agent/guide/use-community-integrations +[3]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/#agent-configuration-directory +[4]: https://docs.datadoghq.com/es/getting_started/integrations/#configuring-agent-integrations +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://docs.datadoghq.com/es/containers/ +[7]: https://docs.datadoghq.com/es/agent/configuration/agent-commands/#agent-information +[8]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=linux#remove +[9]: mailto:info@maurisource.com +[10]: https://maurisource.com + +--- +Esta aplicación está disponible a través de Datadog Marketplace y cuenta con el apoyo de un socio tecnológico de Datadog. Para utilizarla, adquiere esta aplicación en el Marketplace. \ No newline at end of file diff --git a/content/es/integrations/moovingon_moovingonai.md b/content/es/integrations/moovingon_moovingonai.md new file mode 100644 index 0000000000000..740aa4f40dc3f --- /dev/null +++ b/content/es/integrations/moovingon_moovingonai.md @@ -0,0 +1,99 @@ +--- +algolia: + subcategory: Integraciones de Marketplace +app_id: moovingon-moovingonai +app_uuid: a0d25aed-b2ca-43dc-b083-aaaa5165f603 +assets: {} +author: + homepage: https://www.moovingon.com/platform + name: MoovingON + sales_email: sales@moovingon.com + support_email: support@moovingon.com + vendor_id: moovingon +categories: +- incidentes +- alertas +- automatización +- marketplace +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: moovingon_moovingonai +integration_id: moovingon-moovingonai +integration_title: moovingon.ai +integration_version: '' +is_public: true +legal_terms: + eula: assets/eula.pdf +manifest_version: 2.0.0 +name: moovingon_moovingonai +pricing: +- billing_type: flat_fee + includes_assets: false + product_id: moovingonai + short_description: Los precios de moovingon.ai se basan en usuarios activos y alertas + entrantes + unit_price: 1799.0 +public_title: moovingon.ai +short_description: Plataforma de orquestación, automatización y corrección de NOC +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Incidents + - Category::Alerting + - Category::Automation + - Category::Marketplace + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Offering::Software License + configuration: README.md#Setup + description: Plataforma de orquestación, automatización y corrección de NOC + media: + - caption: Stream (flujo) central de alertas de moovingon.ai y gestión de libro + de ejecución + image_url: images/moovingon_ai-events.png + media_type: imagen + - caption: Arrastrar y soltar el creador de directrices de libro de ejecución + image_url: images/moovingon_ai-guidelines.png + media_type: imagen + - caption: Dashboard de Datadog de moovingon.ai + image_url: images/moovingon_ai-overview-dashbard.png + media_type: imagen + - caption: Panel de integraciones de moovingon.ai + image_url: images/moovingon.ai-integrations.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: moovingon.ai + uninstallation: README.md#Uninstallation +--- + + + + +## Información general + +moovingon.ai Revoluciona la forma en que los equipos de operaciones en la nube y NOC gestionan la fiabilidad y resistencia de los sistemas de producción. Al fusionar y optimizar las alertas en tu marco de observabilidad y al conectar estas alertas con libros de ejecución automáticos, estás fomentando una operación más sencilla y eficiente. Este método garantiza que tus sistemas estén bajo estrecha vigilancia y que cualquier incidente se resuelva rápidamente y se reduzcan así las caídas del sistema y se mejore la eficiencia operativa. + +A través de la [integración predefinida][1], moovingon.ai utiliza los monitores, logs y datos de eventos de Datadog para la correlación y agregación de alertas. + +Todas las acciones de corrección realizadas en moovingon.ai se envían a Datadog como eventos para una mayor claridad en el cumplimiento y la corrección. Además, moovingon.ai proporciona análisis que permiten obtener información de las alertas de Datadog en Datadog. Esto ayuda a tomar decisiones proactivas y a analizar tendencias. + +## Asistencia técnica + +Para obtener asistencia técnica, ponte en contacto con MoovingON a través de los siguientes canales: + +- Teléfono: +972-4-9116000 +- Correo electrónico: +- Página web: + +[1]: https://app.datadoghq.com/integrations/moovingon-ai + +--- +Esta aplicación está disponible a través de Datadog Marketplace y cuenta con el apoyo de un socio tecnológico de Datadog. Para utilizarla, adquiere esta aplicación en el Marketplace. \ No newline at end of file diff --git a/content/es/integrations/oci_api_gateway.md b/content/es/integrations/oci_api_gateway.md new file mode 100644 index 0000000000000..a03cc97251599 --- /dev/null +++ b/content/es/integrations/oci_api_gateway.md @@ -0,0 +1,111 @@ +--- +app_id: oci-api-gateway +app_uuid: 4e1f1f29-8d9b-4197-a1e7-ca7b868c35c1 +assets: + integration: + auto_install: true + events: + creates_events: false + metrics: + check: + - oci.apigateway.backend_http_responses + - oci.apigateway.bytes_received + - oci.apigateway.bytes_sent + - oci.apigateway.http_requests + - oci.apigateway.http_responses + - oci.apigateway.integration_latency + - oci.apigateway.internal_latency + - oci.apigateway.latency + - oci.apigateway.response_cache_action + - oci.apigateway.response_cache_availability + - oci.apigateway.response_cache_latency + - oci.apigateway.subscriber_quota_proportion_used + - oci.apigateway.subscriber_rate_limit_proportion_used + - oci.apigateway.subscriber_requests + - oci.apigateway.usage_plan_requests + metadata_path: metadata.csv + prefix: oci. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 42869397 + source_type_name: OCI API Gateway +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- métricas +- network +- nube +- oracle +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: oci_api_gateway +integration_id: oci-api-gateway +integration_title: OCI API Gateway +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: oci_api_gateway +public_title: OCI API Gateway +short_description: OCI API Gateway puede publicar APIs con endpoints privados. +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Categoría::Métricas + - Category::Network + - Categoría::Nube + - Categoría::Oracle + - Offering::Integration + configuration: README.md#Setup + description: OCI API Gateway puede publicar APIs con endpoints privados. + media: [] + overview: README.md#Overview + support: README.md#Support + title: OCI API Gateway +--- + + + + +## Información general + +OCI API Gateway es un servicio totalmente gestionado que te permite crear y desplegar APIs con endpoints privados o públicos, facilitando un acceso seguro y escalable a tus servicios de backend. Ofrece funciones como la transformación de solicitudes y respuestas, autenticación y autorización, limitación de tasas y compatibilidad con CORS, todo lo cual garantiza una sólida gestión y gobernanza de las APIs. + +Esta integración te permite monitorizar el estado, la capacidad y el rendimiento de tu API Gateway mediante la recopilación de métricas y etiquetas (tags) del espacio de nombres [oci_apigateway][1]. + +## Configuración + +### Instalación + +Una vez configurada la integración de [Oracle Cloud Infrastructure][2], asegúrate de que los espacios de nombres mencionados anteriormente están incluidos en tu [Connector Hub][3]. + + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "oci_api_gateway" >}} + + +### Checks de servicio + +OCI API Gateway no incluye ningún check de servicio. + +### Eventos + +OCI API Gateway no incluye ningún evento. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5]. + + +[1]: https://docs.oracle.com/en-us/iaas/Content/APIGateway/Reference/apigatewaymetrics.htm +[2]: https://docs.datadoghq.com/es/integrations/oracle_cloud_infrastructure/ +[3]: https://cloud.oracle.com/connector-hub/service-connectors +[4]: https://github.com/DataDog/integrations-internal-core/blob/main/oci_api_gateway/metadata.csv +[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/redpeaks_sap_hana.md b/content/es/integrations/redpeaks_sap_hana.md new file mode 100644 index 0000000000000..867cd6433eec1 --- /dev/null +++ b/content/es/integrations/redpeaks_sap_hana.md @@ -0,0 +1,159 @@ +--- +algolia: + subcategory: Integraciones de Marketplace +app_id: redpeaks-sap-hana +app_uuid: 38708fc8-5c40-41c5-9511-867aa1b1692c +assets: + dashboards: + HANA services overview: assets/dashboards/redpeaks_sap_hana_services_overview.json + HANA systems overview: assets/dashboards/redpeaks_sap_hana_overview.json + HANA tables overview: assets/dashboards/redpeaks_sap_hana_tables_overview.json + integration: + auto_install: false + configuration: {} + events: + creates_events: true + metrics: + check: datadog.marketplace.redpeaks.sap_hana.system + metadata_path: metadata.csv + prefix: redpeaks.hana + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10998 + source_type_name: redpeaks_sap_hana +author: + homepage: https://www.redpeaks.io + name: Redpeaks + sales_email: sales@redpeaks.io + support_email: support@redpeaks.io + vendor_id: redpeaks +categories: +- marketplace +- sap +- almacenes de datos +- gestión de eventos +- métricas +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: redpeaks_sap_hana +integration_id: redpeaks-sap-hana +integration_title: SAP HANA +integration_version: '' +is_public: true +legal_terms: + eula: assets/eula.pdf +manifest_version: 2.0.0 +name: redpeaks_sap_hana +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.redpeaks.sap_hana.system + product_id: sap-hana + short_description: Contar una unidad de licencia por sistema SAP HANA monitorizado + (identificado por SID) + tag: uri + unit_label: ID del sistema SAP (SID) + unit_price: 190.0 +public_title: SAP HANA +short_description: Monitorizar bases de datos SAP HANA de forma centralizada desde + un único recopilador +supported_os: +- Linux +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Marketplace + - Categoría::SAP + - Oferta::Integración + - Categoría::Almacenes de datos + - Sistema operativo compatible::Linux + - Categoría::Gestión de eventos + - Categoría::Métricas + - Tipo de datos enviados::Métricas + - Tipo de datos enviados::Logs + - Submitted Data Type::Events + configuration: README.md#Configuración + description: Monitorizar bases de datos SAP HANA de forma centralizada desde un + único recopilador + media: + - caption: Información general de la base de datos SAP HANA + image_url: images/dashboard_db_overview.png + media_type: imagen + - caption: Información general de las tablas SAP HANA + image_url: images/hana_tables_overview.png + media_type: imagen + - caption: Información general de los servicios SAP HANA + image_url: images/hana_services_overview.png + media_type: imagen + overview: README.md#Información general + support: README.md#Soporte + title: SAP HANA + uninstallation: README.md#Uninstallation +--- + + + + +## Información general +La integración SAP HANA monitoriza sistemas de bases de datos SAP HANA en la memoria. +Un sistema puede alojar diferentes esquemas de base de datos y puede desplegarse en varios nodos. + +Utilizando una conexión remota **sin agentes** y plantillas de monitorización preconfiguradas, esta integración puede ponerse en marcha en solo unos minutos. + +La monitorización utiliza la tecnología [Redpeaks][1] (anteriormente conocido como Agentil Software - Pro.Monitor). Está configurada de forma predefinida para cubrir los KPI más relevantes de tu base de datos, incluyendo copias de seguridad, transacciones, recursos de servicios, crecimiento de tablas y replicaciones. + +Esta integración recopila y analiza datos de los sistemas en tiempo real y produce métricas y eventos procesables. Puedes ajustar con precisión las alertas configurando Redpeaks y crear monitores de Datadog directamente para las métricas. + +A diferencia de las soluciones basadas en agentes, la configuración de monitorización de esta plataforma está centralizada en una única localización, lo que elimina la necesidad de modificar o instalar elementos adicionales en los sistemas monitorizados. + +Redpeaks se integra con despliegues SAP de todo tipo y tamaño, ya sea que gestiones un único sistema o cientos de ellos. Es compatible con configuraciones on-premises, nubes privadas, entornos híbridos y SAP RISE, por lo que ofrece flexibilidad para satisfacer tus necesidades específicas. + +### Módulos monitorizados + +- Nodos HANA +- Alertas +- Copias de seguridad +- CPU de servicio +- Memoria de servicio +- Disco de servicio +- Transacciones bloqueadas +- Conexiones +- Subprocesos +- Estado de la replicación +- Estadísticas de replicación +- Tamaño de la tabla (registros, tamaño de fusión, tamaño del disco) +- SDI +- Solicitudes SQL personalizadas +- Monitores a pedido + +## Soporte técnico + +Para solicitar asistencia o funciones, ponte en contacto con Redpeaks por correo electrónico en [support@redpeaks.io][2]. + +### Referencias adicionales + +Documentación útil adicional, enlaces y artículos: + +- [Monitorizar SAP NetWeaver con la oferta de Redpeaks en el Marketplace de Datadog][5] + +*Si buscas un socio de confianza para integraciones específicas con SAP u otras plataformas, estás en el lugar adecuado: ponte en contacto con nosotros.* + +--- +Este producto se diseñó y desarrolló en Ginebra (Suiza). + +[1]: https://www.redpeaks.io +[2]: mailto:support@redpeaks.io +[3]: https://softwaredownloads.sap.com/file/0020000000507122021 +[4]: https://wiki.redpeaks.io/doku.php?id=products:promonitor:6.8:userguide:configuration +[5]: https://www.datadoghq.com/blog/sap-netweaver-monitoring-agentil-datadog-marketplace/ +[6]: https://wiki.redpeaks.io/doku.php?id=products:promonitor:6.8:installguide:prerequisites +[7]: https://wiki.redpeaks.io/doku.php?id=products:cockpit:1.0:installguide:installjava +[8]: https://agentil.box.com/s/k0yp1tk58r666rfncf0nb9k1qa0guvdc +[9]: https://mvnrepository.com/artifact/com.sap.cloud.db.jdbc/ngdbc + + + +--- +Esta aplicación está disponible a través del Marketplace de Datadog y cuenta con el respaldo de un socio tecnológico de Datadog. Para utilizar esta aplicación, adquiérela en el Marketplace. \ No newline at end of file diff --git a/content/es/integrations/wlan.md b/content/es/integrations/wlan.md new file mode 100644 index 0000000000000..33acd11f39626 --- /dev/null +++ b/content/es/integrations/wlan.md @@ -0,0 +1,266 @@ +--- +app_id: wlan +app_uuid: dbf0f387-cef7-4694-9001-b7bb5c1c1274 +assets: + dashboards: + Wi-Fi Overview: assets/dashboards/wlan_overview.json + integration: + auto_install: true + configuration: {} + events: + creates_events: false + metrics: + check: system.wlan.rssi + metadata_path: metadata.csv + prefix: system.wlan. + source_type_id: 45933791 + source_type_name: wlan + monitors: + Many channel swap events detected: assets/monitors/wlan_excessive_channel_swap.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- windows +- métricas +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/wlan/README.md +display_on_public_website: true +draft: false +git_integration_title: wlan +integration_id: wlan +integration_title: wlan (Wi-Fi) +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: wlan +public_title: wlan (Wi-Fi) +short_description: Monitoriza métricas de Wi-Fi como la intensidad de la señal, el + estado de la conexión y más. +supported_os: +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Windows + - Supported OS::macOS + - Category::Windows + - Category::Metrics + - Submitted Data Type::Metrics + - Offering::Integration + configuration: README.md#Configuración + description: Monitoriza métricas de Wi-Fi como la intensidad de la señal, el estado + de la conexión y más. + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: wlan (Wi-Fi) +--- + + + + +## Información general + +Este check monitoriza redes LAN (WLAN) inalámbricas basadas en estándares [IEEE 802.11][1], comúnmente denominadas Wi-Fi. + +Recopila métricas Wi-Fi clave, incluyendo la información sobre puntos de acceso (AP) como [SSID][2]#SSID) y [BSSID][2]) (como etiquetas), telemetría de calidad de señal como [RSSI][3] y [Ruido][4]_y_Fuerza_de_señal_inalámbrica), velocidad de transmisión y recuento de transiciones ([Roaming][5] e [Swapping][6] entre AP, por ejemplo). Estas métricas ayudan a identificar proactivamente problemas generales de la red inalámbrica, como puntos de acceso sobrecargados, así como a solucionar problemas retrospectivos de bajo rendimiento de la red en hosts individuales. + +## Configuración + +### Requisito previo + +#### Windows + +A partir de Windows 11 24H2 (Otoño 2024), de acuerdo con [Cambios en el comportamiento de la API para el acceso y la localización Wi-Fi][7], el check WLAN (que utiliza las API Wlan de Windows), requiere el consentimiento del usuario o del administrador. Si `Settings > Privacy & security > Location` del host no ha sido habilitado, este check WLAN fallará a la hora de informar de la telemetría WLAN/Wi-Fi. + +Es necesario activar los siguientes parámetros: +- **Settings > Privacy & Security > Location > Location Services** (Configuración > Privacidad y seguridad > Localización > Servicios de localización) +- **Settings > Privacy & security > Location > Let desktop apps access your location** (Configuración > Privacidad y seguridad > Localización > Permitir que las aplicaciones de escritorio accedan a tu localización) + +Puedes comprobar si la API de localización no está desactivada ejecutando el comando `netsh wlan show interface`, que no informará de ninguna conexión de interfaz Wi-Fi aunque tengas conexión. + +Un administrador también puede habilitar estos parámetros mediante: +- [Registro][8] +- [Política de grupo][8] +- [InTune][8] + + +#### macOS + +Al igual que en Windows, la recopilación de telemetría Wi-Fi en macOS requiere el consentimiento del usuario a través de los servicios de localización. Sin embargo, a diferencia de Windows, macOS no proporciona un mecanismo bien definido para que los administradores habiliten el acceso a la localización a procesos específicos como el Datadog Agent a escala. + +Para solucionar este problema, los clientes pueden adaptar el script `add_datadog_agent_to_plist.sh` proporcionado en el **Apéndice** para conceder acceso de localización al proceso del Agent. Esta secuencia de comandos requiere acceso **root** y se puede desplegar en una flota de Mac de empresa mediante una solución MDM como Jamf. + +### Instalación + +El check WLAN está incluido en el [Datadog Agent][9], pero no está configurado. Consulta la siguiente sección para configurarlo. + +### Configuración + +La configuración se encuentra en el archivo `wlan.d/conf.yaml` en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][10]. Consulta el [ejemplo wlan.d/conf.yaml][11] para ver todas las opciones de configuración disponibles. Cuando termines de editar el archivo de configuración, [reinicia el Agent][12] para cargar la nueva configuración. + +#### Etiquetas + +El check etiqueta automáticamente las métricas emitidas con SSID, BSSID, dirección MAC, tipo de Wi-Fi (A, B, G, N, AC), autenticación Wi-Fi (Open, WEP, WPA, WPA2, WPA3). Como se indica en [Empezando con las etiquetas][13] los caracteres en mayúsculas en los valores de las etiquetas se sustituyen por caracteres en minúsculas y los caracteres especiales se sustituyen por guiones bajos. + +### Validación + +[Ejecuta el subcomando de estado del Agent][14] y busca `wlan` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "wlan" >}} + + +### Eventos + +WLAN no incluye eventos. + +## Terminología + +### Roaming + +`Roaming` se refiere a la capacidad de un dispositivo de cambiar sin interrupciones de un punto de acceso a Wi-Fi a otro mientras se desplaza, sin perder la conexión. Esto ocurre cuando el dispositivo encuentra una señal más potente o fiable en un punto de acceso diferente, lo que garantiza un acceso continuo a Internet. Un evento `Roaming` se detecta cuando el *BSSID* del router o punto de acceso conectado cambia, pero su *SSID* sigue siendo el mismo. Cuando el *SSID* del router o punto de acceso no se emite, la detección de roaming no es posible. Cuando se detecta un evento `Roaming`, la métrica `system.wlan.roaming_events` se incrementa. El cambio a un router con un *SSID* diferente no se considera `Roaming`. + +### Channel Swap + +`Channel Swap` se refiere al proceso de cambiar el canal Wi-Fi que un router o punto de acceso utiliza para emitir su señal. Este cambio intenta mejorar la intensidad de la señal, reducir las interferencias u optimizar el rendimiento, especialmente en zonas con muchas redes Wi-Fi en competencia. El evento `Channel Swap` se detecta cuando el *BSSID* del router o punto de acceso conectado es el mismo, pero su canal ha cambiado. Cuando el *BSSID* del router o punto de acceso conectado cambia (lo que lo convierte en un evento `Roaming` si el router o punto de acceso tiene el mismo *SSID*), no se considera un evento `Channel Swap` aunque el canal haya cambiado. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][16]. + +## Anexo + +**add_datadog_agent_to_plist.sh** + +``script de shell +#!/usr/bin/env bash +# Script para añadir/actualizar la clave autorizada en `locationd/clients.plist` para el Datadog Agent (requiere acceso root) +# Usage: bash add_datadaog_agent_to_plist.sh [AGENT_BIN_PATH] +# AGENT_BIN_PATH: optional - the agent binary path - default: /opt/datadog-agent/bin/agent/agent + +# Configuración +PLIST_PATH="/var/db/locationd/clients.plist" +DEFAULT_PATTERN="/opt/datadog-agent/bin/agent/agent" +BACKUP_PATH="${PLIST_PATH}.bak" + +# Función para restaurar la copia de seguridad si algo va mal +restore_backup() { + echo "[ERROR] Restoring backup..." + sudo cp "$BACKUP_PATH" "$PLIST_PATH" + sudo plutil -convert binary1 "$PLIST_PATH" + echo "[INFO] Backup restored. Exiting." + exit 1 +} + +# Configurar la gestión de errores +trap restore_backup ERR + +# Comprobar si se ha proporcionado un argumento +if [ -n "$1" ]; then + PATTERN="$1" + echo "[INFO] Using provided pattern via CLI argument: $PATTERN" +else + # Mensaje para que el patrón busque + read -p "Enter the pattern to search for [${DEFAULT_PATTERN}]: " PATTERN + PATTERN=${PATTERN:-$DEFAULT_PATTERN} +fi + +# Hacer copia de seguridad del archivo original +echo "[INFO] Backing up $PLIST_PATH to $BACKUP_PATH" +sudo cp "$PLIST_PATH" "$BACKUP_PATH" + +# Convertir plist a XML para facilitar el análisis +sudo plutil -convert xml1 "$PLIST_PATH" + +echo "[INFO] Searching for entry containing: $PATTERN" + +# Buscar la primera clave cuyo bloque contenga el patrón, xargs elimina los espacios en blanco iniciales y finales +KEY_LINE=$(grep "$PATTERN" "$PLIST_PATH" | grep "" | head -n1 | xargs) +if [ -z "$KEY_LINE" ]; then + echo "[ERROR] No entry found containing pattern: $PATTERN" + restore_backup +fi + +# Extraer la clave de la línea +KEY=${KEY_LINE#} +KEY=${KEY%} + +if [ -z "$KEY" ]; then + echo "[ERROR] Could not determine the key for the matching entry." + restore_backup +fi + +echo "[INFO] Processing key: $KEY" + +# Obtener el número de línea que contenga $KEY +key_line=$(grep -n "$KEY" "$PLIST_PATH" | cut -d: -f1 | head -n1) +if [ -z "$key_line" ]; then + echo "[ERROR] Key not found." + restore_backup +fi + +# Obtener el número de línea de después de la clave +dict_start=$(tail -n +$((key_line + 1)) "$PLIST_PATH" | grep -n "" | head -n1 | cut -d: -f1) +dict_start=$((key_line + dict_start)) + +# Obtener el número de línea de coincidente +dict_end=$(tail -n +$((dict_start + 1)) "$PLIST_PATH" | grep -n "" | head -n1 | cut -d: -f1) +dict_end=$((dict_start + dict_end)) + +echo "[INFO] Found block from line $dict_start to $dict_end" + +# Comprobar si Autorizado existe en el bloque +auth_line=$(sed -n "${dict_start},${dict_end}p" "$PLIST_PATH" | grep -n "Authorized" | cut -d: -f1) + +if [ -z "$auth_line" ]; then + # Autorizado no encontrado, añadirlo antes de + echo "[INFO] Adding Authorized to the block" + sed -i "" "${dict_end}i\\ + Authorized\\ + \\ +" "$PLIST_PATH" +else + # Autorizado encontrado, buscar su valor en la línea siguiente + auth_line=$((dict_start + auth_line - 1)) + value_line=$((auth_line + 1)) + + # Comprobar si la siguiente línea contiene + if grep -q "" <(sed -n "${value_line}p" "$PLIST_PATH"); then + echo "[INFO] Changing to " + sed -i "" "${value_line}s///" "$PLIST_PATH" + else + echo "[INFO] Authorized already exists with correct value" + fi +fi + +# Volver a convertir plist a binario para uso del sistema +sudo plutil -convert binary1 "$PLIST_PATH" +echo "[INFO] Changes applied successfully." +echo "[INFO] To apply changes, either reboot or run: sudo killall locationd" +trap - ERR +``` + +[1]: https://en.wikipedia.org/wiki/IEEE_802.11 +[2]: https://en.wikipedia.org/wiki/Service_set_(802.11_network +[3]: https://en.wikipedia.org/wiki/Received_signal_strength_indicator +[4]: https://documentation.meraki.com/MR/Wi-Fi_Basics_and_Best_Practices/Signal-to-Noise_Ratio_(SNR +[5]: https://www.netally.com/tech-tips/what-is-wifi-roaming/ +[6]: https://superuser.com/questions/122441/how-can-i-get-the-same-ssid-for-multiple-access-points +[7]: https://learn.microsoft.com/en-us/windows/win32/nativewifi/wi-fi-access-location-changes +[8]: https://learn.microsoft.com/en-us/troubleshoot/windows-client/shell-experience/cannot-set-timezone-automatically?WT.mc_id=WDIT-MVP-5000497#use-registry-editor +[9]: https://app.datadoghq.com/account/settings/agent/latest +[10]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/ +[11]: https://github.com/DataDog/datadog-agent/blob/main/poc/cmd/agent/dist/conf.d/wlan.d/conf.yaml.example +[12]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[13]: https://docs.datadoghq.com/es/getting_started/tagging/ +[14]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[15]: https://github.com/DataDog/integrations-core/blob/master/wlan/metadata.csv +[16]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/opentelemetry/instrument/_index.md b/content/es/opentelemetry/instrument/_index.md new file mode 100644 index 0000000000000..46d819484bdea --- /dev/null +++ b/content/es/opentelemetry/instrument/_index.md @@ -0,0 +1,49 @@ +--- +aliases: +- /es/opentelemetry/guide/otel_api_tracing_interoperability +further_reading: +- link: https://opentelemetry.io/docs/concepts/instrumentation/ + tag: Sitio externo + text: Instrumentación con OpenTelemetry +title: Instrumentar tus aplicaciones +--- + +## Información general + +Datadog admite diferentes estrategias para la instrumentación de tus aplicaciones con OpenTelemetry. Elige el método que mejor se adapte a tus necesidades: + +### SDK de OpenTelemetry + +{{% opentelemetry/otel-sdks %}} + +{{< whatsnext desc=" " >}} + {{< nextlink href="https://opentelemetry.io/docs/languages/" >}}Utilizar los SDK de OpenTelemetry{{< /nextlink >}} +{{< /whatsnext >}} + +### API de OpenTelemetry y SDK de Datadog + +La integración de Datadog con OpenTelemetry te permite utilizar la plataforma de observabilidad integral de Datadog, al tiempo que aprovechas la instrumentación de OpenTelemetry agnóstica respecto del proveedor. Así, puedes recopilar, visualizar y analizar trazas (traces), métricas y logs de tus aplicaciones e infraestructura. + +Utiliza las API de rastreo de OpenTelemetry con el SDK de Datadog para conservar una instrumentación de proveedor neutral, mientras accedes al conjunto completo de funciones de Datadog. + +{{< whatsnext desc=" " >}} + {{< nextlink href="/opentelemetry/instrument/api_support" >}}Utilizar el SDK de Datadog con la API de OpenTelemetry{{< /nextlink >}} + {{< nextlink href="/opentelemetry/config/environment_variable_support/" >}}Configurar el SDK de Datadog con variables de entorno del SDK de OpenTelemetry{{< /nextlink >}} +{{< /whatsnext >}} + +### Bibliotecas de instrumentación de OpenTelemetry + +Amplía tu observabilidad utilizando las [bibliotecas de instrumentación][2] de OpenTelemetry junto con el SDK de Datadog. + +Datadog admite bibliotecas de instrumentación compatibles con Datadog que proporcionan una observabilidad de marcos y tecnologías no cubiertos por los SDK nativos de Datadog. Esto te permite instrumentar marcos adicionales y bibliotecas sin dejar de enviar datos al backend de Datadog. + +{{< whatsnext desc=" " >}} + {{< nextlink href="/opentelemetry/instrument/instrumentation_libraries/" >}}Utilizar bibliotecas de instrumentación de OpenTelemetry con el SDK de Datadog{{< /nextlink >}} +{{< /whatsnext >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/opentelemetry/setup/collector_exporter/ +[2]: https://opentelemetry.io/docs/specs/otel/overview/#instrumentation-libraries \ No newline at end of file diff --git a/content/es/product_analytics/charts/pathways.md b/content/es/product_analytics/charts/pathways.md new file mode 100644 index 0000000000000..9ffac1d379903 --- /dev/null +++ b/content/es/product_analytics/charts/pathways.md @@ -0,0 +1,75 @@ +--- +aliases: +- /es/real_user_monitoring/product_analytics/sankey +- /es/product_analytics/sankey +- /es/product_analytics/journeys/sankey +- /es/product_analytics/journeys/pathways +further_reading: +- link: /product_analytics/journeys + tag: Documentación + text: Gráficos +- link: /dashboards/widgets/sankey/ + tag: Documentación + text: Crear widgets de Sankey en dashboards +title: Diagramas de rutas +--- + +## Información general + +Los diagramas de rutas te permiten visualizar todos los recorridos del usuario en tu aplicación para analizar la ruta crítica. + +{{< img src="/product_analytics/journeys/pathways/ga_pathway_diagrams_page.png" alt="Diagrama de rutas por defecto para una aplicación" style="width:90%;" >}} + +Cada nodo representa una vista visitada por el usuario. El grosor de cada nodo representa el recuento de sesiones de usuario en esa página. Una página con menos visitantes tiene un nodo más fino en el diagrama. + +Si un usuario visita la misma página varias veces durante su sesión, esa página sólo se cuenta una vez. + +Los eventos de acciones no son compatibles con el diagrama de rutas. + +## Crear un diagrama de rutas + +### Ver el diagrama por defecto + +1. Ve a [**Product Analytics > Charts** (Análisis de productos > Gráficos)][1]. +2. Haz clic en **Pathways** (Rutas) si aún no está seleccionado. Esto muestra la visualización predeterminada que representa los recorridos de usuario más populares en tu aplicación. + +### Iniciar o finalizar el diagrama en una vista determinada + +Puedes utilizar el menú de la izquierda para personalizar este diagrama y su visualización: +- los pasos que dieron los usuarios *después* de visitar una vista determinada +- los pasos que dieron los usuarios *antes* de visitar una vista determinada + +El siguiente ejemplo muestra los cuatro pasos que siguen los usuarios de Estados Unidos después de visitar `/department/lighting`: + +{{< img src="/product_analytics/journeys/pathways/pana_pathway_page_img2.png" alt="Diagrama de rutas personalizado para una aplicación" style="width:90%;" >}} + +### Graficar todas las vistas que contienen una frase dada + +Los diagramas de rutas admiten [comodines de Datadog][2], lo que permite crear un diagrama de todas las vistas que contengan una frase determinada. + +Para que coincidan varias rutas, escribe un comodín en lugar de elegir un único nombre de vista. El siguiente ejemplo muestra los cinco pasos que siguen los usuarios después de visitar cualquier vista que coincida con `/department/*`: + +{{< img src="/product_analytics/journeys/pathways/pana_pathway_page_img3.png" alt="Diagrama de rutas que utiliza un comodín para emparejar varias rutas" style="width:90%;" >}} + +## Analizar un diagrama de rutas + +Puedes pasar el ratón por encima de un nodo del diagrama para ver el número de sesiones que incluyeron visitas a esa vista. + +Haz clic en un nodo para acceder a la lista de opciones de análisis, como la visualización de una muestra de [Session Replay][3] o la creación de un diagrama de rutas que comience con esa vista. + +{{< img src="/product_analytics/journeys/pathways/pana_pathway_page_img4.png" alt="Menú de acciones del nodo de un diagrama de rutas" style="width:90%;" >}} + +### Convertir el diagrama en un embudo + +1. En la página del diagrama de rutas, haz clic en el botón **Build Funnel** (Crear embudo). +2. En el diagrama de rutas, haz clic en los nodos de las vistas que desees incluir en el embudo. +3. Haz clic en **Create Funnel From Selection** (Crear embudo a partir de la selección). + +{{< img src="/product_analytics/journeys/pathways/pana_pathway_page_img5.png" alt="Ruta al embudo de conversión en curso" style="width:90%;" >}} + +## Referencias adicionales +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/product-analytics/user-journey/pathways +[2]: /es/real_user_monitoring/explorer/search_syntax/#wildcards +[3]: /es/product_analytics/session_replay/ \ No newline at end of file diff --git a/content/es/real_user_monitoring/session_replay/mobile/setup_and_configuration.ast.json b/content/es/real_user_monitoring/session_replay/mobile/setup_and_configuration.ast.json index 3177b68895490..76ac7b5f90e93 100644 --- a/content/es/real_user_monitoring/session_replay/mobile/setup_and_configuration.ast.json +++ b/content/es/real_user_monitoring/session_replay/mobile/setup_and_configuration.ast.json @@ -1,7 +1,5 @@ { "$$mdtype": "Node", - "errors": [], - "lines": [], "inline": false, "attributes": { "frontmatter": { @@ -58,7 +56,7 @@ } }, { - "link": "/real_user_monitoring/mobile_and_tv_monitoring/android/web_view_tracking", + "link": "/real_user_monitoring/application_monitoring/android/web_view_tracking", "text": { "string": "Web View Tracking" }, @@ -69,40 +67,36 @@ ] } }, - "children": [ - { - "$$mdtype": "Node", - "errors": [], - "lines": [ - 28, - 29 - ], - "inline": false, - "attributes": { - "file": "rum/session_replay/setup_and_configuration.mdoc.md" - }, - "children": [], - "type": "tag", - "tag": "partial", - "annotations": [ - { - "type": "attribute", - "name": "file", - "value": "rum/session_replay/setup_and_configuration.mdoc.md" - } - ], - "slots": {}, - "location": { - "start": { - "line": 28 + "children": { + "translationListData": { + "0": { + "$$mdtype": "Node", + "inline": false, + "attributes": { + "file": "mdoc/en/real_user_monitoring/session_replay/setup_and_configuration.mdoc.md" }, - "end": { - "line": 29 - } + "children": { + "translationListData": {} + }, + "type": "tag", + "tag": "partial", + "annotations": { + "translationListData": { + "0": { + "type": "attribute", + "name": "file", + "value": "mdoc/en/real_user_monitoring/session_replay/setup_and_configuration.mdoc.md" + } + } + }, + "slots": {}, + "location": "line 28-29" } } - ], + }, "type": "document", - "annotations": [], + "annotations": { + "translationListData": {} + }, "slots": {} } \ No newline at end of file diff --git a/content/es/security/cloud_security_management/setup/agent/docker.md b/content/es/security/cloud_security_management/setup/agent/docker.md new file mode 100644 index 0000000000000..85b481f5203b1 --- /dev/null +++ b/content/es/security/cloud_security_management/setup/agent/docker.md @@ -0,0 +1,59 @@ +--- +aliases: +- /es/security/cloud_security_management/setup/csm_cloud_workload_security/agent/docker +- /es/security/cloud_security_management/setup/csm_enterprise/agent/docker +code_lang: docker +code_lang_weight: 65 +title: Configuración de Cloud Security en Docker +type: multi-code-lang +--- + +Sigue las siguientes instrucciones para activar Misconfigurations y Vulnerability Management. + +{{< partial name="security-platform/CSW-billing-note.html" >}} + +## Requisitos previos + +- Datadog Agent versión `7.46` o posterior. + +## Instalación + +El siguiente comando inicia el Runtime Security Agent y `system-probe` en un entorno Docker: + +{{< code-block lang="shell" filename="docker-runtime-security.sh" >}} + +docker run -d --name dd-agent \ + --cgroupns host \ + --pid host \ + --security-opt apparmor:unconfined \ + --cap-add SYS_ADMIN \ + --cap-add SYS_RESOURCE \ + --cap-add SYS_PTRACE \ + --cap-add NET_ADMIN \ + --cap-add NET_BROADCAST \ + --cap-add NET_RAW \ + --cap-add IPC_LOCK \ + --cap-add CHOWN \ + -v /var/run/docker.sock:/var/run/docker.sock:ro \ + -v /proc/:/host/proc/:ro \ + -v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \ + -v /etc/passwd:/etc/passwd:ro \ + -v /etc/group:/etc/group:ro \ + -v /:/host/root:ro \ + -v /sys/kernel/debug:/sys/kernel/debug \ + -v /etc/os-release:/etc/os-release \ + -e DD_COMPLIANCE_CONFIG_ENABLED=true \ + -e DD_COMPLIANCE_CONFIG_HOST_BENCHMARKS_ENABLED=true \ + -e DD_CONTAINER_IMAGE_ENABLE=true + -e DD_SBOM_ENABLED=true + -e DD_SBOM_CONTAINER_IMAGE_ENABLED=true + -e DD_SBOM_HOST_ENABLED=true + -e HOST_ROOT=/host/root \ + -e DD_API_KEY= \ + gcr.io/datadoghq/agent:7 + +{{< /code-block >}} + +[1]: /es/security/cloud_security_management/misconfigurations/ +[2]: /es/security/threats +[3]: /es/security/cloud_security_management/setup#supported-deployment-types-and-features \ No newline at end of file diff --git a/content/es/security/cloud_security_management/setup/agentless_scanning/compatibility.md b/content/es/security/cloud_security_management/setup/agentless_scanning/compatibility.md new file mode 100644 index 0000000000000..acf5246235beb --- /dev/null +++ b/content/es/security/cloud_security_management/setup/agentless_scanning/compatibility.md @@ -0,0 +1,95 @@ +--- +aliases: +- /es/security/cloud_security_management/agentless_scanning/compatibility +title: Compatibilidad con el análisis Agentless +--- + +## Disponibilidad + +La siguiente tabla proporciona un resumen de las tecnologías de análisis Agentless con respecto a sus componentes correspondientes para cada proveedor de nube compatible: + +| Componente | AWS | Azure | +|-------------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| Sistema operativo | Linux; Windows Server 2016, 2019, 2022; Windows 10 o posterior. | Linux; Windows Server 2016, 2019, 2022; Windows 10 o posterior. | +| Sistema de archivos del host | Btrfs, Ext2, Ext3, Ext4, xfs | Btrfs, Ext2, Ext3, Ext4, xfs | +| Gestor de paquetes | Deb (debian, ubuntu)
RPM (amazon-linux, fedora, redhat, centos)
APK (alpine) | Deb (Debian, Ubuntu)
RPM (Fedora, RedHat, CentOS)
APK (Alpine) | +| Cifrado | AWS
Sin cifrar
Cifrado - Clave gestionada por la plataforma (PMK) y Clave gestionada por el cliente (CMK) | Cifrado - Clave gestionada por la plataforma (PMK): Cifrado del lado del servidor Azure Disk Storage, Cifrado en host
**Nota**: Cifrado - Clave gestionada por el cliente (CMK) **no** es compatible. | +| Tiempo de ejecución del contenedor | Docker, en contenedor
**Nota**: CRI-O **no** es compatible | Docker, en contenedor
**Nota**: CRI-O **no** es compatible | +| Serverless | AWS Lambda
AWS Fargate para ECS | Para solicitar esta función, ponte en contacto con el [servicio de asistencia de Datadog][16] | +| Lenguajes de aplicación (en hosts y contenedores) | Java, .Net, Python, Node.js, Go, Ruby, Rust, PHP, Swift, Dart, Elixir, Conan, Conda | Java, .Net, Python, Node.js, Go, Ruby, Rust, PHP, Swift, Dart, Elixir, Conan, Conda | +| Registros de contenedores | Amazon ECR (público y privado) | | || + +**Nota**: Las AMI deben almacenarse en una cuenta que utilice la integración AWS de Datadog. De lo contrario, Datadog no puede leer el snapshot subyacente de Amazon Elastic Block Store (EBS) de la AMI, por lo que no puede analizarla ni generar informes sobre ella. + +## Distribuciones Linux + +Las siguientes distribuciones Linux son compatibles con los análisis de hosts y contenedores: + +| Sistema operativo | Versiones compatibles | Gestores de paquetes | Avisos de seguridad | +|--------------------------|-----------------------------------------------------|------------------|-----------------------------------------------------------------------------------------------------------| +| Alpine Linux | 2.2-2.7, 3.0-3.19 (edge no compatible) | apk | [https://secdb.alpinelinux.org/][1] | +| Wolfi Linux | N/A | apk | [https://packages.wolfi.dev/os/security.json][2] | +| Chainguard | N/A | apk | [https://packages.cgr.dev/chainguard/security.json][3] | +| Red Hat Enterprise Linux | 6, 7, 8 | dnf/yum/rpm | [https://www.redhat.com/security/data/metrics/][4] y [https://www.redhat.com/security/data/oval/v2/][5] | +| CentOS | 6, 7, 8 | dnf/yum/rpm | [https://www.redhat.com/security/data/metrics/][4] and [https://www.redhat.com/security/data/oval/v2/][5]y | +| AlmaLinux | 8, 9 | dnf/yum/rpm | [https://errata.almalinux.org/][6] | +| Rocky Linux | 8, 9 | dnf/yum/rpm | [https://download.rockylinux.org/pub/rocky/][7] | +| Oracle Linux | 5, 6, 7, 8 | dnf/yum/rpm | [https://linux.oracle.com/security/oval/][8] | +| CBL-Mariner | 1.0, 2.0 | dnf/yum/rpm | [https://github.com/microsoft/CBL-MarinerVulnerabilityData/][9] | +| Amazon Linux | 1, 2, 2023 | dnf/yum/rpm | [https://alas.aws.amazon.com/][10] | +| openSUSE Leap | 42, 15 | zypper/rpm | [http://ftp.suse.com/pub/projects/security/cvrf/][11] | +| SUSE Linux Enterprise | 11, 12, 15 | zypper/rpm | [http://ftp.suse.com/pub/projects/security/cvrf/][11] | +| Photon OS | 1.0, 2.0, 3.0, 4.0 | tdnf/yum/rpm | [https://packages.vmware.com/photon/photon_cve_metadata/][12] | +| Debian GNU/Linux | 7, 8, 9, 10, 11, 12 (unstable/sid no es compatible) | apt/dpkg | [https://security-tracker.debian.org/tracker/][13] y [https://www.debian.org/security/oval/][14] | +| Ubuntu | Todas las versiones compatibles con Canonical | apt/dpkg | [https://ubuntu.com/security/cve][15] | + +## Bibliotecas de aplicaciones + +Los siguientes lenguajes y bibliotecas de aplicaciones son compatibles con los análisis de vulnerabilidades en contenedores e instancias Lambda: + +| Lenguaje | Gestor de paquetes compatible | Archivos compatibles | +|----------|---------------------------|----------------------------------------------------------------------| +| Ruby | agrupador | Gemfile.lock, gemspec | +| .NET | nuget | packages.lock.json, packages.config, .deps.json, *packages.props | +| Go | mod | Binarios creados por Go, go.mod | +| Java | Gradle, Maven | pom.xml, *gradle.lockfile, JAR/WAR/PAR/EAR (con pom.properties) | +| Node.js | npm, pnpm, yarn | package-lock.json, yarn.lock, pnpm-lock.yaml, package.json | +| PHP | composer | composer.lock | +| Python | pip, poetry | pipfile.lock, poetry.lock, egg package, wheel package, conda package | + +## Registros de imágenes de contenedores + +Los siguientes registros de imágenes de contenedores son compatibles con los análisis de imágenes de contenedores: + +- Amazon ECR público +- Amazon ECR privado + +**Nota**: El análisis de imágenes de contenedores del registro solo es compatible si instalaste Agentless con: + - Integraciones de Cloudformation >= v2.0.8 + - Módulo Terraform Agentless >= v0.11.7 + +## Tiempos de ejecución de contenedores + +Se admiten los siguientes tiempos de ejecución de contenedores: + +- containerd: v1.5.6 o posterior +- Docker + +**Nota para observaciones de contenedores**: El análisis Agentless requiere capas de imágenes de contenedor sin comprimir. Como solución alternativa, puedes definir la opción de configuración `discard_unpacked_layers=false` en el archivo de configuración containerd. + +[1]: https://secdb.alpinelinux.org/ +[2]: https://packages.wolfi.dev/os/security.json +[3]: https://packages.cgr.dev/chainguard/security.json +[4]: https://www.redhat.com/security/data/metrics/ +[5]: https://www.redhat.com/security/data/oval/v2/ +[6]: https://errata.almalinux.org/ +[7]: https://download.rockylinux.org/pub/rocky/ +[8]: https://linux.oracle.com/security/oval/ +[9]: https://github.com/microsoft/CBL-MarinerVulnerabilityData/ +[10]: https://alas.aws.amazon.com/ +[11]: http://ftp.suse.com/pub/projects/security/cvrf/ +[12]: https://packages.vmware.com/photon/photon_cve_metadata/ +[13]: https://security-tracker.debian.org/tracker/ +[14]: https://www.debian.org/security/oval/ +[15]: https://ubuntu.com/security/cve +[16]: /es/help \ No newline at end of file diff --git a/content/es/security/cloud_security_management/troubleshooting/vulnerabilities.md b/content/es/security/cloud_security_management/troubleshooting/vulnerabilities.md index cae37de55a8ac..42392a25b6966 100644 --- a/content/es/security/cloud_security_management/troubleshooting/vulnerabilities.md +++ b/content/es/security/cloud_security_management/troubleshooting/vulnerabilities.md @@ -2,9 +2,9 @@ aliases: - /es/security/vulnerabilities/troubleshooting/ further_reading: -- link: /security/cloud_security_management/setup/csm_pro/?tab=aws#configure-the-agent-for-containers +- link: /infrastructure/containers/container_images/#enable-sbom-collection tag: Documentación - text: Configuración de las vulnerabilidades de imágenes de contenedor + text: Activar la recopilación de SBOM en Vulnerabilidades de Cloud Security - link: /security/cloud_security_management/setup/csm_enterprise/?tab=aws#hosts tag: Documentación text: Configuración de vulnerabilidades de host @@ -12,12 +12,12 @@ further_reading: tag: Blog text: Mejorar el flujo de trabajo de solución de problemas con imágenes de contenedor en Datadog Container Monitoring -title: Solución de problemas de Cloud Security Management Vulnerabilities +title: Solucionar problemas de Vulnerabilidades de Cloud Security --- ## Información general -Si tienes problemas con Cloud Security Management (CSM) Vulnerabilities, utiliza las siguientes directrices de solucionar problemas. Si necesitas más ayuda, ponte en contacto con [el equipo de soporte de Datadog][1]. +Si tienes problemas con vulnerabilidades de Cloud Security, utiliza las siguientes directrices para solucionar problemas. Si necesitas más ayuda, ponte en contacto con [Asistencia técnica de Datadog][1]. ## Mensajes de error @@ -45,7 +45,46 @@ El error resultante aparece como: ERROR | (pkg/workloadmeta/collectors/internal/containerd/image_sbom_trivy.go:80 in func2) | Failed to generate SBOM for containerd image: unable to marshal report to sbom format, err: analyze error: failed to analyze layer: : unable to get uncompressed layer ``` -La solución para este problema es establecer la opción de configuración `discard_unpacked_layers=false` en el archivo de configuración de contenedor. +La solución a este problema es configurar la opción configuración: +- Para containerd: configura `discard_unpacked_layers=false` en el archivo de configuración de containerd. +- Para Helm: configura `datadog.sbom.containerImage.uncompressedLayersSupport: true` en tu archivo `values.yaml`. +- Para el operador Datadog: configura `features.sbom.containerImage.uncompressedLayersSupport` en `true` en tu Datadog Agent CRD. + +### Transmisión de imágenes GKE + +Datadog no admite la transmisión de imágenes con Google Kubernetes Engine (GKE). Si tienes activada esa opción en GKE, tu Agent no podrá generar SBOM de contenedor. + +El error resultante aparece como: + +```sh +unable to mount containerd image, err: unable to scan image named: {image-name}, image is not unpacked +``` + +La solución para este problema es desactivar la transmisión de imágenes en GKE. Para obtener más información, consulta la sección [Desactivar la transmisión de imágenes][5] de la documentación de GKE. + +## Desactivar las vulnerabilidades de Cloud Security + +En el archivo `datadog-values.yaml` del Agent, configura los siguientes parámetros de configuración en `false`: + +``` +# datadog-values.yaml file +datadog: + sbom: + containerImage: + enabled: false + + # Uncomment the following line if you are using Google Kubernetes Engine (GKE) or Amazon Elastic Kubernetes (EKS) + # uncompressedLayersSupport: true + + # Enables Host Vulnerability Management + host: + enabled: false + + # Enables Container Vulnerability Management + # Image collection is enabled by default with Datadog Helm version `>= 3.46.0` + containerImageCollection: + enabled: false +``` ## Referencias adicionales @@ -54,4 +93,5 @@ La solución para este problema es establecer la opción de configuración `disc [1]: /es/help/ [2]: /es/security/cloud_security_management/setup/csm_enterprise?tab=aws#configure-the-agent-for-vulnerabilities [3]: https://app.datadoghq.com/security/configuration/csm/setup -[4]: https://app.datadoghq.com/metric/summary \ No newline at end of file +[4]: https://app.datadoghq.com/metric/summary +[5]: https://cloud.google.com/kubernetes-engine/docs/how-to/image-streaming#disable \ No newline at end of file diff --git a/content/es/security/security_inbox.md b/content/es/security/security_inbox.md index efcc0c94d81e3..caa4153b5912b 100644 --- a/content/es/security/security_inbox.md +++ b/content/es/security/security_inbox.md @@ -2,23 +2,22 @@ further_reading: - link: /security/application_security/ tag: Documentación - text: Obtener más información sobre Application Security Management + text: Más información sobre App and API Protection - link: /security/cloud_security_management tag: Documentación - text: Obtener más información sobre Cloud Security Management + text: Más información sobre Cloud Security - link: /security/default_rules/#all tag: Documentación text: Reglas de detección predefinidas -- link: https://www.datadoghq.com/blog/security-inbox/ +- link: https://www.datadoghq.com/blog/security-inbox-prioritization/ tag: Blog - text: Identificar y priorizar fácilmente tus principales riesgos de seguridad con - el Buzón de seguridad de Datadog + text: Cómo Datadog Security Inbox prioriza los riesgos de seguridad products: - icon: cloud-security-management - name: Cloud Security Management + name: Cloud Security url: /security/cloud_security_management/ - icon: app-sec - name: Application Security Management + name: App and API Protection url: /security/application_security/ title: Buzón de seguridad --- @@ -27,16 +26,17 @@ title: Buzón de seguridad El Buzón de seguridad proporciona una lista consolidada y práctica de tus hallazgos de seguridad más importantes. Contextualiza y correlaciona automáticamente la información de los productos de seguridad de Datadog sobre vulnerabilidades, señales, configuraciones incorrectas y riesgos de identidad en una vista unificada y priorizada de las medidas que debes tomar para reforzar tu entorno. -{{< img src="security/security_inbox_6.png" alt="El Buzón de seguridad muestra problemas de seguridad organizados por prioridades que deben resolverse" width="100%">}} +{{< img src="security/security_inbox_7.png" alt="El Security Inbox muestra problemas de seguridad organizados por prioridades que deben resolverse" width="100%">}} ## Tipos de hallazgos del Buzón de seguridad -Los hallazgos que aparecen en el Buzón de seguridad se generan a partir de Application Security Management (ASM) y Cloud Security Management (CSM). Incluyen los siguientes tipos de hallazgos: +Las incidencias que aparecen en Security Inbox se generan a partir de App and API Protection (AAP) y Cloud Security. Por defecto, incluyen los siguientes tipos de hallazgos: -- [Configuraciones incorrectas][1] para [Configuraciones incorrectas de CSM][2]. -- [Riesgos de identidad][1] para [Riesgos de identidad de CSM][3]. -- Vulnerabilidades de la librería de la aplicación para el [Análisis de composición del software (SCA)][4]. Todas las vulnerabilidades elevadas y críticas de la librería de la aplicación en servicios de producción bajo ataque aparecen en el buzón. +- Un conjunto curado de [errores de configuración][1] para [Cloud Security Misconfigurations][2], compilado por Datadog Security Research. +- Un conjunto curado de [riesgos de identidad][1] para [Cloud Security Identity Risks][3], compilado por Datadog Security Research. +- Vulnerabilidades de la biblioteca de la aplicación para el [Análisis de composición del software (SCA)][4]. Todas las vulnerabilidades elevadas y críticas de la biblioteca de la aplicación en servicios de producción bajo ataque aparecen en el buzón. - Vulnerabilidades del código de la aplicación para [Vulnerabilidades de seguridad del código][5]. Todas las vulnerabilidades elevadas y críticas del código de la aplicación aparecen en el buzón. +- Vulnerabilidades emergentes, que son vulnerabilidades de infraestructura que han tenido CVEs publicados en los últimos 30 días y que tienen una [puntuación de gravedad de Datadog][10] Crítica, o que el equipo de Datadog Security Research ha publicado. Cuando Datadog califica una vulnerabilidad como Crítica, significa que se trata de una vulnerabilidad crítica explotable que afecta a un recurso de producción orientado a Internet. - [Rutas de ataque][1]. Una ruta de ataque resume una serie de interconexiones entre configuraciones incorrectas, imágenes de contenedores, hosts y vulnerabilidades de aplicaciones que los actores maliciosos podrían aprovechar para obtener acceso no autorizado, escalar privilegios o comprometer datos confidenciales en tu entorno de nube. Todas las rutas de ataque aparecen por defecto en el Buzón de seguridad. El Buzón de seguridad también tiene en cuenta los siguientes riesgos detectados a la hora de determinar qué hallazgos aparecen en el Buzón de seguridad: @@ -45,7 +45,7 @@ El Buzón de seguridad también tiene en cuenta los siguientes riesgos detectado - **Acceso privilegiado**: Los recursos con acceso privilegiado conllevan un riesgo elevado, ya que conceden permisos elevados que pueden ampliar la superficie de ataque. - **Bajo ataque**: Los recursos que registran una actividad de seguridad sospechosa conllevan un riesgo elevado. Los recursos se marcan como "Bajo ataque" si se ha detectado una señal de seguridad en el recurso en los últimos 15 días. - **Exploit disponible**: Las vulnerabilidades con exploits públicos disponibles conllevan un riesgo elevado. La disponibilidad de un exploit público se verifica con diferentes bases de datos de exploits, como [cisa.gov][7], [exploit-db.com][8] y [nvd.nist.gov][9]. -- **En producción**: Las vulnerabilidades en entornos de producción conllevan un riesgo elevado. El entorno se calcula a partir de la etiqueta (tag) `env`. +- **En producción**: las vulnerabilidades en entornos de producción conllevan riesgos elevados. El entorno se calcula a partir de las etiquetas `env` y `environment`. ## Cómo funcionan las prioridades del Buzón de seguridad @@ -57,17 +57,40 @@ El Buzón de seguridad clasifica los problemas teniendo en cuenta en primer luga **Nota**: El tipo de hallazgo, riesgo detectado o recurso afectado no influye en la priorización. +## Utilizar el mapa contextual de seguridad para identificar y mitigar vulnerabilidades + +El mapa de contexto de seguridad para [Rutas de ataque](#types-of-findings-in-security-inbox) proporciona una visión completa para ayudar a identificar y abordar posibles puntos de infracción. Mapea eficazmente los errores de configuración interconectados, las brechas de permisos y las vulnerabilidades que los atacantes podrían explotar. + +Las características clave incluyen: + +- **Evaluación de riesgos**: el mapa permite a los equipos de seguridad evaluar el impacto más amplio de las vulnerabilidades y los errores de configuración. Esto incluye evaluar si es necesario actualizar las políticas de seguridad, como las rutas de acceso y los permisos, y comprender las implicaciones de la exposición para el cumplimiento de la normativa, sobre todo cuando hay datos confidenciales en peligro dentro del radio de la explosión. +- **Contexto accionable para una respuesta inmediata**: el mapa incluye información sobre la propiedad del servicio y otros contextos relevantes, lo que permite a los equipos tomar decisiones informadas y en tiempo real. Los equipos pueden tomar acción directamente desde el mapa ejecutando flujos de trabajo integrados, compartiendo enlaces de problemas de seguridad y accediendo a la vista de recursos de la consola de AWS para una corrección eficiente, todo ello sin cambiar de herramienta. + +{{< img src="security/security_context_map.png" alt="El mapa de contexto de seguridad que muestra una instancia de AWS EC2 con un error de configuración crítico" width="100%">}} + +## Personaliza Security Inbox para resaltar los temas cruciales + +Automation Pipelines te permite configurar reglas que personalizan tu Security Inbox, lo que te permite resaltar los problemas que son críticos para tu organización. Al configurar estas reglas automatizadas, puedes agilizar la gestión de las vulnerabilidades recién detectadas, mejorando los esfuerzos de triaje y corrección a escala. Aprovechando Automation Pipelines y las reglas de Añadir a Security Inbox, puedes optimizar tus operaciones de seguridad de las siguientes maneras: + +- **Resaltar los problemas que no se detectan por defecto**: resalta los problemas que podrían pasar desapercibidos por las reglas de detección predeterminadas o personalizadas, garantizando que no se pase por alto ningún problema crítico. +- **Reforzar el cumplimiento de la normativa y abordar los principales problemas de los sistemas**: aborda los problemas que afectan al cumplimiento de la normativa o a sistemas empresariales importantes, independientemente de su gravedad. +- **Priorizar los riesgos actuales**: céntrate en las amenazas inmediatas, como los riesgos de identidad tras un incidente o las vulnerabilidades de todo el sector. + +Para obtener más información, consulta [Automation Pipelines][11] y [Añadir a reglas de Security Inbox][12]. + ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} -[1]: /es/security/default_rules/?category=cat-csm-security-issues#all +[1]: /es/security/default_rules/?category=all#all [2]: /es/security/cloud_security_management/misconfigurations/ [3]: /es/security/cloud_security_management/identity_risks/ -[4]: /es/security/application_security/software_composition_analysis -[5]: /es/security/application_security/code_security +[4]: /es/security/code_security/software_composition_analysis +[5]: /es/security/code_security/iast [6]: /es/security/cloud_security_management/guide/public-accessibility-logic/ [7]: https://www.cisa.gov/ [8]: https://www.exploit-db.com/ [9]: https://nvd.nist.gov/ -[10]: /es/security/cloud_security_management/severity_scoring/#csm-severity-scoring-framework +[10]: /es/security/cloud_security_management/severity_scoring/#cloud-security-severity-scoring-framework +[11]: /es/security/automation_pipelines/ +[12]: /es/security/automation_pipelines/security_inbox \ No newline at end of file diff --git a/content/es/security/ticketing_integrations.md b/content/es/security/ticketing_integrations.md index 6236a58b08c13..db1e3525fb382 100644 --- a/content/es/security/ticketing_integrations.md +++ b/content/es/security/ticketing_integrations.md @@ -36,10 +36,6 @@ Abre cualquier señal en estos productos y utiliza el botón **Crear case (incid ## Sincronización bidireccional de tickets con Jira -{{< callout btn_hidden="true" header="Join the Preview!" >}} -La Sincronización Bidireccional de Jira está en Vista previa. Ponte en contacto con tu Customer Success Manager para obtener acceso. -{{< /callout >}} - La sincronización bidireccional te permite actualizar automáticamente los tickets de Jira cuando se produzcan cambios en Datadog y actualizar cierta información de Datadog cuando se producen cambios en Jira. ### Productos compatibles diff --git a/content/es/serverless/step_functions/troubleshooting.md b/content/es/serverless/step_functions/troubleshooting.md index ff0d8250abf54..7ae1a87c8ebc6 100644 --- a/content/es/serverless/step_functions/troubleshooting.md +++ b/content/es/serverless/step_functions/troubleshooting.md @@ -4,23 +4,46 @@ title: Solucionar problemas de monitorización serverless de AWS Step Functions ## No veo ninguna traza (trace) -### Verificar que tu Step Function esté configurado para enviar todos los logs - -- Asegúrate de que la variable de entorno `DD_TRACE_ENABLED` esté configurada en `true` en la función lambda en tu consola de AWS. -- En tu consola de AWS, abre la pestaña del registro de tu Step Function. Asegúrate de que _Log level_ esté configurado en `ALL` y de que _Include execution data_ esté seleccionado. +#### Verificar que tu Step Function esté configurado para enviar todos los logs +- Asegúrate de que la tag (etiqueta) `DD_TRACE_ENABLED` esté configurada en `true` en Step Function en tu consola de AWS. +- En tu consola de AWS, abre la pestaña del registro de tu Step Function. Asegúrate de que el _Nivel de logs_ esté configurado en `ALL` y de que _Incluir datos de ejecución_ esté seleccionado. - Asegúrate de que el grupo de logs de CloudWatch (que también se encuentra en la pestaña del registro) tenga un filtro de suscripción a Datadog Lambda Forwarder en la misma región. -### Verificar que los logs se reenvíen correctamente a Datadog -- Check el Datadog Lambda Forwarder para los mensajes de error. Asegúrate de que hayas configurado correctamente tu clave de la API y el sitio Datadog. +#### Verificar que los logs se reenvíen correctamente a Datadog +- Check mensajes de error en el Datadog Lambda Forwarder. Asegúrate de que hayas configurado correctamente tu clave de la API y el sitio Datadog. - Activa `DEBUG` logs en el Datadog Lambda Forwarder configurando la variable de entorno `DD_LOG_LEVEL` en `debug`. -### Verificar que los logs se puedan buscar en Búsqueda en vivo y que tengas la etiqueta DD_TRACE_ENABLED +#### Verificar que los logs se puedan buscar en Búsqueda en vivo y que tengan la etiqueta DD_TRACE_ENABLED En Datadog, ve a [**Logs > Flujo (stream) de logs**][2]. Busca `source:stepfunction`. Es posible que tengas que activar la máquina de estados varias veces. Si necesitas actualizar Datadog Lambda Forwarder desde una versión anterior, check que después de la actualización, el Forwarder tenga la etiqueta `DD_FETCH_STEP_FUNCTIONS_TAGS` configurada en `true`. Si el Forwarder actualizado no tiene la etiqueta `DD_FETCH_STEP_FUNCTIONS_TAGS`, puede que tu Forwarder no se haya actualizado correctamente. -Si el Forwarder y la máquina de estados etiquetas (tags) se configuran correctamente con los pasos anteriores, los Logs se etiquetan con `DD_TRACE_ENABLED:true`. +Si las etiquetas (tags) de Forwarder y de la máquina de estados se configuran correctamente con los pasos anteriores, los logs se etiquetan con `DD_TRACE_ENABLED:true`. + +#### Comprueba que tu Step función utilice la última versión +- AWS puede publicar actualizaciones de la API de Step Function o introducir nuevas versiones de las definiciones de Step Function. Las versiones anteriores pueden dar lugar a formatos o comportamientos inesperados en logs. +- También se recomienda que utilices la última versión de la Datadog Lambda Forwarder para evitar discrepancias en la forma en que se reenvían los logs. + +#### Precaución al utilizar pipelines de logs personalizadas +- Los pipelines de logs personalizados pueden ofrecer flexibilidad en el procesamiento de logs, pero alterar demasiado el formato de los logs puede dar lugar a problemas posteriores, como que no se reconozcan o no se analicen logs. +- Evita realizar cambios significativos en la estructura de logs de Step Function que cambien el formato JSON. + +## Las traces (trazas) de Lambda no se fusionan con las trazas de Step Function +- Verifica que puedas ver las trazas de Lambda y las traces (trazas) de Step Function en Datadog. +- Verifica que estés utilizando la capa o versión correcta del rastreador según la guía [fusión de traces (trazas)][6]. Asegúrate también de que el step (UI) / paso (generic) de Lambda esté instrumentado en la definición de tu máquina de estados. +- Ejecuta tu Step Function una vez y comprueba que el log de eventos `TaskScheduled` del step (UI) / paso (generic) Lambda tenga la carga útil que contiene los datos del [objeto de contexto de Step Function][4]. +- Si tu Lambda tiene configurada la variable de entorno `DD_TRACE_EXTRACTOR`, tus trazas no podrán fusionarse. -#### Buscar logs históricos -Para activar la búsqueda de logs históricos, añade un índice temporal al los logs reenviados. En Datadog, abre la pestaña de Logs [**Índices**][3]. Haz clic en el botón **Nuevo índice** en la parte superior derecha. +## Puedo ver el tramo (span) raíz de `aws.stepfunctions`, pero no puedo ver ningún tramo de paso +Activa la opción `Include execution data` en el registro de la máquina de estados. Después de activar esta opción, se registra la entrada de la ejecución de logs, los datos pasados entre estados y la salida de la ejecución. El backend de Datadog utiliza los logs para construir estos tramos de pasos para ti. + +## Faltan traces (trazas) intermitentemente +Cuando busques en traces (trazas), selecciona la opción **Live Search** en la esquina superior derecha. Si Live Search muestra tu trace (traza), añade "@trace_type:stepfunctions" al [filtro de retención](https://docs.datadoghq.com/tracing/trace_pipeline/trace_retention/#retention-filters) y establece la tasa de retención deseada. Para la depuración, Datadog recomienda establecer la tasa de retención en 100 %. El filtro puede desactivarse una vez finalizada la depuración. + +## Faltan algunos tramos de pasos en las trazas +- Las acciones de Lambda, DynamoDB, StepFunction y la mayoría de los demás servicios de AWS son compatibles. +- `Wait`, `Choice`, `Success`, `Fail`, `Pass`, `Inline MapState` y `Parallel` son compatibles, mientras que [`Distributed MapState`][8] tiene compatibilidad limitada. + +## Buscar logs históricos +Para activar la búsqueda de logs históricos, añade un índice temporal a los logs reenviados. En Datadog, abre la pestaña [**Indexes** (Índices)][3] de logs. Haz clic en el botón **New Index** (Nuevo Índice en la parte superior derecha. Elige un nombre, configura el filtro de índice en `Source:stepfunction`, deja todo lo demás con los valores por defecto y guarda. @@ -28,39 +51,30 @@ Elige un nombre, configura el filtro de índice en `Source:stepfunction`, deja t Si tu organización ya dispone de un índice global con un límite bajo, coloca tu nuevo índice en la parte superior. -**Nota**: Indexar logs no es un requisito para obtener trazas y puede suponer un costo adicional. Si estás solucionando un problema específico, es posible que desees enviar temporalmente logs a un índice, depurar y eliminar el índice después. Consulta [Índices][6] para obtener más información. +**Nota**: Indexar logs no es un requisito para obtener traces (trazas) y puede suponer un costo adicional. Si estás solucionando un problema específico, es posible que desees enviar temporalmente logs a un índice, depurar y eliminar el índice después. Consulta [Índices][5] para obtener más información. -## Las trazas de Lambda no se fusionan con las trazas de Step Function -- Verifica que puedas ver las trazas de Lambda y las trazas de Step Function en Datadog. -- Verrifica que estés utilizando la capa de Python v95+ o la capa de Node.js v112+. -- En tu consola de AWS, abre tu Step Function y asegúrate de que tu máquina de estados tenga `"Payload.$": "States.JsonMerge($$, $, false)"` en los pasos de Lambda. -- Ejecuta tu Step Function una vez y verifica que el log del evento `TaskScheduled` del paso de Lambda tenga la carga útil que contiene los datos del [objeto de contexto de Step Function][4]. Si no tienes un evento `TaskScheduled` y solo tienes un evento `LambdaFunctionScheduled`, actualiza la tarea en la definición de Step Functions para utilizar la integración d Lambda recomendada. Consulta la [documentación de AWS][5] para obtener instrucciones sobre cómo hacerlo. +## Faltan logs en una ejecución +Puedes utilizar [filtros de exclusión][7] para excluir un determinado porcentaje de todos los logs con un `execution_arn` concreto. El uso de filtros de exclusión no afecta al rastreo. -## Puedo ver el tramo (span) raíz de `aws.stepfunctions`, pero no puedo ver ningún tramo de paso -Activa la opción `Include execution data` en el registro de la máquina de estados. Después de activar esta opción, se registra la entrada de la ejecución de logs, los datos pasados entre estados y la salida de la ejecución. El backend de Datadog utiliza los logs para construir estos tramos de pasos para ti. +En el siguiente ejemplo, el filtro excluye logs para el 90 % de los `@execution_arn`. -## Faltan algunos tramos de pasos en las trazas -- Se admiten acciones de Lambda, DynamoDB, StepFunction y la mayoría de los demás servicios de AWS. -- Las actividades de AWS Step Functions no son compatibles. -- `Wait`, `Choice`, `Success`, `Fail`, `Pass`, `Inline MapState` y `Parallel` son compatibles, mientras que `Distributed MapState` no es compatible. +{{< img src="serverless/step_functions/exclusion_filter.png" alt="Un filtro de exclusión denominado Step Functions. La casilla 'Definir consulta de exclusión' contiene 'source:stepfunction'. En 'Configurar el porcentaje de exclusión', el filtro está configurado para excluir el 90 % of @execution_arn." style="width:80%;" >}} ## Forma personalizada de desplegar Datadog Lambda Forwarder Si estás utilizando tu forma personalizada de desplegar Datadog Lambda Forwarder, aquí tienes algunos consejos que te pueden ayudar a depurar activando el rastreo de Step Functions: - En Forwarder, configura la variable de entorno `DD_FETCH_STEP_FUNCTIONS_TAGS` en `true`. - Para activar la generación de trazas de Step Functions en el backend de Datadog, la versión de la capa de Datadog-Forwarder debe ser superior a 31. Esta versión puede acceder a las etiquetas de la máquina de estados, incluida la etiqueta necesaria `DD_TRACE_ENABLED`. +- También puedes configurar la tag (etiqueta) `DD_STEP_FUNCTIONS_TRACE_ENABLED` en el nivel Forwarder para activar el rastreo de todas las Step Functions que utilicen Forwarder en v3.121.0+. - El rol de IAM para Forwarder debe tener permiso para `tags:getResources`. - Configura un filtro de suscripción en el grupo de logs de CloudWatch de tu máquina de estados al Datadog Forwarder . -- Para verificar si los logs están llegando al backend de Datadog, abre la página de Log Explorer y busca `source:stepfunction` con el período de tiempo de búsqueda `Live` (que muestra todos los logs que entran en la ingesta de los logs de Datadog). Si no puedes ver ningún log, check si hay algún log con errores en el Datadog Forwarder como una clave de la API incorrecta/inválida. Añadir la variable de entorno `DD_LOG_LEVEL` de `DEBUG` te ayuda a depurar el problema de Forwarder. Si ves logs de Step Functions, verifica que los logs tengan la etiqueta `dd_trace_enable:true` (todas las etiquetas están normalizadas) y deberías ver las trazas de Step Functions asociadas al log en unos minutos. - - -#### Notas -Los pasos de Lambda que utilizan la API Lambda legacy no se pueden fusionar. Si la definición de tu paso Lambda es `"Resource": ""` en lugar de `"Resource": "arn:aws:states:::lambda:invoke"`, entonces tu paso está utilizando la API Lambda legacy. +- Para verificar si los logs están llegando al backend de Datadog, abre la página de Log Explorer y busca `source:stepfunction` con el período de tiempo de búsqueda `Live` (que muestra todos los logs que entran en la ingesta de los logs de Datadog). Si no puedes ver ningún log, check si hay algún log con errores en el Datadog Forwarder, como una clave de la API incorrecta/inválida. Añadir la variable de entorno `DD_LOG_LEVEL` de `DEBUG` te ayuda a depurar el problema de Forwarder. Si ves logs de Step Functions, verifica que los logs tengan la etiqueta `dd_trace_enable:true` (todas las etiquetas están normalizadas) y deberías ver las trazas de Step Functions asociadas al log en unos minutos. -Si tu Lambda tiene configurada la variable de entorno `DD_TRACE_EXTRACTOR`, tus trazas no podrán fusionarse. -[1]: https://app.datadoghq.com/logs -[2]: https://app.datadoghq.com/logs/livetail -[3]: https://app.datadoghq.com/logs/pipelines/indexes +[1]: /es/logs +[2]: /es/logs/livetail +[3]: /es/logs/pipelines/indexes [4]: https://docs.aws.amazon.com/step-functions/latest/dg/input-output-contextobject.html -[5]: https://docs.aws.amazon.com/step-functions/latest/dg/connect-lambda.html -[6]: /es/logs/log_configuration/indexes/ \ No newline at end of file +[5]: /es/logs/log_configuration/indexes/ +[6]: /es/serverless/step_functions/merge-step-functions-lambda/?tab=serverlessframework#merge-step-functions-traces-with-downstream-lambda-traces +[7]: /es/logs/log_configuration/indexes/#exclusion-filters +[8]: /es/serverless/step_functions/distributed-maps \ No newline at end of file diff --git a/content/es/service_management/events/guides/dogstatsd.md b/content/es/service_management/events/guides/dogstatsd.md index 32ebc0b36d395..59450760c0be8 100644 --- a/content/es/service_management/events/guides/dogstatsd.md +++ b/content/es/service_management/events/guides/dogstatsd.md @@ -106,7 +106,7 @@ public class DogStatsdClient { public static void main(String[] args) throws Exception { StatsDClient Statsd = new NonBlockingStatsDClientBuilder() - .prefix("statsd"). + .prefix("statsd") .hostname("localhost") .port(8125) .build(); @@ -115,6 +115,7 @@ public class DogStatsdClient { .withTitle("An error occurred") .withText("Error message") .withAlertType(Event.AlertType.ERROR) + .withTags("env:prod", "tagkey:value") .build(); Statsd.recordEvent(event); @@ -125,25 +126,25 @@ public class DogStatsdClient { {{< programming-lang lang=".NET" >}} ```csharp -using StatsdClient; - -public class DogStatsdClient -{ - public static void Main() - { - var dogstatsdConfig = new StatsdConfig - { - StatsdServerName = "127.0.0.1", - StatsdPort = 8125, - }; - - using (var dogStatsdService = new DogStatsdService()) - { +using StatsdClient; + +public class DogStatsdClient +{ + public static void Main() + { + var dogstatsdConfig = new StatsdConfig + { + StatsdServerName = "127.0.0.1", + StatsdPort = 8125, + }; + + using (var dogStatsdService = new DogStatsdService()) + { if (!dogStatsdService.Configure(dogstatsdConfig)) throw new InvalidOperationException("Cannot initialize DogstatsD. Set optionalExceptionHandler argument in the `Configure` method for more information."); - dogStatsdService.Event("An error occurred", "Error message", alertType: "error", date_happened='TIMESTAMP', tags: new[] { "env:dev" }); - } - } + dogStatsdService.Event("An error occurred", "Error message", alertType: "error", date_happened='TIMESTAMP', tags: new[] { "env:dev" }); + } + } } ``` {{< /programming-lang >}} @@ -170,8 +171,8 @@ $statsd->event('An error occurred.', ); ``` -Con la librería de DogStatsD-PHP puedes enviar eventos a través de TCP directamente a la API de Datadog. Es más lento pero más fiable que utilizar la instancia de DogStatsD del Agent, ya que los eventos se reenvían desde tu aplicación al Agent mediante UDP. -Para utilizarlo, debes configurar la librería con tus [claves de aplicación y API de Datadog][1] en lugar de la instancia local de DogStatS: +Con la biblioteca de DogStatsD-PHP puedes enviar eventos a través de TCP directamente a la API de Datadog. Es más lento pero más fiable que utilizar la instancia de DogStatsD del Agent, ya que los eventos se reenvían desde tu aplicación al Agent mediante UDP. +Para utilizarlo, debes configurar la biblioteca con tus [claves de aplicación y API de Datadog][1] en lugar de la instancia local de DogStatS: ```php event('An error occurred.', * Debes utilizar un bloque de código `try`/`catch` para evitar advertencias o errores sobre problemas de comunicación con la API de Datadog. -## Lectura adicional +## Leer más {{< partial name="whats-next/whats-next.html" >}} [1]: /es/developers/dogstatsd/ -[2]: /es/service_management/events/ +[2]: /es/service_management/events/ \ No newline at end of file diff --git a/content/es/service_management/events/pipelines_and_processors/status_remapper.md b/content/es/service_management/events/pipelines_and_processors/status_remapper.md index 428196f420a8a..5c3b73632db36 100644 --- a/content/es/service_management/events/pipelines_and_processors/status_remapper.md +++ b/content/es/service_management/events/pipelines_and_processors/status_remapper.md @@ -4,24 +4,24 @@ title: Reasignador de estados Utiliza el procesador de reasignación de estados para asignar atributos como estado oficial a tus eventos. Por ejemplo, añade un nivel de gravedad del evento a tus eventos con el reasignador de estados. -{{< img src="logs/processing/processors/log_post_severity_bis.png" alt="Gravedad del log después de la reasignación" style="width:40%;" >}} +{{< img src="logs/processing/processors/log_post_severity_bis.png" alt="Nivel de gravedad del log tras la reasignación" style="width:40%;" >}} Cada valor de estado entrante se asigna de la siguiente manera: -* Los números enteros del 0 al 7 corresponden a los [estándares de gravedad de Syslog][4] -* Las cadenas que empiezan por **emerg** o **f** (sin distinguir mayúsculas de minúsculas) se asignan a **emerg (0)** -* Las cadenas que empiezan por **a** (sin distinguir mayúsculas de minúsculas) se asignan a **alert (1)** -* Las cadenas que empiezan por **c** (sin distinguir mayúsculas de minúsculas) se asignan a **critical (2)** -* Las cadenas que empiezan por **e** (sin distinguir mayúsculas de minúsculas), que no coinciden con `emerg`, se asignan a **error (3)** -* Las cadenas que empiezan por **w** (sin distinguir mayúsculas de minúsculas) se asignan a **warning (4)** -* Las cadenas que empiezan por **n** (sin distinguir mayúsculas de minúsculas) se asignan a **notice (5)** -* Las cadenas que empiezan por **i** (sin distinguir mayúsculas de minúsculas) se asignan a **info (6)** +* Los números enteros de 0 a 7 asignan según las [normas de gravedad de syslog][4]. +* Las cadenas que empiezan por **emerg** o **f** (no distingue entre mayúsculas minúsculas) corresponden a **emergencia (0)**. +* Las cadenas que empiezan por **a** (sin distinción entre mayúsculas y minúsculas) asignan a **alert (1)**. +* Las cadenas que empiezan por **c** (sin distinción entre mayúsculas y minúsculas) asignan a **critical (2)**. +* Las cadenas que empiezan por **e** (sin distinción entre mayúsculas y minúsculas) que no coinciden con `emerg` asignan a **error (3)** +* Las cadenas que empiezan por **w** (sin distinción entre mayúsculas y minúsculas) asignan a **warning (4)**. +* Las cadenas que empiezan por **n** (sin distinción entre mayúsculas y minúsculas) asignan a **notice (5)**. +* Las cadenas que empiezan por **i** (sin distinción entre mayúsculas y minúsculas) asignan a **info (6)**. * Las cadenas que empiezan por **d**, **trace** o **verbose** (sin distinguir mayúsculas de minúsculas) se asignan a **debug (7)** -* Las cadenas que empiezan por **o** o **s**, o que coinciden con **OK** o **Success** (sin distinguir mayúsculas de minúsculas) se asignan a **OK** -* Todas los demás se asignan a **info (6)**. +* Las cadenas que empiezan por **o** o **s**, o que coinciden con **OK** o **Success** (no distingue entre mayúsculas minúsculas) se asignan a **ok** +* Todos los demás se asignan a **info (6)**. -**Nota**: Si se aplican varios procesadores de reasignación de estados de eventos a un evento determinado en el pipeline, solo se tiene en cuenta el primero (según el orden del pipeline). +**Nota**: Si se aplican varios procesadores de reasignadores de estados de eventos a un determinado evento en un pipeline, solo se tendrá en cuenta el primero en el orden del pipeline. Además, para todos los pipelines que coincidan con un evento, solo se aplicará el primer reasignador de estados encontrado (de todos los pipelines aplicables). Reasignador de estados de ejemplo -{{< img src="logs/log_configuration/processor/severity_remapper.png" alt="Reasignación de la gravedad del log" style="width:60%;" >}} \ No newline at end of file +{{< img src="logs/log_configuration/processor/severity_remapper.png" alt="Reasignación de la gravedad de logs" style="width:60%;" >}} \ No newline at end of file diff --git a/content/es/tracing/trace_collection/custom_instrumentation/dotnet/otel.md b/content/es/tracing/trace_collection/custom_instrumentation/dotnet/otel.md index a3f035fefbdf5..6eb6f8a8fcb75 100644 --- a/content/es/tracing/trace_collection/custom_instrumentation/dotnet/otel.md +++ b/content/es/tracing/trace_collection/custom_instrumentation/dotnet/otel.md @@ -1,4 +1,8 @@ --- +algolia: + tags: + - C# + - APM aliases: - /es/tracing/trace_collection/otel_instrumentation/dotnet/ - /es/tracing/trace_collection/custom_instrumentation/otel_instrumentation/dotnet @@ -24,15 +28,15 @@ type: multi-code-lang Para configurar OpenTelemetry para utilizar el proveedor de traza de Datadog: -1. Añade la instrumentación manual de OpenTelemetry deseada a tu código .NET siguiendo la [documentación de la Instrumentación manual de OpenTelemetry .NET][5]. **Nota**: Cuando esas instrucciones indiquen que tu código debe llamar al SDK de OpenTelemetry, llama a la librería de rastreo de Datadog en su lugar. +1. Añade la instrumentación manual de OpenTelemetry deseada a tu código .NET siguiendo la [documentación de la Instrumentación manual de OpenTelemetry .NET][5]. **Nota**: Cuando esas instrucciones indiquen que tu código debe llamar al SDK de OpenTelemetry, llama a la biblioteca de rastreo de Datadog en su lugar. -2. Instala la librería de rastreo Datadog .NET y activa el rastreador para tu [servicio .NET Framework][10] o tu [servicio .NET Core (y .NET v5 o posterior)][11]. **Vista previa**: también puedes hacerlo con la [instrumentación APM de un solo paso][13]. +2. Instala la biblioteca de rastreo Datadog .NET y activa el rastreador para tu [servicio .NET Framework][10] o tu [servicio .NET Core (y .NET v5 o posterior)][11]. **Vista previa**: también puedes hacerlo con la [instrumentación APM de un solo paso][13]. 3. Establece la variable de entorno `DD_TRACE_OTEL_ENABLED` en `true`. 4. Ejecuta tu aplicación. -Datadog combina estos tramos de OpenTelemetry con otros tramos de Datadog APM en una traza única de tu aplicación. También es compatible con [la librería de instrumentación de OpenTelemetry][8]. +Datadog combina estos tramos de OpenTelemetry con otros tramos de Datadog APM en una traza única de tu aplicación. También es compatible con [la biblioteca de instrumentación de OpenTelemetry][8]. ## Creación de tramos personalizados @@ -123,12 +127,12 @@ catch(Exception e) Puedes añadir eventos de tramos utilizando la API `AddEvent`. Este método requiere un `ActivityEvent` creado con un parámetro de `name` y acepta opcionalmente los parámetros `attributes` y `timestamp`. El método crea un nuevo evento de tramo con las propiedades especificadas y lo asocia al tramo correspondiente. -- **Name** (Nombre) [_obligatorio_]: una cadena que representa el nombre del evento. +- **Nombre** [_obligatorio_]: una cadena que representa el nombre del evento. - **Marca de tiempo** [_opcional_]: una marca de tiempo UNIX que representa la hora en que se produjo un evento. Se espera un objeto `DateTimeOffset`. - **Atributos** [_opcional_]: cero o más pares clave-valor con las siguientes propiedades: - La clave debe ser una cadena no vacía. - El valor puede ser: - - Un tipo primitivo: cadena, booleano o número. + - Un tipo primitivo: string, Boolean o number. - Una matriz homogénea de valores de tipo primitivo (por ejemplo, una matriz de cadenas). - Las matrices anidadas y las matrices que contienen elementos de distintos tipos de datos no están permitidas. @@ -164,4 +168,4 @@ Puedes configurar la propagación de contexto para trazas distribuidas al inyect [11]: /es/tracing/trace_collection/dd_libraries/dotnet-core/#installation-and-getting-started [13]: /es/tracing/trace_collection/single-step-apm/ [14]: /es/tracing/trace_collection/trace_context_propagation/ -[15]: https://opentelemetry.io/docs/specs/otel/trace/api/#add-events +[15]: https://opentelemetry.io/docs/specs/otel/trace/api/#add-events \ No newline at end of file diff --git a/content/ja/ddsql_reference/ddsql_preview/statements.md b/content/ja/ddsql_reference/ddsql_preview/statements.md new file mode 100644 index 0000000000000..e010398f8ec8a --- /dev/null +++ b/content/ja/ddsql_reference/ddsql_preview/statements.md @@ -0,0 +1,192 @@ +--- +aliases: +- /ja/dashboards/ddsql_editor/reference/statements/ +- /ja/ddsql_editor/reference/statements/ +private: true +title: DDSQL ステートメント (プレビュー) +--- + +## SELECT + +`SELECT` はテーブルまたはビューから行を取得します。 + +### 構文 + +{{< code-block lang="text" >}} +SELECT [ ALL | DISTINCT ] select_expr, ... +[ FROM rel_source + [ EVENT_SEARCH 'message_pattern' ] + [ USE EVENT_INDEX 'index_name' ] + [ [ join_type ] JOIN rel_source ... + [ ON condition | USING (column, ... ) ] ] ... ] +[ WHERE condition ] +[ GROUP BY [ ALL | DISTINCT ] expression, ... ] +[ HAVING condition, ... ] +[ ORDER BY expression, ... [ ASC | DESC ] [ NULLS FIRST | NULLS LAST ] ] +[ LIMIT [ ALL | expression ] + [ OFFSET expression ] ] +{{< /code-block >}} + +#### プレースホルダーの種類: + +`select_expr` +: 値を返す任意の式。定数、関数呼び出し、集約、ウィンドウ、または特別な式 `*` である可能性があります。これは SELECT 文の出力を指定するクエリの部分であり、関係代数では射影 (projection) と呼ばれます。 + +`message_pattern` +: 利用可能な場合の [全文検索][1] のための文字列パターン。 + +`index_name` +: [ログ インデックス][2] の識別子。 + +`rel_source` +: 相関名 (テーブル名またはエイリアス) または、括弧で囲まれた [DQL 式][3]。 + +`join_type` +: `INNER` や `LEFT` などの SQL 結合の種類。`INNER` 結合は完全にサポートされています。`OUTER` および `CROSS` 結合は `WHERE` 条件を必要とする場合があります。`LEFT` および `RIGHT` 結合も、条件が *等値結合* (*equijoin*) 式である場合にサポートされます。つまり、` = ` のような等価比較で、式が異なるテーブルの列を参照し、かつ両方の式の出力型が同一である必要があります。1 列のみに対して `USING` 式で `JOIN` することも可能です。 + +`condition` +: 評価され、その結果が暗黙に真偽値として解釈される式。 + +`expression` +: 値の式。詳細と例は [式と演算子][4] を参照してください。 + +### 評価 + +SELECT は 0 個以上のテーブルから行を取得します。SELECT の一般的な処理は次のとおりです。 + +1. `FROM` のすべての要素が計算されます。複数の要素が指定された場合は、指定された結合種別で相互に結合されます。 +2. `WHERE` 句が指定されている場合、その条件を満たさない行は出力から除外されます。 +3. `GROUP BY` 句が指定されている場合、または `selectExpr` に集約関数呼び出しがある場合、出力は 1 つ以上の値が一致する行のグループにまとめられ、集約が計算されます。`HAVING` が存在する場合、その条件を満たさない行は出力から除外されます。 +4. 実際の出力行は `selectExpr` を用いて計算されます。 +5. `SELECT DISTINCT` は結果から重複行を取り除きます。 +6. `ORDER BY` 句が指定されている場合、返される行は指定された順序で並べ替えられます。 +7. `LIMIT` または `OFFSET` 句が指定されている場合、指定された部分集合に含まれない行は除外されます。 + +システムは、この順序で規定される結果が得られることが保証される範囲で、任意の方法でクエリを実行できます。 + +## エイリアス + +エイリアスは、出力式または `FROM` 項目に対する代替名です。簡潔にするため、または自己結合 (self-join) の曖昧さを解消するために使用されます。 + +{{< code-block lang="sql" >}} +SELECT * FROM my_long_hosts_table_name as hosts +{{< /code-block >}} + +`FROM` 項目にエイリアスが指定されると、テーブルや関数の実名は完全に隠されます。上記の例では、以降の DQL 式では `my_long_hosts_table_name` を `hosts` として参照しなければなりません。 + +## 序数 + +`GROUP BY` と `ORDER BY` 句の式には、列名、入力列から構成される任意の式、または出力式 (`SELECT` 式) の名前または序数を指定できます。出力式の序数は 1 始まり (1 から番号付け) です。 + +例えば、次のクエリの出力は、まず `ex3`、次に `ex2`、最後に `ex1` の順に並べ替えられます。 + +{{< code-block lang="sql" >}} +SELECT ex1, ex2, ex3 FROM table ORDER BY 3, 2, 1; +{{< /code-block >}} + +## UNION + +`UNION` は複数の [DQL 式][3] の結果を 1 つの出力テーブルに結合します。 + +### 構文 + +{{< code-block lang="text" >}} +DQL_expression UNION [ ALL ] DQL_expression ... +[ ORDER BY expressions [ ASC | DESC ] ] +[ LIMIT [ ALL | expression ] + [ OFFSET expression] ] +{{< /code-block >}} + +#### プレースホルダーの種類 + +`DQL_expression` +: `SELECT` 文などのクエリ文。 + +`UNION` 演算子は結果から重複行を取り除きます。重複行を保持するには、`UNION ALL` を使用します: + +{{< code-block lang="sql" >}} +SELECT host_key, CAST(service AS text) AS service, 'from resources' FROM host +UNION ALL +SELECT message, service AS text, 'from logs' FROM logs WHERE env='prod' +ORDER BY service LIMIT 200 OFFSET 10; +{{< /code-block >}} + +`UNION` 内のすべてのサブクエリは同一の出力スキーマを持つ必要があります。`UNION` を含むクエリでは、`ORDER BY` と `LIMIT` の式は末尾に 1 つずつしか記述できません。連鎖した `UNION` でも、末尾に 1 つの `ORDER BY` と `LIMIT` のみが記述できます。 + +## WITH + +`WITH` は、より大きなクエリで使用する補助ステートメントを書くための方法を提供します。 + +`WITH` ステートメントは、共通テーブル式 (CTE) とも呼ばれ、1 回のクエリのために存在する一時テーブルを定義するものと考えられます。`WITH` 句内の各補助ステートメントは任意の [DQL 式][3] にでき、`WITH` 句自体は `WITH` 以外の任意の DQL の主文に付属します。後続の補助ステートメントは、先行する補助ステートメントでエイリアスされた相関を参照できます。 + +### 構文 + +{{< code-block lang="sql" >}} +WITH alias [ ( output, schema, column, names, ... ) ] AS ( DQL_expression ) [, ...] DQL_expression +{{< /code-block >}} + +#### プレースホルダーの種類 + +`DQL_expression` +: `SELECT` 文などのクエリ文。 + +`WITH` では、`INSERT`、`UPDATE`、`DELETE` のようなデータ変更ステートメントはサポートされません。 + +各エイリアス付きクエリでは、出力スキーマや列名を指定することもできます。 + +## CREATE + +DDSQL はユーザーが一時テーブルを作成し、そこに挿入し、クエリおよび参照できるようにします。これらのテーブルはセッション間で永続化されません。 + +### 構文 + +{{< code-block lang="sql" >}} +CREATE TABLE name ( + column_name column_type + [ PRIMARY KEY [ AUTOINCREMENT ] | NOT NULL | UNIQUE | DEFAULT expression ] ... +) +{{< /code-block >}} + +## INSERT + +DDSQL の `INSERT` 文は SQL 標準に準拠しています。DDSQL は `CREATE` 文で作成した一時テーブルにのみ挿入を許可し、下流のデータ ソースには挿入できません。 + +### 構文 + +{{< code-block lang="sql" >}} +INSERT INTO table_name [ (specific, columns, ...) ] VALUES + ( value1, value2, ... ), + ( value1, value2, ... ), + ... +{{< /code-block >}} + +## SHOW + +
SHOW 文は SQL 標準の一部ですが、ランタイム パラメーター名は実験的です。将来的に名称変更、型変更、または廃止される可能性があります。
+ +クエリの実行時、DDSQL はクエリ文自体では指定されないランタイム パラメーター (環境変数) を参照します。例えば、`BUCKET BY` が指定されていない場合にメトリクス クエリで使用するデフォルトの間隔や、クエリの開始・終了タイムスタンプなどです。 + +`SHOW` 文はこれらの変数の値を表示します。 + +### 構文 + +{{< code-block lang="sql" >}} +SHOW (ALL | parameter) +{{< /code-block >}} + +`SHOW ALL` は DDSQL システムで利用可能なすべてのランタイム パラメーターを表示し、`SHOW ` は指定したパラメーターのみを表示します。 + +## SET + +ランタイム パラメーターを変更するには、`SET` 文を使用します。 + +### 構文 + +{{< code-block lang="sql" >}} +SET variableName = expression +{{< /code-block >}} + +[1]: /ja/logs/explorer/search_syntax/#full-text-search +[2]: /ja/logs/log_configuration/indexes/ +[3]: /ja/ddsql_editor/#use-sql-syntax-ddsql +[4]: /ja/ddsql_reference/ddsql_preview/expressions_and_operators \ No newline at end of file diff --git a/content/ja/integrations/amazon_bedrock.md b/content/ja/integrations/amazon_bedrock.md index 1aa0c42a60edf..f568342035952 100644 --- a/content/ja/integrations/amazon_bedrock.md +++ b/content/ja/integrations/amazon_bedrock.md @@ -11,7 +11,7 @@ assets: metrics: check: - aws.bedrock.invocations - metadata_path: metadata.csv + metadata_path: assets/metrics/metric-spec.yaml prefix: aws.bedrock. service_checks: metadata_path: assets/service_checks.json @@ -27,7 +27,7 @@ categories: - モニター - クラウド - ai/ml -custom_kind: integration +custom_kind: インテグレーション dependencies: [] display_on_public_website: true draft: false @@ -62,26 +62,194 @@ tile: ## 概要 +Amazon Bedrock を使用して、チャット ボットやデータ抽出ツールなどの LLM を活用するアプリケーションを監視、トラブル シューティング、評価します。 -Amazon Bedrock は、Amazon および先進的な AI スタートアップの[基盤モデル][1] (FM) を API 経由で提供する完全マネージド型のサービスで、用途に最適なモデルを様々な FM から選べます。 +LLM アプリケーションを構築している場合は、LLM Observability を使用して問題の根本原因を調査し、運用パフォーマンスを監視し、LLM アプリケーションの品質、プライバシー、安全性を評価してください。 + +トレースの調査方法の例については、[LLM Observability のトレース ビューの動画][1] を参照してください。 + +Amazon Bedrock は、Amazon および先進的な AI スタートアップの[基盤モデル][2] (FM) を API 経由で提供する完全マネージド型のサービスで、用途に最適なモデルを様々な FM から選べます。 このインテグレーションを有効にすると、Datadog にすべての Bedrock メトリクスを表示できます。 ## セットアップ -### インストール +### LLM Observability: Amazon Bedrock を使用して LLM アプリケーションのエンド ツー エンドの可視性を実現 +You can enable LLM Observability in different environments. Follow the appropriate setup based on your scenario: + +#### Installation for Python + +##### If you do not have the Datadog Agent: +1. Install the `ddtrace` package: + + ```shell + pip install ddtrace + ``` + +2. Start your application with the following command, enabling Agentless mode: + + ```shell + DD_SITE= DD_API_KEY= DD_LLMOBS_ENABLED=1 DD_LLMOBS_AGENTLESS_ENABLED=1 DD_LLMOBS_ML_APP= ddtrace-run python .py + ``` + +##### If you already have the Datadog Agent installed: +1. Make sure the Agent is running and that APM and StatsD are enabled. For example, use the following command with Docker: + + ```shell + docker run -d \ + --cgroupns host \ + --pid host \ + -v /var/run/docker.sock:/var/run/docker.sock:ro \ + -v /proc/:/host/proc/:ro \ + -v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \ + -e DD_API_KEY= \ + -p 127.0.0.1:8126:8126/tcp \ + -p 127.0.0.1:8125:8125/udp \ + -e DD_DOGSTATSD_NON_LOCAL_TRAFFIC=true \ + -e DD_APM_ENABLED=true \ + gcr.io/datadoghq/agent:latest + ``` + +2. If you haven't already, install the `ddtrace` package: + + ```shell + pip install ddtrace + ``` + +3. Start your application using the `ddtrace-run` command to automatically enable tracing: + + ```shell + DD_SITE= DD_API_KEY= DD_LLMOBS_ENABLED=1 DD_LLMOBS_ML_APP= ddtrace-run python .py + ``` + +**Note**: If the Agent is running on a custom host or port, set `DD_AGENT_HOST` and `DD_TRACE_AGENT_PORT` accordingly. + +##### サーバーレス環境で LLM Observability を実行している場合 (AWS Lambda): +1. AWS Lambda セットアップの一部として、 **Datadog-Python** および **Datadog-Extension** の Lambda レイヤーをインストールします。 +2. Enable LLM Observability by setting the following environment variables: + + ```shell + DD_SITE= DD_API_KEY= DD_LLMOBS_ENABLED=1 DD_LLMOBS_ML_APP= + ``` + +**注**: サーバーレス環境では、Lambda 関数の実行が終了すると Datadog が自動的にスパンをフラッシュします。 + +##### Amazon Bedrock の自動トレーシング +LLM Observability が構成されている場合、 Amazon Bedrock インテグレーションは自動的に有効になります。これにより、 Amazon Bedrock 呼び出しのレイテンシ、エラー、入力メッセージと出力メッセージ、およびトークン使用量が記録されます。 + +同期およびストリーミングの Amazon Bedrock オペレーションについて、以下のメソッドがトレースされます: +- `InvokeModel()` +- `InvokeModelWithResponseStream()` + +No additional setup is required for these methods. + +##### 検証 +Validate that LLM Observability is properly capturing spans by checking your application logs for successful span creation. You can also run the following command to check the status of the `ddtrace` integration: + + ```shell + ddtrace-run --info + ``` + +Look for the following message to confirm the setup: + + ```shell + Agent error: None + ``` + +##### デバッグ +If you encounter issues during setup, enable debug logging by passing the `--debug` flag: + + ```shell + ddtrace-run --debug + ``` + +これにより、Amazon Bedrock のトレースに関する問題を含む、データ送信やインスツルメンテーションに関連するエラーが表示されます。 + +#### Node.js 向けのインストール + +##### If you do not have the Datadog Agent: +1. `dd-trace` パッケージをインストール: + + ```shell + npm install dd-trace + ``` + +2. エージェントレス モードを有効にして、次のコマンドでアプリケーションを起動: + + ```shell + DD_SITE= DD_API_KEY= DD_LLMOBS_ENABLED=1 DD_LLMOBS_AGENTLESS_ENABLED=1 DD_LLMOBS_ML_APP= node -r 'dd-trace/init' .js + ``` + +##### If you already have the Datadog Agent installed: +1. Agent が実行中で、APM が有効になっていることを確認します。たとえば、Docker では次のコマンドを使用します: + + ```shell + docker run -d \ + --cgroupns host \ + --pid host \ + -v /var/run/docker.sock:/var/run/docker.sock:ro \ + -v /proc/:/host/proc/:ro \ + -v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \ + -e DD_API_KEY= \ + -p 127.0.0.1:8126:8126/tcp \ + -p 127.0.0.1:8125:8125/udp \ + -e DD_DOGSTATSD_NON_LOCAL_TRAFFIC=true \ + -e DD_APM_ENABLED=true \ + gcr.io/datadoghq/agent:latest + ``` + +2. Datadog APM Node.js ライブラリをインストールします。 + + ```shell + npm install dd-trace + ``` + +3. `-r dd-trace/init` または `NODE_OPTIONS='--require dd-trace/init'` コマンドでアプリケーションを起動して、トレーシングを自動的に有効化: + + ```shell + DD_SITE= DD_API_KEY= DD_LLMOBS_ENABLED=1 DD_LLMOBS_ML_APP= node -r 'dd-trace/init' .js + ``` + +**Note**: If the Agent is running on a custom host or port, set `DD_AGENT_HOST` and `DD_TRACE_AGENT_PORT` accordingly. + +##### サーバーレス環境で LLM Observability を実行している場合 (AWS Lambda): +1. Enable LLM Observability by setting the following environment variables: + + ```shell + DD_SITE= DD_API_KEY= DD_LLMOBS_ENABLED=1 DD_LLMOBS_ML_APP= + ``` + +2. lambda が終了する前に、 `llmobs.flush()` を呼び出します: + + ```js + const llmobs = require('dd-trace').llmobs; + // or, if dd-trace was not initialized via NODE_OPTIONS + const llmobs = require('dd-trace').init({ + llmobs: { + mlApp: , + } + }).llmobs; // with DD_API_KEY and DD_SITE being set at the environment level + + async function handler (event, context) { + ... + llmobs.flush() + return ... + } + ``` + +### APM: Python アプリケーションの使用状況メトリクスを取得 -[Amazon Web Services インテグレーション][2]をまだセットアップしていない場合は、最初にセットアップします。 +[Amazon Web Services インテグレーション][3]をまだセットアップしていない場合は、最初にセットアップします。 ### メトリクスの収集 -1. [AWS インテグレーションページ][3]で、`Metric Collection` タブの下にある `Bedrock` が有効になっていることを確認します。 -2. [Datadog - Amazon Bedrock インテグレーション][4]をインストールします。 +1. [AWS インテグレーションページ][4]で、`Metric Collection` タブの下にある `Bedrock` が有効になっていることを確認します。 +2. [Datadog - Amazon Bedrock インテグレーション][5]をインストールします。 ## 収集データ ### メトリクス -{{< get-metrics-from-git "amazon-bedrock" >}} +{{< get-metrics-from-git "amazon_bedrock" >}} ### イベント @@ -94,18 +262,19 @@ Amazon Bedrock インテグレーションには、サービスのチェック ## トラブルシューティング -ご不明な点は、[Datadog のサポートチーム][6]までお問合せください。 +ご不明な点は、[Datadog のサポートチーム][7]までお問い合わせください。 ## その他の参考資料 お役に立つドキュメント、リンクや記事: -- [Datadog を使用した Amazon Bedrock の監視][7] +- [Datadog を使用した Amazon Bedrock の監視][8] -[1]: https://aws.amazon.com/what-is/foundation-models/ -[2]: https://docs.datadoghq.com/ja/integrations/amazon_web_services/ -[3]: https://app.datadoghq.com/integrations/amazon-web-services -[4]: https://app.datadoghq.com/integrations/amazon-bedrock -[5]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_bedrock/metadata.csv -[6]: https://docs.datadoghq.com/ja/help/ -[7]: https://www.datadoghq.com/blog/monitor-amazon-bedrock-with-datadog/ +[1]: https://imgix.datadoghq.com/video/products/llm-observability/expedite-troubleshooting.mp4?fm=webm&fit=max +[2]: https://aws.amazon.com/what-is/foundation-models/ +[3]: https://docs.datadoghq.com/ja/integrations/amazon_web_services/ +[4]: https://app.datadoghq.com/integrations/amazon-web-services +[5]: https://app.datadoghq.com/integrations/amazon-bedrock +[6]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_bedrock/assets/metrics/metric-spec.yaml +[7]: https://docs.datadoghq.com/ja/help/ +[8]: https://www.datadoghq.com/blog/monitor-amazon-bedrock-with-datadog/ \ No newline at end of file diff --git a/content/ja/integrations/amazon_config.md b/content/ja/integrations/amazon_config.md index 88839a52a4915..b5d1df855ac4d 100644 --- a/content/ja/integrations/amazon_config.md +++ b/content/ja/integrations/amazon_config.md @@ -9,7 +9,7 @@ assets: metrics: check: - aws.config.configuration_recorder_insufficient_permissions_failure - metadata_path: metadata.csv + metadata_path: assets/metrics/metric-spec.yaml prefix: aws.config. service_checks: metadata_path: assets/service_checks.json @@ -24,7 +24,7 @@ categories: - AWS - モニター - クラウド -custom_kind: integration +custom_kind: インテグレーション dependencies: [] display_on_public_website: true draft: false @@ -53,37 +53,136 @@ tile: title: AWS Config --- - + ## 概要 -[AWS Config][1] では、AWS アカウントの AWS リソースの構成が詳細に表示されます。これには、リソース同士の関係性や過去の構成が含まれ、時間の経過とともに構成や関係性がどのように変化しているかを見ることができます。 +[AWS Config][1] は、ご使用の AWS アカウント内の AWS リソースの構成を詳細に可視化します。 +これには、リソース同士の関係や過去の構成内容が含まれるため、 +時間の経過に伴う構成とリレーションシップの変化を確認できます。 -このインテグレーションを有効にすると、Datadog にすべての AWS Config メトリクスを表示できます。 +このインテグレーションを有効化すると、Datadog で AWS Config のすべてのメトリクスを確認できます。AWS Config によって検出された構成変更は、[Events](#events) を使用して監視します。 ## セットアップ ### インストール -[Amazon Web Services インテグレーション][2]をまだセットアップしていない場合は、最初にセットアップします。 +まだ設定していない場合は、まず [Amazon Web Services インテグレーション][2] をセットアップしてください。 -### メトリクスの収集 +### リソース変更の収集 -1. [AWS インテグレーションページ][3]で、`Metric Collection` タブの下にある `Config` が有効になっていることを確認します。 -2. [Datadog - AWS Config インテグレーション][4]をインストールします。 +{{< callout url="https://www.datadoghq.com/product-preview/recent-changes-tab/" header="プレビューに参加しよう!" >}} + リソース変更の収集 はプレビューですが、簡単にアクセスをリクエストできます。今すぐこのフォームから申請してください。 +{{< /callout >}} -## 収集データ +AWS Config が構成スナップショットや履歴の変更を検出すると、Datadog でイベントを受信できます。以下の [CloudFormation][3] スタックで必要なリソースを作成・構成するか、[Amazon Data Firehose][4] を手動で設定して AWS Config イベントを転送してください。 + +{{< tabs >}} +{{% tab "Terraform" %}} + +Datadog と AWS Config データの共有を開始するには、[config-changes-datadog Terraform module][1] を使用できます。導入用のサンプルや、指定可能な各パラメーターの詳細な説明については、[terraform-aws-config-changes-datadog repo][2] を参照してください。 + +[1]: https://registry.terraform.io/modules/DataDog/config-changes-datadog/aws/latest +[2]: https://github.com/DataDog/terraform-aws-config-changes-datadog?tab=readme-ov-file#aws-config-change-streaming-module +{{% /tab %}} +{{% tab "CloudFormation" %}} + +[![Launch Stack][1]](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?stackName=datadog-aws-config-stream&templateURL=https://datadog-cloudformation-template.s3.amazonaws.com/aws/main_config_stream.yaml) + +**注**: Datadog アカウントが **US1** の [Datadog サイト][2] 以外にある場合は、使用している Datadog サイトに対応する `DatadogSite` の値を選択してください。 + +| Datadog サイト | **DatadogSite** の値 | +| ------------- | --------------------- | +| EU | datadoghq.eu | +| US3 | us3.datadoghq.com | +| US5 | us5.datadoghq.com | +| AP1 | ap1.datadoghq.com | + +[1]: https://s3.amazonaws.com/cloudformation-examples/cloudformation-launch-stack.png +[2]: https://docs.datadoghq.com/ja/getting_started/site/ +{{% /tab %}} +{{% tab "Manual" %}} + +Amazon Data Firehose を介して AWS Config のイベントを手動で転送するには、次の手順に従って設定します。 + +#### 前提条件 + +1. Datadog と統合済みの AWS アカウント。 + - Datadog インテグレーションの IAM ロールは、Config データが入っているバケットに対して `s3:GetObject` 権限を持っている必要があります。 +2. AWS Config イベントを受信するための [SNS トピック][1] が設定されていること。 +3. 256 kB を超えるイベントをバックアップとして受け取るための [S3 バケット][2] が設定されていること。 +4. [Access key][3] が設定されていること。Datadog API key を用意してください。 + +#### Amazon Data Firehose ストリームを作成する + +1. AWS Console で **Create Firehose stream** をクリックします。 + - **Source** には `Direct PUT` を選択します。 + - **Destination** には `Datadog` を選択します。 +2. **Destination settings** セクションで、使用中の [Datadog サイト][4] に対応する **HTTP endpoint URL** を選択します: + +| Datadog サイト | Destination URL | +| -------------- | ------------------------------------------------------------------------------------------------------ | +| US1 | `https://cloudplatform-intake.datadoghq.com/api/v2/cloudchanges?dd-protocol=aws-kinesis-firehose` | +| US3 | `https://cloudplatform-intake.us3.datadoghq.com/api/v2/cloudchanges?dd-protocol=aws-kinesis-firehose` | +| US5 | `https://cloudplatform-intake.us5.datadoghq.com/api/v2/cloudchanges?dd-protocol=aws-kinesis-firehose` | +| EU | `https://cloudplatform-intake.datadoghq.eu/api/v2/cloudchanges?dd-protocol=aws-kinesis-firehose` | +| AP1 | `https://cloudplatform-intake.ap1.datadoghq.com/api/v2/cloudchanges?dd-protocol=aws-kinesis-firehose` | + +3. **Authentication** には [Datadog API key][5] の値を入力するか、その値を含む AWS Secrets Manager secret を選択します。 +4. **Content encoding** には `GZIP` を入力します。 +5. **Retry duration** には `300` を入力します。 +6. **Add parameter** をクリックします。 + - **Key** には `dd-s3-bucket-auth-account-id` を入力します。 + - **Value** には 12 桁の AWS アカウント ID を入力します。 +6. **Buffer hints** で **Buffer size** を `4 MiB` に設定します。 +7. **Backup settings** で S3 バックアップ バケットを選択します。 +8. **Create Firehose stream** をクリックします。 + +#### AWS Config の配信方法を構成する + +1. [AWS Config ページ][6] で、左側のパネルを開き **Settings** をクリックします。 +2. **Edit** をクリックします。 +3. **Delivery method** セクションで、256 kB を超えるイベントをバックアップとして受け取るための S3 バケットを選択または作成します。 +4. **Amazon SNS topic** のチェックボックスをオンにし、AWS Config イベントを受け取るための SNS トピックを選択または作成します。 +5. **Save** をクリックします。 + +#### Amazon Data Firehose ストリームを SNS トピックにサブスクライブさせる + +1. [SNS Developer Guide][7] の手順に従います。**Subscription role** に次の権限があることを確認します: + - `firehose:DescribeDeliveryStream` + - `firehose:ListDeliveryStreams` + - `firehose:ListTagsForDeliveryStream` + - `firehose:PutRecord` + - `firehose:PutRecordBatch` +2. Firehose の **Monitoring** タブで Datadog へのデータ フローを確認します。 + +[1]: https://docs.aws.amazon.com/sns/latest/dg/sns-create-topic.html +[2]: https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html +[3]: https://docs.aws.amazon.com/IAM/latest/UserGuide/id_credentials_access-keys.html +[4]: https://docs.datadoghq.com/ja/getting_started/site/ +[5]: https://app.datadoghq.com/organization-settings/api-keys +[6]: https://console.aws.amazon.com/config/home +[7]: https://docs.aws.amazon.com/sns/latest/dg/firehose-endpoints-subscribe.html +{{% /tab %}} +{{< /tabs >}} + +### メトリクス収集 + +1. [AWS インテグレーション ページ][5] で、`Metric Collection` タブの `Config` が有効になっていることを確認します。 +2. [Datadog - AWS Config integration][6] をインストールします。 + +## 収集されるデータ ### メトリクス -{{< get-metrics-from-git "amazon-config" >}} +{{< get-metrics-from-git "amazon_config" >}} -### イベント + -[![スタックを起動][7]](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?stackName=datadog-aws-config-stream&templateURL=https://datadog-cloudformation-template.s3.amazonaws.com/aws/main_config_stream.yaml) +#### 検証 -[リソースカタログ][8]のリソースのサイドパネルにある **Recent Changes** タブで、構成の変更を調べることができます。 +[Resource Catalog][7] のリソースのサイド パネルにある **Recent Changes** タブで、構成変更を確認します。また、[Event Management page][8] に移動して `source:amazon_config` をクエリし、Datadog アカウントにデータが取り込まれていることを検証できます。 ### サービスチェック @@ -93,12 +192,19 @@ AWS Config インテグレーションには、サービスのチェック機能 ご不明な点は、[Datadog のサポートチーム][9]までお問い合わせください。 +## その他の参考資料 + +お役に立つドキュメント、リンクや記事: +- [Resource Catalog の Recent Changes でインフラストラクチャーの変更をより迅速にトラブルシューティングする][10] + + [1]: https://docs.aws.amazon.com/config/latest/developerguide/WhatIsConfig.html [2]: https://docs.datadoghq.com/ja/integrations/amazon_web_services/ -[3]: https://app.datadoghq.com/integrations/amazon-web-services -[4]: https://app.datadoghq.com/integrations/amazon-config -[5]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_config/metadata.csv -[6]: https://docs.aws.amazon.com/cloudformation/ -[7]: https://s3.amazonaws.com/cloudformation-examples/cloudformation-launch-stack.png -[8]: https://docs.datadoghq.com/ja/infrastructure/resource_catalog/ +[3]: https://docs.aws.amazon.com/cloudformation/ +[4]: https://aws.amazon.com/firehose/ +[5]: https://app.datadoghq.com/integrations/amazon-web-services +[6]: https://app.datadoghq.com/integrations/amazon-config +[7]: https://docs.datadoghq.com/ja/infrastructure/resource_catalog/ +[8]: https://app.datadoghq.com/event/overview [9]: https://docs.datadoghq.com/ja/help/ +[10]: https://www.datadoghq.com/blog/recent-changes-tab/ \ No newline at end of file diff --git a/content/ja/opentelemetry/integrations/runtime_metrics/_index.md b/content/ja/opentelemetry/integrations/runtime_metrics/_index.md index d3961b3210cd5..0df16237a43c5 100644 --- a/content/ja/opentelemetry/integrations/runtime_metrics/_index.md +++ b/content/ja/opentelemetry/integrations/runtime_metrics/_index.md @@ -1,44 +1,249 @@ --- aliases: - /ja/opentelemetry/runtime_metrics/ +- /ja/opentelemetry/integrations/runtime_metrics/go/ +- /ja/opentelemetry/integrations/runtime_metrics/dotnet/ +- /ja/opentelemetry/integrations/runtime_metrics/java/ +further_reading: +- link: /tracing/metrics/runtime_metrics/ + tag: ドキュメント + text: APM ランタイム メトリクス +- link: /opentelemetry/mapping/metrics_mapping/ + tag: ドキュメント + text: OpenTelemetry メトリクスマッピング title: OpenTelemetry ランタイムメトリクス -type: multi-code-lang --- ## 概要 -ランタイムメトリクスとは、メモリ使用量、ガベージコレクション、または並列化に関するアプリケーションメトリクスです。Datadog のトレーシングライブラリは、各サポート言語での[ランタイムメトリクスの収集][5]を提供していますが、さらに OpenTelemetry (OTel) もランタイムメトリクスを収集し、OpenTelemetry SDK を通じて Datadog に送信することができます。 +ランタイム メトリクスは、メモリ使用量、ガーベジ コレクション、並列化を含むアプリケーション パフォーマンスに関するインサイトを提供します。Datadog トレース ライブラリは、サポートされている各言語向けに [ランタイム メトリクス収集][5] を提供します。また、OpenTelemetry (OTel) でも、OpenTelemetry SDK を介して Datadog に送信できる互換のランタイム メトリクスを収集します。 -Datadog は、以下の言語で OpenTelemetry のランタイムメトリクスを収集します。 +## 互換性 + +Datadog は、以下の言語に対する OpenTelemetry ランタイム メトリクスをサポートします。 - Java - .NET - Go -## メトリクスの命名規則 +ホストおよびコンテナのメトリクス マッピングの詳細は、[OpenTelemetry メトリクス マッピング][1] を参照してください。 -ランタイムメトリクスは、そのソース (OpenTelemetry Collector Datadog Exporter、Datadog Agent OTLP Ingestion、または Datadog トレーシングライブラリ) に応じて異なる命名規則に従います。Datadog で OpenTelemetry のランタイムメトリクスを使用する場合、元の OpenTelemetry のランタイムメトリクスと、同等のメトリクスにマッピングされた Datadog のランタイムメトリクスの両方を受け取ります。ランタイムメトリクスには、そのソースを示す以下のプレフィックスがあります。 +## Setup instructions -| OTel Collector Datadog Exporter | Datadog Agent OTLP Ingestion | Datadog トレーシングライブラリ | -| --- | --- | --- | -| `otel.process.runtime.*` | `process.runtime.*` | `runtime..*` | +### 1. 前提条件 + +- OpenTelemetry メトリクスを Datadog に送信するよう [構成済み][2] であること。 +- Datadog で [対応する言語インテグレーション][3] をインストールしていること。 + +### 2. アプリケーションを構成する + +OpenTelemetry SDK がランタイム メトリクスを送信するように構成する手順を見るには、言語を選択してください: + +{{< tabs >}} +{{% tab "Java" %}} + +#### 自動インスツルメンテーション + +Java アプリケーションで [OpenTelemetry 自動インスツルメンテーション][3] を使用する場合、ランタイム メトリクスはデフォルトで有効です。 + +#### 手動インスツルメンテーション + +[OpenTelemetry 手動インスツルメンテーション][4] を使用する場合は、利用している Java バージョン向けのガイドに従ってください: +- [Java 8][5] +- [Java 17][6] + +[3]: https://opentelemetry.io/docs/instrumentation/java/automatic/ +[4]: https://opentelemetry.io/docs/instrumentation/java/manual/ +[5]: https://github.com/open-telemetry/opentelemetry-java-instrumentation/tree/main/instrumentation/runtime-telemetry/runtime-telemetry-java8/library +[6]: https://github.com/open-telemetry/opentelemetry-java-instrumentation/tree/main/instrumentation/runtime-telemetry/runtime-telemetry-java17/library + +{{% /tab %}} + +{{% tab "Go" %}} + +OpenTelemetry Go アプリケーションは [手動でインスツルメント][3] されています。ランタイム メトリクスを有効にするには、[runtime パッケージ][4] のドキュメントを参照してください。 + +[3]: https://opentelemetry.io/docs/instrumentation/go/manual/ +[4]: https://pkg.go.dev/go.opentelemetry.io/contrib/instrumentation/runtime + +{{% /tab %}} + +{{% tab ".NET" %}} + +
.NET OpenTelemetry SDK のサポートされる最小バージョンは 1.5.0 です
+ +#### 自動インスツルメンテーション + +.NET アプリケーションで [OpenTelemetry 自動インスツルメンテーション][3] を使用する場合、ランタイム メトリクスはデフォルトで有効です。 + +#### 手動インスツルメンテーション + +[OpenTelemetry 手動インスツルメンテーション][4] を使用する場合は、[OpenTelemetry.Instrumentation.Runtime ライブラリ][5] のドキュメントを参照してください。 + +#### メトリクスのエクスポート間隔 -**注**: OpenTelemetry のランタイムメトリクスはメトリクス名で Datadog にマッピングされます。OpenTelemetry ランタイムメトリクスのホストメトリクスの名前を変更しないでください。変更すると機能が壊れます。 +.NET OTel SDK のデフォルトのメトリクスのエクスポート間隔は、Datadog .NET SDK のデフォルトとは異なります。Datadog は、.NET サービスで [OTEL_METRIC_EXPORT_INTERVAL][7] 環境変数を設定し、Datadog のデフォルトのメトリクス エクスポート間隔に合わせることを推奨します: -ホストおよびコンテナのメトリクスマッピングの詳細については、[OpenTelemetry Metrics Mapping][1] を参照してください。 +``` +OTEL_METRIC_EXPORT_INTERVAL=10000 +``` -## セットアップ +[3]: https://opentelemetry.io/docs/instrumentation/net/automatic/ +[4]: https://opentelemetry.io/docs/instrumentation/net/manual/ +[5]: https://github.com/open-telemetry/opentelemetry-dotnet-contrib/tree/main/src/OpenTelemetry.Instrumentation.Runtime +[7]: https://opentelemetry.io/docs/specs/otel/configuration/sdk-environment-variables/#periodic-exporting-metricreader -ランタイムメトリクスを送信するための OpenTelemetry SDK のセットアップおよび構成手順を確認するには、使用する言語を選択してください。 +{{% /tab %}} -{{< partial name="opentelemetry/otel-runtime-metrics.html" >}} -
+{{< /tabs >}} ## ランタイムメトリクスのダッシュボードを表示 -セットアップ完了後は、サービスの詳細ページ (以下の Java の例を参照)、フレームグラフのメトリクスタブ、および[デフォルトのランタイムダッシュボード][7]にてランタイムメトリクスを確認できます。 +セットアップ完了後は、次の場所でランタイム メトリクスを表示できます: +- サービスの詳細ページ (下記の Java の例を参照) +- Flame Graph metrics タブ +- 既定の [ランタイム ダッシュボード][7] {{< img src="opentelemetry/otel_runtime_metrics_service_page.png" alt="サービスページにある JVM Metrics タブに OpenTelemetry のランタイムメトリクスが表示されている様子" style="width:100%;" >}} -[1]: /ja/opentelemetry/guide/metrics_mapping/ +## 収集されたデータ + +Datadog で OpenTelemetry ランタイム メトリクスを使用する場合、次の両方を受け取ります: +- OpenTelemetry オリジナルのランタイム メトリクス +- 同等のメトリクスに対応する Datadog マッピング済みランタイム メトリクス + +OpenTelemetry ランタイム メトリクスには、ソースに応じて次のプレフィックスが付きます: + +| ソース | プレフィックス | +| --- | --- | +| [OTel Collector Datadog Exporter][100] | `otel.process.runtime.*` | +| [Datadog Agent OTLP Ingest][101] | `process.runtime.*` | + +以下の表は、OpenTelemetry マッピングでサポートされる Datadog ランタイム メトリクスを示します。「N/A」は、対応する OpenTelemetry メトリクスが存在しないことを示します。 + +
OpenTelemetry ランタイム メトリクスは、メトリクス名により Datadog へマッピングされます。OpenTelemetry ランタイム メトリクスのためにホスト メトリクスの名前を変更しないでください。マッピングが壊れます。
+ +[100]: /ja/opentelemetry/setup/collector_exporter/ +[101]: /ja/opentelemetry/setup/otlp_ingest_in_the_agent + +{{< tabs >}} +{{% tab "Java" %}} + +| Datadog メトリクス | 説明 | OpenTelemetry メトリクス | +| --- | --- | --- | +| `jvm.heap_memory` | 使用されている Java ヒープメモリの合計。 | `process.runtime.jvm.memory.usage`
`jvm.memory.used` | +| `jvm.heap_memory_committed` | 使用するためにコミットされた Java ヒープメモリの合計。 | `process.runtime.jvm.memory.committed`
`jvm.memory.committed` | +| `jvm.heap_memory_init` | 最初に割り当てられた Java ヒープメモリ。 | `process.runtime.jvm.memory.init`
`jvm.memory.init` | +| `jvm.heap_memory_max` | 利用可能な Java ヒープメモリの最大値。 | `process.runtime.jvm.memory.limit`
`jvm.memory.limit` | +| `jvm.non_heap_memory` | 使用される Java 非ヒープメモリの合計。非ヒープメモリとは、`Metaspace + CompressedClassSpace + CodeCache`です。 | `process.runtime.jvm.memory.usage`
`jvm.memory.used` | +| `jvm.non_heap_memory_committed` | 使用するためにコミットされた Java 非ヒープメモリの合計。 | `process.runtime.jvm.memory.committed`
`jvm.memory.committed` | +| `jvm.non_heap_memory_init` | 最初に割り当てられた Java 非ヒープメモリ。 | `process.runtime.jvm.memory.init`
`jvm.memory.init` | +| `jvm.non_heap_memory_max` | 利用可能な Java 非ヒープメモリの最大値。 | `process.runtime.jvm.memory.limit`
`jvm.memory.limit` | +| `jvm.gc.old_gen_size` | Old Generation メモリプールの現在の Java ヒープメモリ使用量 | `process.runtime.jvm.memory.usage`
`jvm.memory.used` | +| `jvm.gc.eden_size` | Eden メモリプールの現在の Java ヒープメモリ使用量 | `process.runtime.jvm.memory.usage`
`jvm.memory.used` | +| `jvm.gc.survivor_size` | Survivor メモリプールの現在の Java ヒープメモリ使用量 | `process.runtime.jvm.memory.usage`
`jvm.memory.used` | +| `jvm.gc.metaspace_size` | Metaspace メモリプールの現在の Java 非ヒープメモリ使用量 | `process.runtime.jvm.memory.usage`
`jvm.memory.used` | +| `jvm.thread_count` | ライブスレッドの数。 | `process.runtime.jvm.threads.count`
`jvm.thread.count` | +| `jvm.loaded_classes` | 現在ロードされているクラスの数。 | `process.runtime.jvm.classes.current_loaded`
`jvm.class.count` | +| `jvm.cpu_load.system` | システム全体の最近の CPU 使用率。 | `process.runtime.jvm.system.cpu.utilization`
`jvm.system.cpu.utilization` | +| `jvm.cpu_load.process` | プロセスの最近の CPU 使用率。 | `process.runtime.jvm.cpu.utilization`
`jvm.cpu.recent_utilization` | +| `jvm.buffer_pool.direct.used` | ダイレクトバッファが使用するメモリの量。 | `process.runtime.jvm.buffer.usage`
`jvm.buffer.memory.usage` | +| `jvm.buffer_pool.direct.count` | プール内のダイレクトバッファの数。 | `process.runtime.jvm.buffer.count`
`jvm.buffer.count` | +| `jvm.buffer_pool.direct.limit` | ダイレクトバッファの総メモリ容量。 | `process.runtime.jvm.buffer.limit`
`jvm.buffer.memory.limit` | +| `jvm.buffer_pool.mapped.used` | マップされたバッファが使用するメモリの量。 | `process.runtime.jvm.buffer.usage`
`jvm.buffer.memory.usage` | +| `jvm.buffer_pool.mapped.count` | プール内のマップされたバッファの数。 | `process.runtime.jvm.buffer.count`
`jvm.buffer.count` | +| `jvm.buffer_pool.mapped.limit` | マップされたバッファの総メモリ容量。 | `process.runtime.jvm.buffer.limit`
`jvm.buffer.memory.limit` | +| `jvm.gc.parnew.time` | 経過したガベージコレクションのおおよその累積時間。 | N/A | +| `jvm.gc.cms.count` | 発生したガベージコレクションの総数。 | N/A | +| `jvm.gc.major_collection_count` | メジャーガベージコレクションの発生率。このメトリクスを受け取るには `new_gc_metrics: true` を設定します。 | N/A | +| `jvm.gc.minor_collection_count` | マイナーガベージコレクションの発生率。このメトリクスを受け取るには `new_gc_metrics: true` を設定します。 | N/A | +| `jvm.gc.major_collection_time` | メジャーガベージコレクションに費やされた時間の割合。このメトリクスを受け取るには `new_gc_metrics: true` を設定します。 | N/A | +| `jvm.gc.minor_collection_time` | マイナーガベージコレクションに費やされた時間の割合。このメトリクスを受け取るには `new_gc_metrics: true` を設定します。 | N/A | +| `jvm.os.open_file_descriptors` | オープン ファイル ディスクリプタの数。 | N/A | + +{{% /tab %}} + +{{% tab "Go" %}} + +| Datadog メトリクス | 説明 | OpenTelemetry メトリクス | +| --- | --- | --- | +| `runtime.go.num_goroutine` | 生成された goroutines の数。 | `process.runtime.go.goroutines` | +| `runtime.go.num_cgo_call` | CGO コールの回数。 |`process.runtime.go.cgo.calls` | +| `runtime.go.mem_stats.lookups` | ランタイムが実行したポインタールックアップの数。 | `process.runtime.go.mem.lookups` | +| `runtime.go.mem_stats.heap_alloc` | 割り当てられたヒープオブジェクトのバイト数。 | `process.runtime.go.mem.heap_alloc` | +| `runtime.go.mem_stats.heap_sys` | オペレーティングシステムから取得したヒープメモリのバイト数。 | `process.runtime.go.mem.heap_sys` | +| `runtime.go.mem_stats.heap_idle` | アイドル (未使用) スパンのバイト数。 | `process.runtime.go.mem.heap_idle` | +| `runtime.go.mem_stats.heap_inuse` | 使用中のスパンのバイト数。 | `process.runtime.go.mem.heap_inuse` | +| `runtime.go.mem_stats.heap_released` | オペレーティングシステムに返される物理メモリのバイト数。 | `process.runtime.go.mem.heap_released` | +| `runtime.go.mem_stats.heap_objects` | 割り当てられたヒープオブジェクトの数。 | `process.runtime.go.mem.heap_objects` | +| `runtime.go.mem_stats.pause_total_ns` | ガベージコレクション (GC) の累積ナノ秒。 | `process.runtime.go.gc.pause_total_ns` | +| `runtime.go.mem_stats.num_gc` | 完了した GC サイクルの数。 | `process.runtime.go.gc.count` | +| `runtime.go.num_cpu` | ランタイムが検出した CPU の数。 | N/A | +| `runtime.go.mem_stats.alloc` | 割り当てられたヒープオブジェクトのバイト数。 | N/A | +| `runtime.go.mem_stats.total_alloc` | ヒープオブジェクトに割り当てられた累積バイト数。 | N/A | +| `runtime.go.mem_stats.sys` | オペレーティングシステムから取得したメモリの合計バイト数。 | N/A | +| `runtime.go.mem_stats.mallocs` | 割り当てられたヒープオブジェクトの累積数。 | N/A | +| `runtime.go.mem_stats.frees` | 解放されたヒープオブジェクトの累積数。 | N/A | +| `runtime.go.mem_stats.stack_inuse` | スタックスパンのバイト数。 | N/A | +| `runtime.go.mem_stats.stack_sys` | オペレーティングシステムから取得したスタックメモリのバイト数。 | N/A | +| `runtime.go.mem_stats.m_span_inuse` | 割り当てられた mspan 構造体のバイト数。 | N/A | +| `runtime.go.mem_stats.m_span_sys` | mspan 構造体のためにオペレーティングシステムから取得したメモリのバイト数。 | N/A | +| `runtime.go.mem_stats.m_cache_inuse` | 割り当てられた mcache 構造体のバイト数。 | N/A | +| `runtime.go.mem_stats.m_cache_sys` | mcache 構造体のためにオペレーティングシステムから取得したメモリのバイト数。 | N/A | +| `runtime.go.mem_stats.buck_hash_sys` | プロファイリングバケットハッシュテーブルのメモリのバイト数。 | N/A | +| `runtime.go.mem_stats.gc_sys` | ガベージコレクションのメタデータに含まれるメモリのバイト数。 | N/A | +| `runtime.go.mem_stats.other_sys` | 雑多なオフヒープにあるメモリのバイト数。 | N/A | +| `runtime.go.mem_stats.next_gc` | 次の GC サイクルのターゲットヒープサイズ。 | N/A | +| `runtime.go.mem_stats.last_gc` | UNIX エポックからのナノ秒単位で、最後に終了したガベージコレクション。 | N/A | +| `runtime.go.mem_stats.num_forced_gc` | GC 関数を呼び出したアプリケーションによって強制された GC サイクルの数。 | N/A | +| `runtime.go.mem_stats.gc_cpu_fraction` | プログラムが開始してから GC によって使用された、このプログラムの利用可能な CPU 時間の割合。 | N/A | +| `runtime.go.gc_stats.pause_quantiles.min` | GC 休止時間の分布: 最小値。 | N/A | +| `runtime.go.gc_stats.pause_quantiles.25p` | GC 休止時間の分布: 25 パーセンタイル。 | N/A | +| `runtime.go.gc_stats.pause_quantiles.50p` | GC 休止時間の分布: 50 パーセンタイル。 | N/A | +| `runtime.go.gc_stats.pause_quantiles.75p` | GC 休止時間の分布: 75 パーセンタイル。 | N/A | +| `runtime.go.gc_stats.pause_quantiles.max` | GC 休止時間の分布: 最大値。 | N/A | + +{{% /tab %}} + +{{% tab ".NET" %}} + +| Datadog メトリクス | 説明 | OpenTelemetry メトリクス | +| --- | --- | --- | +| `runtime.dotnet.threads.contention_count` | スレッドがロック待ちのために停止した回数。 | `process.runtime.dotnet.`
`monitor.lock_contention.count` | +| `runtime.dotnet.exceptions.count` | ファーストチャンスの例外の数。 | `process.runtime.dotnet.`
`exceptions.count` | +| `runtime.dotnet.gc.size.gen0` | 第 0 世代ヒープのサイズ。 | `process.runtime.dotnet.`
`gc.heap.size` | +| `runtime.dotnet.gc.size.gen1` | 第 1 世代ヒープのサイズ。 | `process.runtime.dotnet.`
`gc.heap.size` | +| `runtime.dotnet.gc.size.gen2` | 第 2 世代ヒープのサイズ。 | `process.runtime.dotnet.`
`gc.heap.size` | +| `runtime.dotnet.gc.size.loh` | ラージオブジェクトヒープのサイズ。 | `process.runtime.dotnet.`
`gc.heap.size` | +| `runtime.dotnet.gc.count.gen0` | 第 0 世代ガベージコレクションの回数。 | `process.runtime.dotnet.`
`gc.collections.count` | +| `runtime.dotnet.gc.count.gen1` | 第 1 世代ガベージコレクションの回数。 | `process.runtime.dotnet.`
`gc.collections.count` | +| `runtime.dotnet.gc.count.gen2` | 第 2 世代ガベージコレクションの回数。 | `process.runtime.dotnet.`
`gc.collections.count` | +| `runtime.dotnet.cpu.system` | カーネル内で実行されているミリ秒数。 | N/A | +| `runtime.dotnet.cpu.user` | カーネル外で実行されているミリ秒数。 | N/A | +| `runtime.dotnet.cpu.percent` | アプリケーションが使用する総 CPU の割合。 | N/A | +| `runtime.dotnet.mem.committed` | メモリ使用量。 | N/A | +| `runtime.dotnet.threads.count` | スレッドの数。 | N/A | +| `runtime.dotnet.threads.workers_count` | スレッドプールのワーカー数 (.NET Core のみ)。 | N/A | +| `runtime.dotnet.threads.contention_time` | ロック待ちのスレッドが費やした累積時間。(.NET Core のみ) | N/A | +| `runtime.dotnet.gc.memory_load` | プロセスが使用する総メモリの割合。この値が 85 以上になると、ガベージコレクション (GC) の動作が変わります。(.NET Core のみ) | N/A | +| `runtime.dotnet.gc.pause_time` | GC がアプリケーションスレッドを一時停止した時間。(.NET Core のみ) | N/A | +| `runtime.dotnet.aspnetcore.`
`requests.total` | サーバーが受信した HTTP リクエストの総数。(.NET Core のみ) | N/A | +| `runtime.dotnet.aspnetcore.`
`requests.failed` | サーバーが受信した HTTP リクエストの失敗数。(.NET Core のみ) | N/A | +| `runtime.dotnet.aspnetcore.`
`requests.current` | まだ停止していない HTTP リクエストの総数。(.NET Core のみ) | N/A | +| `runtime.dotnet.aspnetcore.`
`requests.queue_length` | サーバーの HTTP リクエストキューの現在の長さ。(.NET Core のみ) | N/A | +| `runtime.dotnet.aspnetcore.`
`connections.total` | サーバーに確立された HTTP 接続の総数。(.NET Core のみ) | N/A | +| `runtime.dotnet.aspnetcore.`
`connections.current` | サーバーへの現在のアクティブな HTTP 接続数。(.NET Core のみ) | N/A | +| `runtime.dotnet.aspnetcore.`
`connections.queue_length` | HTTP サーバー接続キューの現在の長さ。(.NET Core のみ) | N/A | + +{{% /tab %}} + +{{< /tabs >}} + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/opentelemetry/mapping/metrics_mapping/ +[2]: /ja/opentelemetry/setup/ +[3]: https://app.datadoghq.com/integrations [5]: /ja/tracing/metrics/runtime_metrics/ [7]: https://app.datadoghq.com/dash/integration/256/jvm-metrics \ No newline at end of file diff --git a/content/ja/security/application_security/threats/setup/standalone/ruby.md b/content/ja/security/application_security/threats/setup/standalone/ruby.md new file mode 100644 index 0000000000000..4de9785e40dfd --- /dev/null +++ b/content/ja/security/application_security/threats/setup/standalone/ruby.md @@ -0,0 +1,233 @@ +--- +aliases: +- /ja/security_platform/application_security/getting_started/ruby +- /ja/security/application_security/getting_started/ruby +- /ja/security/application_security/enabling/tracing_libraries/threat_detection/ruby/ +code_lang: ruby +code_lang_weight: 30 +further_reading: +- link: /security/application_security/add-user-info/ + tag: ドキュメント + text: トレースにユーザー情報を追加する +- link: https://github.com/DataDog/dd-trace-rb + tag: ソース コード + text: Ruby Datadog ライブラリのソース コード +- link: /security/default_rules/?category=cat-application-security + tag: ドキュメント + text: OOTB App & API Protection ルール +- link: /security/application_security/troubleshooting + tag: ドキュメント + text: App & API Protection のトラブルシューティング +title: Ruby 向け Application & API Protection の有効化 +type: multi-code-lang +--- + +Docker、Kubernetes、Amazon ECS、AWS Fargate 上で実行されている Ruby アプリのアプリケーション セキュリティを監視できます。 + +{{% appsec-getstarted-standalone %}} + +## Application & API Protection の有効化 +### はじめに + +1. **Gemfile を更新して Datadog ライブラリを追加します**: + + ```ruby + gem 'datadog', '~> 2.0' # Use 'ddtrace' if you're using v1.x + ``` + + Application & API Protection 機能でサービスの言語とフレームワークのバージョンがサポートされているか確認するには、[互換性][1] を参照してください。 + + `dd-trace` 1.x から v2 へのアップグレードの詳細は、[Ruby トレーサーのアップグレード ガイド][2] を参照してください。 + +2. **APM トレーサーを有効化して Application & API Protection を有効にします**。以下のオプションは、最も一般的なケースをカバーするクイック セットアップです。詳細は [Ruby トレーサーのドキュメント][3] を参照してください。 + + Application & API Protection は、コード内で有効化できます: + + {{< tabs >}} + +{{% tab "Rails" %}} + アプリケーション コードに initializer を追加して APM トレーサーを有効化します: + + ```ruby + # config/initializers/datadog.rb + + require 'datadog/appsec' + + Datadog.configure do |c| + # APM トレーサーを有効化しつつ、トレース処理は無効化する (セキュリティ用途のみ) + c.tracing.instrument :rails + c.tracing.enabled = false + + # Application & API Protection を有効化する + c.appsec.enabled = true + c.appsec.instrument :rails + end + ``` + + または、Gemfile を更新して自動インスツルメンテーションで APM トレーサーを有効化します: + + ```ruby + gem 'datadog', '~> 2.0', require: 'datadog/auto_instrument' + ``` + + さらに `appsec` を有効にし、トレーシングを無効化します: + + ```ruby + # config/initializers/datadog.rb + + require 'datadog/appsec' + + Datadog.configure do |c| + # APM トレーサーは自動インスツルメンテーションによって有効化されます + c.tracing.enabled = false + + # Application & API Protection を有効化する + c.appsec.enabled = true + c.appsec.instrument :rails + end + ``` + +{{% /tab %}} + +{{% tab "Sinatra" %}} + アプリケーションの起動時に次を追加して APM トレーサーを有効化します: + + ```ruby + require 'sinatra' + require 'datadog' + require 'datadog/appsec' + + Datadog.configure do |c| + # APM トレーサーを有効化しつつ、トレース処理は無効化する (セキュリティ用途のみ) + c.tracing.instrument :sinatra + c.tracing.enabled = false + + # Sinatra 向けに Application & API Protection を有効化する + c.appsec.enabled = true + c.appsec.instrument :sinatra + end + ``` + + または、自動インスツルメンテーションで APM トレーサーを有効化します: + + ```ruby + require 'sinatra' + require 'datadog/auto_instrument' + + Datadog.configure do |c| + # APM トレーサーは自動インスツルメンテーションによって有効化されます + c.tracing.enabled = false + + # Sinatra 向けに Application & API Protection を有効化する + c.appsec.enabled = true + c.appsec.instrument :sinatra + end + ``` +{{% /tab %}} + +{{% tab "Rack" %}} + `config.ru` ファイルに次を追加して APM トレーサーを有効化します: + + ```ruby + require 'datadog' + require 'datadog/appsec' + + Datadog.configure do |c| + # APM トレーサーを有効化しつつ、トレース処理は無効化する (セキュリティ用途のみ) + c.tracing.instrument :rack + c.tracing.enabled = false + + # Rack 向けに Application & API Protection を有効化する + c.appsec.enabled = true + c.appsec.instrument :rack + end + + use Datadog::Tracing::Contrib::Rack::TraceMiddleware + use Datadog::AppSec::Contrib::Rack::RequestMiddleware + ``` +{{% /tab %}} + +{{< /tabs >}} + + または、アプリケーションの実行環境に応じて次のいずれかの方法を使用します: + + {{< tabs >}} +{{% tab "Docker CLI" %}} + +APM 用の構成として、`docker run` コマンドに以下の引数を追加します: + +```shell +docker run [...] -e DD_APPSEC_ENABLED=true -e DD_APM_TRACING_ENABLED=false [...] +``` + +{{% /tab %}} +{{% tab "Dockerfile" %}} + +コンテナの Dockerfile に以下の環境変数を追加します: + +```Dockerfile +ENV DD_APPSEC_ENABLED=true +ENV DD_APM_TRACING_ENABLED=false +``` + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +APM 用に、構成 YAML ファイルでコンテナの設定を更新し、環境変数を追加します: + +```yaml +spec: + template: + spec: + containers: + - name: + image: / + env: + - name: DD_APPSEC_ENABLED + value: "true" + - name: DD_APM_TRACING_ENABLED + value: "false" +``` + +{{% /tab %}} +{{% tab "Amazon ECS" %}} + +ECS のタスク定義 JSON ファイルの environment セクションに次を追加します: + +```json +"environment": [ + ..., + { + "name": "DD_APPSEC_ENABLED", + "value": "true" + }, + { + "name": "DD_APM_TRACING_ENABLED", + "value": "false" + } +] +``` + +{{% /tab %}} +{{% tab "AWS Fargate" %}} + +コード内で Application & API Protection を初期化するか、サービス起動時に環境変数を設定します: +```shell +env DD_APPSEC_ENABLED=true DD_APM_TRACING_ENABLED=false rails server +``` + +{{% /tab %}} + +{{< /tabs >}} + +{{% appsec-getstarted-2-canary %}} + +{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Signals Explorer と詳細、Vulnerabilities Explorer と詳細を示す動画。" video="true" >}} + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/security/application_security/setup/compatibility/ruby/ +[2]: https://github.com/DataDog/dd-trace-rb/blob/master/docs/UpgradeGuide2.md +[3]: /ja/tracing/trace_collection/dd_libraries/ruby/ \ No newline at end of file diff --git a/content/ja/serverless/guide/serverless_warnings.md b/content/ja/serverless/guide/serverless_warnings.md index 984010ad13923..a6fc1bc84e69a 100644 --- a/content/ja/serverless/guide/serverless_warnings.md +++ b/content/ja/serverless/guide/serverless_warnings.md @@ -7,6 +7,9 @@ further_reading: - link: https://www.datadoghq.com/blog/serverless-insights/ tag: ブログ text: サーバーレスインサイトについてもっと読む +- link: https://www.datadoghq.com/blog/identifying-deprecated-lambda-functions/ + tag: ブログ + text: Datadog で非推奨の Lambda 関数を特定する title: サーバーレスの警告 --- @@ -83,7 +86,7 @@ Datadog の[拡張メトリクス][5]および[分散型トレーシング][7] ### イテレータ経過時間が長い -関数のイテレータが 2 時間以上経過していました。イテレータの経過時間は、ストリームから処理されたレコードの各バッチの最後のレコードの経過時間を測定します。この値が増加すると、関数がデータを十分に高速に処理できないことを意味します。 +関数のイテレーター エイジが高すぎました。イテレーター エイジは、ストリームから処理された各レコード バッチにおける最後のレコードの経過時間を測定します。この値が増加している場合、関数が十分な速度でデータを処理できていないことを意味します。 **解決策:** [分散型トレーシング][7]を有効にして、関数に大量のデータがストリーミングされている理由を特定します。関数が読み取るストリームのシャード数とバッチサイズを増やすことも検討できます。 @@ -93,29 +96,43 @@ Datadog の[拡張メトリクス][5]および[分散型トレーシング][7] **解決策:** Lambda 関数に割り当てられるメモリの量を減らすことを検討してください。これは AWS の請求に影響する可能性があることに注意してください。 -### Threats detected +### 脅威を検出 + +サーバーレス アプリケーションを標的とする攻撃試行が検出されました。 + +**解決策:** AAP で **Security Signals** ボタンをクリックして攻撃試行を調査し、対応方法を判断してください。緊急対応が必要な場合は、[Workflows インテグレーション][11] を通じて WAF で攻撃元 IP をブロックできます。 + +### 割り当て不足 + +この関数の CPU 使用率は平均で 80% を超えていました。これは、追加の CPU リソースを付与することで性能が向上する可能性があることを意味します。 -Attack attempts were detected targeting the serverless application. +**解決策:** Lambda 関数の [割り当てメモリ][12] を増やすことを検討してください。メモリの容量を増やすと、利用可能な CPU リソースもスケールします。なお、AWS の請求額に影響する可能性があります。 -**Resolution:** Investigate the attack attempts in ASM by clicking the **Security Signals** button to determine how to respond. If immediate action is needed, you can block the attacking IP in your WAF through the [Workflows integration][11]. +### プロビジョンド コンカレンシーの過剰割り当て -### Under provisioned +この関数のプロビジョンド コンカレンシーの利用率は 60% 未満でした。AWS によると、[プロビジョンド コンカレンシーは、利用率が一貫して 60% を超える場合にコスト面で最適化されます][13]。 -CPU utilization for this function averaged more than 80%. This means your function may see increased performance from additional CPU resources. +**解決策:** 関数に設定しているプロビジョンド コンカレンシーの設定値を減らすことを検討してください。 -**Resolution:** Consider increasing the amount of [allocated memory][12] on your Lambda function. Increasing the amount of memory scales available CPU resources. Note this may affect your AWS bill. +### サポート終了のランタイム -### Overallocated provisioned concurrency +この関数のランタイムは [サポート終了][14] です。 -The function's provisioned concurrency utilization was below 60%. According to AWS, [provisioned concurrency is best optimized for cost when utilization is consistently greater than 60%][13]. +**解決策:** 最新のセキュリティ、パフォーマンス、信頼性の標準に追従するため、最新のランタイムにアップグレードしてください。 + +### 最大実行時間に接近 + +選択した期間内の少なくとも 1 回の呼び出しが、最大実行時間の上限である 15 分に近づきました。 + +[分散型トレーシング][7]は、アプリケーションの遅い API 呼び出しを特定するのに役立ちます。 -**Resolution:** Consider decreasing the amount of configured provisioned concurrency for your function. +**解決策:** 最大タイムアウトである 15 分に近づいた Lambda 関数は、Lambda ランタイムによって強制終了されるリスクがあります。これにより、受信リクエストへの応答が遅くなったり、失敗したりする可能性があります。Lambda 関数のパフォーマンス改善、Step Functions における小さな関数への分割、またはワークロードを ECS Fargate のような長時間実行の環境へ移行することを検討してください。 -### Deprecated runtime +### 再帰呼び出しのドロップ -The function's runtime is [no longer supported][14]. +この関数の呼び出しには再帰ループがあり、一般的には AWS エンティティ間の再帰的なトリガー (例: Lambda -> SQS -> Lambda) が原因です。これが `maxReceiveCount` (既定値 16) を超えると、このメトリクスに加算されます。詳細は、[Lambda の再帰ループ検出を使用して無限ループを防止する][15] を参照してください。 -**Resolution:** Upgrade to the latest runtime to ensure you are up to date on the latest security, performance, and reliability standards. +**解決策:** この関数に関連する AWS エンティティ内の再帰呼び出しを特定してください。[SQS、SNS、S3][16] などの関連エンティティを確認します。 ## その他の参考資料 @@ -134,4 +151,6 @@ The function's runtime is [no longer supported][14]. [11]: https://app.datadoghq.com/workflow/blueprints?selected_category=SECURITY [12]: https://docs.aws.amazon.com/lambda/latest/dg/configuration-memory.html [13]: https://aws.amazon.com/blogs/compute/optimizing-your-aws-lambda-costs-part-1/ -[14]: https://docs.aws.amazon.com/lambda/latest/dg/lambda-runtimes.html \ No newline at end of file +[14]: https://docs.aws.amazon.com/lambda/latest/dg/lambda-runtimes.html +[15]: https://docs.aws.amazon.com/lambda/latest/dg/invocation-recursion.html +[16]: https://docs.aws.amazon.com/lambda/latest/dg/invocation-recursion.html#invocation-recursion-supported \ No newline at end of file diff --git a/content/ja/tracing/trace_collection/custom_instrumentation/python/dd-api.md b/content/ja/tracing/trace_collection/custom_instrumentation/python/dd-api.md new file mode 100644 index 0000000000000..4df5481a7c993 --- /dev/null +++ b/content/ja/tracing/trace_collection/custom_instrumentation/python/dd-api.md @@ -0,0 +1,326 @@ +--- +aliases: +- /ja/tracing/opentracing/python +- /ja/tracing/manual_instrumentation/python +- /ja/tracing/custom_instrumentation/python +- /ja/tracing/setup_overview/custom_instrumentation/python +- /ja/tracing/trace_collection/custom_instrumentation/python +- /ja/tracing/trace_collection/custom_instrumentation/dd_libraries/python +code_lang: dd-api +code_lang_weight: 1 +description: Python アプリケーションを手動でインスツルメントして、カスタムトレースを Datadog に送信します。 +further_reading: +- link: tracing/other_telemetry/connect_logs_and_traces + tag: ドキュメント + text: ログとトレースの接続 +- link: tracing/glossary/ + tag: ドキュメント + text: サービス、リソース、トレースの詳細 +title: Datadog API を使用した Python カスタム インスツルメンテーション +type: multi-code-lang +--- + +自動インスツルメンテーションのセットアップ手順をまだ読んでいない場合は、まず [Python セットアップ手順][6] から始めてください。 + +対応するライブラリインスツルメンテーションを使用しない場合( [ライブラリの互換性][1]参照)、手動でコードをインスツルメントする必要があります。 + +`ddtrace` ライブラリの機能性を拡張したり、アプリケーションのインスツルメントをより精確に制御するのに役立つ方法がライブラリにあります。 + +## スパンの作成 + +`ddtrace` ライブラリは、`ddtrace-run` で[多くのライブラリとフレームワーク][1]に対応するスパンを自動生成します。しかし、使用しているコードを可視化したい場合はスパンの利用が便利です。 + +Web リクエスト (例: `make_sandwich_request`) 内で、`get_ingredients()`、`assemble_sandwich()` など、測定に役立つさまざまなオペレーションを行うことができます。 + +```python +def make_sandwich_request(request): + ingredients = get_ingredients() + sandwich = assemble_sandwich(ingredients) +``` + +{{< tabs >}} +{{% tab "Decorator" %}} + +`ddtrace` から提供される `tracer.wrap()` デコレータを使用して、対象の関数を修飾することができます。呼び出し場所に関わらずに関数をトレースしたい場合に便利です。 + + +```python + from ddtrace import tracer + + @tracer.wrap(service="my-sandwich-making-svc", resource="resource_name") + def get_ingredients(): + # パントリーに行く + # 冷蔵庫の中身を確認 + # 足りないものは買い出し + return + + # スパンのカスタマイズに必要な情報を共有 + @tracer.wrap("assemble_sandwich", service="my-sandwich-making-svc", resource="resource_name") + def assemble_sandwich(ingredients): + return +``` + +詳しくは、[`ddtrace.Tracer.wrap()` のデコレータの API 詳細][1]をご覧ください。 + + +[1]: https://ddtrace.readthedocs.io/en/stable/api.html#ddtrace.Tracer.wrap +{{% /tab %}} +{{% tab "Context Manager" %}} + +また、`src/Services/SampleRegistry.php` もです。 + +```python +from ddtrace import tracer + +def make_sandwich_request(request): + # スパンで両方のオペレーションを取得 + with tracer.trace("sandwich.make"): + ingredients = get_ingredients() + sandwich = assemble_sandwich(ingredients) + +def make_sandwich_request(request): + # スパンで両方のオペレーションを取得 + with tracer.trace("sandwich.create", resource="resource_name") as outer_span: + + with tracer.trace("get_ingredients", resource="resource_name") as span: + ingredients = get_ingredients() + + with tracer.trace("assemble_sandwich", resource="resource_name") as span: + sandwich = assemble_sandwich(ingredients) +``` + +詳しくは、[`ddtrace.Tracer()` の API 詳細][2]全文をお読みください。 + +[1]: https://ddtrace.readthedocs.io/en/stable/advanced_usage.html#ddtrace.Span +[2]: https://ddtrace.readthedocs.io/en/stable/advanced_usage.html#tracer +class SampleRegistry +{ + public function put($key, $value) + { + \App\some_utility_function('some argument'); + // 挿入されたアイテムの ID を返す + return 456; + } + +デコレータおよびコンテキストマネージャー以外のトレーシング方法として、[スパン][1]の開始と終了を可能にする手動 API があります。これに必要なのは、 + +```python + +def make_sandwich_request(request): + span = tracer.trace("sandwich.create", resource="resource_name") + ingredients = get_ingredients() + sandwich = assemble_sandwich(ingredients) + span.finish() # ここでスパンを閉じる +``` + +デコレータの API 詳細については、[`ddtrace.Tracer.trace` ドキュメント][2]または [`ddtrace.Span.finish` ドキュメント][3]をお読みください。 + + + +[1]: /ja/tracing/glossary/#spans +[2]: https://ddtrace.readthedocs.io/en/stable/advanced_usage.html#ddtrace.Tracer.trace +[3]: https://ddtrace.readthedocs.io/en/stable/advanced_usage.html#ddtrace.Span.finish +{{% /tab %}} +{{< /tabs >}} + + +## アクティブなスパンへのアクセス + +内蔵のインスツルメンテーションおよびカスタムインスツルメンテーションは、有意義なオペレーションに関連するスパンを作成します。アクティブなスパンにアクセスして、これらの有意義なデータを含めるよう設定できます。 + +```python +from ddtrace import tracer + +def make_sandwich_request(request): + # スパンで両方のオペレーションを取得 + with tracer.trace("sandwich.make") as my_span: + ingredients = get_ingredients() + sandwich = assemble_sandwich(ingredients) +``` + +{{< tabs >}} +{{% tab "現在のスパン" %}} + +```python +def get_ingredients(): + # アクティブなスパンを取得 + span = tracer.current_span() + # 上記の make_sandwich_request からの my_span +``` + +{{% /tab %}} + +{{% tab "ルートスパン" %}} + +```python +def assemble_sandwich(ingredients): + with tracer.trace("another.operation") as another_span: + # アクティブなルートスパンを取得 + span = tracer.current_root_span() + # 上記の make_sandwich_request からの my_span +``` +{{% /tab %}} +{{< /tabs >}} + + +## `ddtrace` ライブラリの機能性を拡張したり、アプリケーションのインスツルメントをより精確に制御するのに役立つ方法がライブラリにあります。 + +{{< tabs >}} +{{% tab "ローカル" %}} + +スパンに `set_tag` メソッドを適用して、スパンにタグを追加することができます。 + +```python +from ddtrace import tracer + +def make_sandwich_request(request): + with tracer.trace("sandwich.make") as span: + ingredients = get_ingredients() + span.set_tag("num_ingredients", len(ingredients)) +``` +{{% /tab %}} +{{% tab "グローバル" %}} + +タグはトレーサー上にグローバルに設定することができます。これらのタグは作成されるスパンのそれぞれに適用されます。 + +```python +from ddtrace import tracer +from myapp import __version__ + +# これは各スパンに適用されます +tracer.set_tags({"version": __version__, "": ""}) +``` +{{% /tab %}} +{{% tab "エラー" %}} + +例外発生時点でアクティブなスパンが存在した場合は、その例外の情報がスパンに添付されます。 + +```python +from ddtrace import tracer + +with tracer.trace("throws.an.error") as span: + raise Exception("Oops!") + +# `span` にエラーフラグを立て、 +# スタックトレースと例外メッセージをタグとして追加 +``` + +スパンへのエラーフラグ適用は、手動でも行うことができます。 + +```python +from ddtrace import tracer + +span = tracer.trace("operation") +span.error = 1 +span.finish() +``` + +発生したエラーでローカル ルート スパンにフラグを付けたい場合: + +```python +import os +from ddtrace import tracer + +try: + raise TypeError +except TypeError as e: + root_span = tracer.current_root_span() + (exc_type, exc_val, exc_tb) = sys.exc_info() + # エラー タイプを設定し、スパンをエラーとしてマークし、トレースバックを追加します + root_span.set_exc_info(exc_type, exc_val, exc_tb) +``` +{{% /tab %}} +{{< /tabs >}} + + +## ヘッダー抽出と挿入によるコンテキストの伝搬 + +分散型トレーシングのコンテキストの伝搬は、ヘッダーの挿入と抽出で構成できます。詳しくは[トレースコンテキストの伝播][8]をお読みください。 + +### Baggage + +スパンの [バゲージ][3] を操作する: + +```python +from ddtrace import tracer + +# 新しいスパンを開始し、バゲージを設定 +with tracer.trace("example") as span: + # set_baggage_item + span.context.set_baggage_item("key1", "value1") + span.context.set_baggage_item("key2", "value2") + + # get_all_baggage_items + all_baggage = span.context.get_all_baggage_items() + print(all_baggage) # {'key1': 'value1', 'key2': 'value2'} + + # remove_baggage_item + span.context.remove_baggage_item("key1") + print(span.context.get_all_baggage_items()) # {'key2': 'value2'} + + # get_baggage_item + print(span.context.get_baggage_item("key1")) # None + print(span.context.get_baggage_item("key2")) # value2 + + # remove_all_baggage_items + span.context.remove_all_baggage_items() + print(span.context.get_all_baggage_items()) # {} +``` + +動作例は、[trace-examples の flask-baggage][7] を参照してください。 + +## ddtrace-api + +{{< callout btn_hidden="true" header="ddtrace-api はプレビューです!">}} +ddtrace-api Python パッケージはプレビュー段階であり、必要な API 呼び出しをすべて含まない場合があります。より完全な機能が必要な場合は、前のセクションで説明した API を使用してください。 +

以下の手順は、プレビュー版の ddtrace-api パッケージで試してみたい場合にのみ必要です。{{< /callout >}} + +[ddtrace-api パッケージ][8] は、Datadog APM のカスタム Python インスツルメンテーション向けに安定したパブリック API を提供します。このパッケージは API インターフェイスのみを実装し、Datadog にスパンを作成・送信する基盤の機能は実装しません。 + +インターフェイス (`ddtrace-api`) と実装 (`ddtrace`) を分離することで、次の利点があります: + +- カスタム インスツルメンテーション向けに、変更頻度が低く予測しやすい API に依存できます。 +- 自動インスツルメンテーションのみを使用する場合、API の変更を完全に無視できます。 +- シングル ステップとカスタム インスツルメンテーションの両方を実装する場合でも、`ddtrace` パッケージの複数コピーに依存せずに済みます。 + +`ddtrace-api` を使用するには: + +1. `ddtrace` と `ddtrace-api` の両方のライブラリをインストールします: + ```python + pip install 'ddtrace>=3.1' ddtrace-api + ``` + +2. Python のエントリ ポイント コマンドの前に `ddtrace-run` を付けて、Python アプリケーションをインスツルメントします: + ```shell + ddtrace-run python app.py + ``` + +3. セットアップ後は、前のセクションの例とまったく同じ要領でカスタム インスツルメンテーションを記述できますが、`ddtrace` ではなく `ddtrace_api` から import します。 + + 例: + ```python + from ddtrace_api import tracer + + @tracer.wrap(service="my-sandwich-making-svc", resource="resource_name") + def get_ingredients(): + # go to the pantry + # go to the fridge + # maybe go to the store + return + ``` + +サポートされている API 呼び出しの全一覧は、そのパッケージの [API 定義][9] を参照してください。 + +## その他の参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/tracing/compatibility_requirements/python +[2]: /ja/tracing/trace_collection/trace_context_propagation/ +[3]: /ja/tracing/trace_collection/trace_context_propagation/#baggage +[4]: /ja/tracing/security +[5]: /ja/tracing/guide/ignoring_apm_resources/ +[6]: /ja/tracing/setup/python/ +[7]: https://github.com/DataDog/trace-examples/tree/master/python/flask-baggage +[8]: https://pypi.org/project/ddtrace-api/ +[9]: https://datadoghq.dev/dd-trace-api-py/pdocs/ddtrace_api.html \ No newline at end of file diff --git a/content/ja/tracing/trace_collection/custom_instrumentation/ruby/dd-api.md b/content/ja/tracing/trace_collection/custom_instrumentation/ruby/dd-api.md new file mode 100644 index 0000000000000..b9ac79dd82533 --- /dev/null +++ b/content/ja/tracing/trace_collection/custom_instrumentation/ruby/dd-api.md @@ -0,0 +1,339 @@ +--- +aliases: +- /ja/tracing/opentracing/ruby +- /ja/tracing/manual_instrumentation/ruby +- /ja/tracing/custom_instrumentation/ruby +- /ja/tracing/setup_overview/custom_instrumentation/ruby +- /ja/tracing/trace_collection/custom_instrumentation/ruby +- /ja/tracing/trace_collection/custom_instrumentation/dd_libraries/ruby +code_lang: dd-api +code_lang_weight: 1 +description: Ruby アプリケーションを手動でインスツルメントしてカスタムトレースを Datadog に送信します。 +further_reading: +- link: tracing/other_telemetry/connect_logs_and_traces + tag: ドキュメント + text: ログとトレースの接続 +- link: tracing/glossary/ + tag: ドキュメント + text: サービス、リソース、トレースの詳細 +title: Ruby で Datadog API を使用したカスタム インスツルメンテーション +type: multi-code-lang +--- +
+自動インスツルメンテーションとセットアップの手順をまだ読んでいない場合は、Python セットアップ手順をお読みください。 +
+ +このページでは、Datadog APM で観測可能性を追加・カスタマイズするユースケースを詳しく説明します。 + +## 要件 + +使用している [Ruby トレーサーのバージョン][8] に応じて、適切な gem を必ず require してください: + +- v2.x の場合は、 `datadog` gem を require します: + ```ruby + require 'datadog' + ``` + +- v1.x の場合は、 `ddtrace` gem を require します: + ```ruby + require 'ddtrace' + ``` + +## `ddtrace` ライブラリの機能性を拡張したり、アプリケーションのインスツルメントをより精確に制御するのに役立つ方法がライブラリにあります。 + +カスタム[スパンタグ][1]を[スパン][2]に追加して、Datadog 内の可観測性をカスタマイズします。スパンタグは受信トレースに適用されるため、観測された動作を、マーチャントの階層、チェックアウト金額、ユーザー ID などのコードレベルの情報と関連付けることができます。 + +### カスタムスパンタグを追加する + +`customer.id` などのアプリケーションコード内の動的な値に対応するカスタムタグをスパンに追加します。 + +#### アクティブ スパン + +コード内の任意のメソッドから、現在アクティブな [スパン][1] にアクセスできます。 + +**注**: このメソッドが呼び出されたときにアクティブスパンがない場合、`active_span` は `nil` になります。 + +```ruby +# get '/shopping_cart/:customer_id', to: 'shopping_cart#index' +class ShoppingCartController < ApplicationController + # GET /shopping_cart + def index + # アクティブスパンを取得し、customer_id -> 254889 を設定します + Datadog::Tracing.active_span&.set_tag('customer.id', params.permit([:customer_id])) + + # [...] + end + + # POST /shopping_cart + def create + # [...] + end +end +``` + +#### 手動でインスツルメンテーションしたスパン + +`#set_tag` を呼び出して、`Datadog::Span` オブジェクトに[タグ][1]を直接追加します。 + +```ruby +# Sinatra エンドポイントの例。 +# Datadog がリクエストをトレースします。 +get '/posts' do + Datadog::Tracing.trace('web.request') do |span| + span.set_tag('http.url', request.path) + span.set_tag('', '') + end +end +``` + +[1]: /ja/tracing/glossary/#span-tags + + +### すべてのスパンにグローバルにタグを追加する + +`tags` オプションでトレーサーを構成して、すべての[スパン][2]に[タグ][1]を追加します。 + +```ruby +Datadog.configure do |c| + c.tags = { 'team' => 'qa' } +end +``` + +環境変数 `DD_TAGS` を使用してアプリケーションのすべてのスパンにタグを設定することも可能です。Ruby の環境変数に関する詳細は、[セットアップドキュメント][3]をお読みください。 + +### スパンにエラーを設定する + +スパンにエラーを設定する方法には 2 つあります。 + +- `span.set_error` を呼び出し、Exception オブジェクトを渡します。これにより、エラーの種類、メッセージ、バックトレースが自動的に抽出されます。 + +```ruby +require 'timeout' + +def example_method + span = Datadog::Tracing.trace('example.trace') + puts 'some work' + sleep(1) + raise StandardError, "This is an exception" +rescue StandardError => error + Datadog::Tracing.active_span&.set_error(error) + raise +ensure + span.finish +end + +example_method() +``` + +- また、`tracer.trace` を使用すると、デフォルトでエラータイプ、メッセージ、バックトレースを設定することができます。この動作を構成するには、`on_error` オプションを使用します。これは、`trace` にブロックが提供され、ブロックがエラーを発生させたときに呼び出されるハンドラーです。Proc には `span` と `error` が引数として渡されます。デフォルトでは、`on_error` はスパンにエラーを設定します。 + +`on_error` のデフォルトの動作: + +```ruby +require 'timeout' + +def example_method + puts 'some work' + sleep(1) + raise StandardError, "This is an exception" +end + +Datadog::Tracing.trace('example.trace') do |span| + example_method() +end +``` + +`on_error` のカスタム動作: + +```ruby +require 'timeout' + +def example_method + puts 'some work' + sleep(1) + raise StandardError.new "This is a special exception" +end + +custom_error_handler = proc do |span, error| + span.set_tag('custom_tag', 'custom_value') + span.set_error(error) unless error.message.include?("a special exception") +end + +Datadog::Tracing.trace('example.trace', on_error: custom_error_handler) do |span| + example_method() +end +``` + +## タグの追加 + +対応するライブラリインスツルメンテーションを使用しない場合( [ライブラリの互換性][4]参照)、手動でコードをインスツルメントすることができます。`Datadog::Tracing.trace` メソッドを使ってコードにトレーシングを追加します。これは、Ruby コードにラップできます。 + +Ruby コードをトレースするには、`Datadog::Tracing.trace` メソッドを使用できます。 + +```ruby +Datadog::Tracing.trace(name, resource: resource, **options) do |span| + # このブロックを、インスツルメントするコードでラップします + # さらに、ここでスパンを変更できます。 + # 例: リソース名の変更、タグの設定 +end +``` + +ここで、`name` は、実行されている一般的な種類の操作を説明する `String` です(例: `'web.request'` または `'request.parse'`)。 + +`resource` は操作するアクションの名前を表す `String` です。同じリソースの値を持つトレースは、メトリクスの目的のために一緒にグループ化されます。リソースは通常、URL、クエリ、リクエストなど、ドメイン固有のものです (例: 'Article#submit’、http://example.com/articles/list.)。 + +利用可能なすべての `**options` については、[リファレンスガイド][5]を参照してください。 + +### 新しいスパンを手動で作成する + +プログラムで、コードのブロックの周囲にスパンを作成します。この方法で作成されたスパンは、他のトレースメカニズムと自動的に統合されます。つまり、トレースがすでに開始されている場合、手動スパンはその親スパンとして呼び出し元を持ちます。同様に、コードのラップされたブロックから呼び出されたトレースメソッドは、その親として手動スパンを持ちます。 + +```ruby +# Sinatra エンドポイントの例、 +# Datadog でリクエスト周りをトレーシング +# データベースクエリ、およびレンダリング手順。 +get '/posts' do + Datadog::Tracing.trace('web.request', service: '<サービス名>', resource: 'GET /posts') do |span| + # activerecord 呼び出しをトレース + Datadog::Tracing.trace('posts.fetch') do + @posts = Posts.order(created_at: :desc).limit(10) + end + + # APM タグを追加 + span.set_tag('http.method', request.request_method) + span.set_tag('posts.count', @posts.length) + + # テンプレートレンダリングをトレース + Datadog::Tracing.trace('template.render') do + erb :index + end + end +end +``` + +### トレースの後処理 + +一部のアプリケーションでは、トレースを Datadog に送信する前に、トレースを変更またはフィルタリングする必要がある場合があります。処理パイプラインを使用すると、このような動作を定義する*プロセッサー*を作成できます。 + +#### フィルタリング + +ブロックが真と評価された場合、`Datadog::Tracing::Pipeline::SpanFilter` プロセッサーを使用してスパンを削除できます。 + +```ruby +Datadog::Tracing.before_flush( + # 特定のリソースに一致するスパンを削除します + Datadog::Tracing::Pipeline::SpanFilter.new { |span| span.resource =~ /PingController/ }, + # localhost に送られたスパンを削除します + Datadog::Tracing::Pipeline::SpanFilter.new { |span| span.get_tag('host') == 'localhost' } +) +``` + +#### 処理 + +`Datadog::Tracing::Pipeline::SpanProcessor` プロセッサーを使用してスパンを変更できます。 + +```ruby +Datadog::Tracing.before_flush( + # リソースフィールドから一致するテキストを削除します + Datadog::Tracing::Pipeline::SpanProcessor.new { |span| span.resource.gsub!(/password=.*/, '') } +) +``` + +#### カスタムプロセッサー + +プロセッサーは、`trace` を引数として受け入れる `#call` に応答する任意のオブジェクトです(これは、`Datadog::Span` の `Array` です)。 + +例えば、ショートハンドのブロック構文を使用する場合: + +```ruby +Datadog::Tracing.before_flush do |trace| + # 処理ロジック... + trace +end +``` + +次の例では、複雑な後処理ロジックを実現するプロセッサーを実装しています。 + +```ruby +Datadog::Tracing.before_flush do |trace| + trace.spans.each do |span| + originalPrice = span.get_tag('order.price')) + discount = span.get_tag('order.discount')) + + # 他のタグから計算したタグを設定します + if (originalPrice != nil && discount != nil) + span.set_tag('order.value', originalPrice - discount) + end + end + trace +end +``` + +カスタムプロセッサーのクラスの場合: + +```ruby +class MyCustomProcessor + def call(trace) + # 処理ロジック... + trace + end +end + +Datadog::Tracing.before_flush(MyCustomProcessor.new) +``` + +どちらの場合も、プロセッサーのメソッドは `trace` オブジェクトを返す必要があります。この戻り値は、パイプラインの次のプロセッサーに渡されます。 + + +## トレースクライアントと Agent コンフィギュレーション + +トレーシングクライアントと Datadog Agent の両方で、コンフィギュレーションを追加することで、B3 ヘッダーを使用したコンテキスト伝播や、ヘルスチェックなどの計算されたメトリクスでこれらのトレースがカウントされないように、特定のリソースがトレースを Datadog に送信しないように除外することができます。 + +### ヘッダー抽出と挿入によるコンテキストの伝搬 + +分散型トレーシングのコンテキストの伝搬は、ヘッダーの挿入と抽出で構成できます。詳しくは[トレースコンテキストの伝播][6]をお読みください。 + +#### Baggage + +Baggage は API を通じてアクセス可能なハッシュで、デフォルトで伝播されます。以下の例を参照して [バゲージ][7] を操作してください: + +```ruby +# set_baggage_item +Datadog::Tracing.baggage['key1'] = 'value1' +Datadog::Tracing.baggage['key2'] = 'value2' + +# get_all_baggage_items +all_baggage = Datadog::Tracing.baggage +puts(all_baggage) # {"key1"=>"value1", "key2"=>"value2"} + +# remove_baggage_item +Datadog::Tracing.baggage.delete('key1') +puts(Datadog::Tracing.baggage) # {"key2"=>"value2"} + +# get_baggage_item +puts(Datadog::Tracing.baggage['key1']) # nil +puts(Datadog::Tracing.baggage['key2']) # "value2" + +# remove_all_baggage_items +Datadog::Tracing.baggage.clear +puts(Datadog::Tracing.baggage) # {} +``` + + +### リソースのフィルター + +トレースはそれぞれのリソース名に基づいて除外可能で、これによりヘルスチェックなどの外形監視トラフィックが Datadog にレポートされるトレースから削除されます。この設定およびその他のセキュリティ/微調整に関するコンフィギュレーションについては[セキュリティ][8]ページを参照してください。 + +## その他の参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/tracing/glossary/#span-tags +[2]: /ja/tracing/glossary/#spans +[3]: /ja/tracing/setup/ruby/#environment-and-tags +[4]: /ja/tracing/compatibility_requirements/ruby/ +[5]: /ja/tracing/trace_collection/dd_libraries/ruby/#manual-instrumentation +[6]: /ja/tracing/trace_collection/trace_context_propagation/ +[7]: /ja/tracing/trace_collection/trace_context_propagation/#baggage +[8]: /ja/tracing/security +[9]: https://github.com/DataDog/dd-trace-rb/releases \ No newline at end of file From b5f53535902b90cef4905b3e176baaf30cd86412 Mon Sep 17 00:00:00 2001 From: Ursula Chen Date: Mon, 13 Oct 2025 15:05:07 -0500 Subject: [PATCH 4/8] Remove errant period --- content/es/integrations/snmp.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/content/es/integrations/snmp.md b/content/es/integrations/snmp.md index 77a64c403f787..bf0905ff1bfb8 100644 --- a/content/es/integrations/snmp.md +++ b/content/es/integrations/snmp.md @@ -17,7 +17,7 @@ "metrics": "check": "snmp.devices_monitored" "metadata_path": "metadata.csv" - "prefix": "snmp". + "prefix": "snmp" "service_checks": "metadata_path": "assets/service_checks.json" "source_type_id": !!int "78" From e9616b5efe92ed77a76f8f180ab3cb7995577be7 Mon Sep 17 00:00:00 2001 From: Ursula Chen Date: Mon, 13 Oct 2025 15:23:11 -0500 Subject: [PATCH 5/8] more fixes --- content/es/integrations/snmp.md | 8 ++++---- 1 file changed, 4 insertions(+), 4 deletions(-) diff --git a/content/es/integrations/snmp.md b/content/es/integrations/snmp.md index bf0905ff1bfb8..e424bf577f347 100644 --- a/content/es/integrations/snmp.md +++ b/content/es/integrations/snmp.md @@ -54,7 +54,7 @@ "manifest_version": "2.0.0" "name": "snmp" "public_title": "SNMP" -"short_description": "Recopila métricas de SNMP de tus dispositivos de red". +"short_description": "Recopila métricas de SNMP de tus dispositivos de red." "supported_os": - "linux" - "windows" @@ -63,13 +63,13 @@ "changelog": "CHANGELOG.md" "classifier_tags": - "Category::Red" - - "Category::Notificaciones" + - "Category::Notifications" - "Category::SNMP" - "Supported OS::Linux" - "Supported OS::Windows" - "Supported OS::macOS" - - "Offering::Integración" - "configuration": "README.md#Configuración" + - "Offering::Integration" + "configuration": "README.md#Setup" "description": "Recopila métricas de SNMP de tus dispositivos de red". "media": [] "overview": "README.md#Información general" From db4099f15909d88bba6338056e29c75a3d9dd4eb Mon Sep 17 00:00:00 2001 From: "webops-guacbot[bot]" <214537265+webops-guacbot[bot]@users.noreply.github.com> Date: Tue, 14 Oct 2025 15:03:48 +0000 Subject: [PATCH 6/8] Translated file updates --- .../private_action_credentials.md | 465 +++++++++++++----- .../authorization/oauth2_in_datadog.md | 6 +- .../backend/capturing_handled_errors/ruby.md | 52 ++ content/es/glossary/terms/lcp_(RUM).md | 6 + .../glossary/terms/security_posture_score.md | 16 +- content/es/glossary/terms/system_probe.md | 7 + content/es/integrations/dagster.md | 108 ++++ .../integrations/delinea_privilege_manager.md | 251 ++++++++++ .../harness_harness_notifications.md | 116 +++++ content/es/integrations/hazelcast.md | 420 ++++++++++++---- .../es/integrations/ivanti_connect_secure.md | 230 +++++++++ content/es/integrations/mapr.md | 297 +++++++---- content/es/integrations/microsoft_graph.md | 112 +++++ content/es/integrations/php_fpm.md | 231 +++++++++ .../observability_pipelines/guide/_index.md | 9 + .../browser/setup/server/apache.md | 125 +++++ .../rum_without_limits/metrics.md | 71 +++ .../setup/gcp/cloud-run/dotnet.md | 139 ++++++ .../threats/custom_rules.md | 120 +++++ .../threats/setup/compatibility/serverless.md | 92 ++++ .../threats/setup/threat_detection/_index.md | 40 ++ .../incident_settings/templates.md | 49 ++ .../set_up/existing_datadog_user.md | 63 +++ .../guide/canvas-content-javascript.md | 313 ++++++++++++ .../error_tracking/exception_replay.md | 83 +--- .../custom_instrumentation/python/dd-api.md | 114 ++++- content/ja/coterm/_index.md | 3 +- .../ja/integrations/f5-distributed-cloud.md | 54 +- .../migrating-from-your-current-providers.md | 154 ++++++ .../ko/api/latest/reference-tables/_index.md | 3 + 30 files changed, 3309 insertions(+), 440 deletions(-) create mode 100644 content/es/error_tracking/backend/capturing_handled_errors/ruby.md create mode 100644 content/es/glossary/terms/lcp_(RUM).md create mode 100644 content/es/glossary/terms/system_probe.md create mode 100644 content/es/integrations/dagster.md create mode 100644 content/es/integrations/delinea_privilege_manager.md create mode 100644 content/es/integrations/harness_harness_notifications.md create mode 100644 content/es/integrations/ivanti_connect_secure.md create mode 100644 content/es/integrations/microsoft_graph.md create mode 100644 content/es/integrations/php_fpm.md create mode 100644 content/es/observability_pipelines/guide/_index.md create mode 100644 content/es/real_user_monitoring/browser/setup/server/apache.md create mode 100644 content/es/real_user_monitoring/rum_without_limits/metrics.md create mode 100644 content/es/security/application_security/setup/gcp/cloud-run/dotnet.md create mode 100644 content/es/security/application_security/threats/custom_rules.md create mode 100644 content/es/security/application_security/threats/setup/compatibility/serverless.md create mode 100644 content/es/security/application_security/threats/setup/threat_detection/_index.md create mode 100644 content/es/service_management/incident_management/incident_settings/templates.md create mode 100644 content/es/software_catalog/set_up/existing_datadog_user.md create mode 100644 content/es/synthetics/guide/canvas-content-javascript.md create mode 100644 content/ja/service_management/on-call/guides/migrating-from-your-current-providers.md create mode 100644 content/ko/api/latest/reference-tables/_index.md diff --git a/content/es/actions/private_actions/private_action_credentials.md b/content/es/actions/private_actions/private_action_credentials.md index 9fb6bd362acaf..75b1e8726fb7f 100644 --- a/content/es/actions/private_actions/private_action_credentials.md +++ b/content/es/actions/private_actions/private_action_credentials.md @@ -2,26 +2,283 @@ aliases: - /es/service_management/workflows/private_actions/private_action_credentials - /es/service_management/app_builder/private_actions/private_action_credentials +description: Configura las credenciales para acciones privadas, incluidos los métodos + de autenticación HTTP, Jenkins, PostgreSQL, MongoDB y Temporal. disable_toc: false title: Gestionar credenciales de acciones privadas --- -{{< callout url="https://www.datadoghq.com/product-preview/private-actions/" btn_hidden="false" header="Únete a la vista previa">}} -Las Acciones privadas están en vista previa. Utiliza este formulario para solicitar acceso hoy mismo. -{{< /callout >}} - ## Información general -Las acciones privadas permiten a sus flujos de trabajo y aplicaciones Datadog interactuar con servicios alojados en tu red privada sin exponer tus servicios a la Internet pública. Para utilizar acciones privadas, debes utilizar Docker para instalar un ejecutor de acciones privadas en un host de tu red y emparejarlo con una conexión Datadog. Para obtener más información sobre cómo configurar un ejecutor y emparejarlo con una conexión, consulta [Acciones privadas][1]. +Las acciones privadas permiten a tus procesos y aplicaciones de Datadog interactuar con servicios alojados en tu red privada sin exponer tus servicios a la Internet pública. Para utilizar acciones privadas, debes instalar un ejecutor de acción privado en un host de tu red y emparejar el ejecutor con una conexión de Datadog. Para obtener más información sobre cómo configurar un ejecutor y emparejarlo con una conexión, consulta [Private Actions][1]. Algunas acciones privadas, como Jenkins y PostgreSQL, requieren credenciales para poder funcionar. Para configurar credenciales para una acción privada, debes: -1. Crear un archivo JSON para la credencial y utilizar la estructura JSON proporcionada en [Archivos de credenciales](#credential-files). -2. Guardar tus archivos de credenciales en el directorio de configuración que creaste durante la configuración. -3. Especificar la ruta a la credencial en la conexión del ejecutor. Utiliza la ruta a la credencial en el contenedor. Por ejemplo: `/etc/dd-action-runner/config/credentials/jenkins_creds.json`. +1. Navega hasta el directorio donde almacenaste la configuración de tu ejecutor (por defecto: `config/credentials/`). +2. En este directorio, crea un archivo JSON utilizando la estructura JSON proporcionada en los archivos de credenciales. Como alternativa, edita el archivo JSON predeterminado generado automáticamente durante el arranque del ejecutor. + - **Nota**: Estos archivos están disponibles para el ejecutor en su directorio `/etc/dd-action-runner/config/credentials/`. +3. Especifica la ruta a la credencial en la conexión del ejecutor. Utiliza la ruta al archivo en el contenedor. Por ejemplo: `/etc/dd-action-runner/config/credentials/jenkins_token.json`. ## Archivos de credenciales {{< tabs >}} +{{% tab "HTTP" %}} + +HTTP admite tres métodos de autenticación: + +- **Autenticación básica**: utilízala cuando tu servidor HTTP requiera autenticación de nombre de usuario y contraseña. +- **Autenticación por token**: utilízalo cuando tu servidor HTTP requiera uno o más tokens personalizados en encabezados o parámetros de consulta. +- **Sin autenticación**: utilízalo cuando tu servidor HTTP no requiera autenticación. + +### Autenticación básica + +La autenticación básica requiere un archivo de credenciales con un nombre de usuario y una contraseña: + +{{< code-block lang="json" filename="/etc/dd-action-runner/config/credentials/http_basic.json" disable_copy="false" collapsible="true" >}} +{ + "auth_type": "Basic Auth", + "credentials": [ + { + "username": "USERNAME", + "password": "PASSWORD" + } + ] +} +{{< /code-block >}} + +Sustituye `USERNAME` y `PASSWORD` por tu nombre de usuario y tu contraseña. + +En la conexión del ejecutor, especifica la ubicación del archivo de credenciales en el contenedor del ejecutor de acción privado. En este ejemplo, el archivo de credenciales se almacena en `/etc/dd-action-runner/config/credentials/http_basic.json`. + +{{< img src="service_management/par-http-basic-credentials.png" alt="La ruta al archivo de credenciales es '/etc/dd-action-runner/config/credentials/http_basic.json'" style="width:80%;" >}} + +### Autenticación mediante token + +La autenticación por token requiere un archivo de credenciales con una matriz de nombres y valores de token: + +{{< code-block lang="json" filename="/etc/dd-action-runner/config/credentials/http_token.json" disable_copy="false" collapsible="true" >}} +{ + "auth_type": "Token Auth", + "credentials": [ + { + "tokenName": "TOKEN1", + "tokenValue": "VALUE1" + }, + { + "tokenName": "TOKEN2", + "tokenValue": "VALUE2" + } + ] +} +{{< /code-block >}} + +Sustituye `TOKEN1`, `TOKEN2`, `VALUE1` y `VALUE2` por los nombres y valores de tus tokens. + +En la conexión del ejecutor, especifica la ubicación del archivo de credenciales en el contenedor del ejecutor de acción privado. En este ejemplo, el archivo de credenciales se almacena en `/etc/dd-action-runner/config/credentials/http_token.json`. + +{{< img src="service_management/par-http-token-credentials.png" alt="La ruta al archivo de credenciales es '/etc/dd-action-runner/config/credentials/http_token.json'" style="width:80%;" >}} + +### Sin autenticación + +Este tipo de conexión es adecuado para los endpoints HTTP que no requieren autenticación. + +Para configurar este conexión, especifica la URL del endpoint: + +{{< img src="service_management/par-http-no-auth-credentials.png" alt="Una conexión HTTP sin autenticación" style="width:80%;" >}} + +[101]: https://www.postgresql.org/docs/current/libpq-connect.html#LIBPQ-CONNSTRING-URIS +{{% /tab %}} + +{{% tab "GitLab" %}} + +La conexión de GitLab acepta las siguientes credenciales: + +| Credencial | Obligatorio | Descripción | +| ------------- | ----------- | ----------- | +| `baseURL` | Sí | La URL de tu instancia autogestionada de GitLab. Para más información, consulta [Documentación de la API de GitLab][201]. | +| `gitlabApiToken` | Sí | El token de la API para autenticarte con tu instancia de GitLab. Genera este token en tu configuración de usuario de GitLab. | + +Incluye todas las credenciales en un único archivo: + +{{< code-block lang="json" filename="/etc/dd-action-runner/config/credentials/gitlab_token.json" disable_copy="false" collapsible="true" >}} +{ + "auth_type": "Token Auth", + "credentials": [ + { + "tokenName": "gitlabApiToken", + "tokenValue": "GITLAB_API_TOKEN" + }, + { + "tokenName": "baseURL", + "tokenValue": "GITLAB_URL" + } + ] +} +{{< /code-block >}} + + + +Sustituye `GITLAB_API_TOKEN` y `GITLAB_URL` por tus credenciales. + +En la conexión del ejecutor, especifica la ubicación del archivo de credenciales en el contenedor del ejecutor de acción privado. En este ejemplo, el archivo de credenciales se almacena en `/etc/dd-action-runner/config/credentials/gitlab_token.json`. + +{{< img src="service_management/par-gitlab-credentials.png" alt="La ruta al archivo de credenciales es '/etc/dd-action-runner/config/credentials/gitlab_token.json'" style="width:80%;" >}} + +[201]: https://docs.gitlab.com/ee/api/ +{{% /tab %}} + +{{% tab "Jenkins" %}} + +La conexión de Jenkins acepta las siguientes credenciales: + +| Credencial | Obligatorio | Descripción | +| ------------- | ----------- | ----------- | +| `domain` | Sí | El dominio del servidor de Jenkins al que deseas conectarte. | +| `username` | Sí | El nombre de usuario del usuario de Jenkins que deseas utilizar para autenticarte con el servidor de Jenkins. Este usuario debe tener los permisos necesarios para realizar las acciones que deseas que realice el ejecutor. | +| `token` | Sí | El token de API del usuario de Jenkins que deseas utilizar para autenticarte con el servidor de Jenkins. Este usuario debe tener los permisos necesarios para realizar las acciones que deseas realizar. Puedes generar un token de API en la configuración de usuario de Jenkins. | + +Incluye todas las credenciales en un único archivo: + + +{{< code-block lang="json" filename="/etc/dd-action-runner/config/credentials/jenkins_token.json" disable_copy="false" collapsible="true" >}} +{ + "auth_type": "Token Auth", + "credentials": [ + { + "tokenName": "username", + "tokenValue": "USERNAME" + }, + { + "tokenName": "token", + "tokenValue": "API_TOKEN" + }, + { + "tokenName": "domain", + "tokenValue": "DOMAIN" + } + ] +} +{{< /code-block >}} + +Sustituye `USERNAME`, `API_TOKEN` y `DOMAIN` por tus credenciales. + + +En la conexión del ejecutor, especifica la ubicación del archivo de credenciales en el contenedor del ejecutor de acción privado. En este ejemplo, el archivo de credenciales se almacena en `/etc/dd-action-runner/config/credentials/jenkins_token.json`. + +{{< img src="service_management/par-jenkins-credentials.png" alt="La ruta al archivo de credenciales es '/etc/dd-action-runner/config/credentials/jenkins_token.json'" style="width:80%;" >}} + +{{% /tab %}} + +{{% tab "MongoDB" %}} + +MongoDB admite dos métodos de autenticación: + +- **Autenticación SRV**: utilízalo cuando te conectes a MongoDB Atlas o cuando necesites una detección automática de conjuntos de réplica y conmutación por error. Este método utiliza un registro de DNS SRV para detectar automáticamente todos los miembros de un conjunto de réplica. +- **Autenticación estándar**: utilízala cuando te conectes directamente a un servidor de MongoDB o cuando necesites especificar el host y el puerto exactos. + +### Autenticación SRV + +La autenticación SRV de MongoDB requiere las siguientes credenciales: + +| Credencial | Obligatorio | Descripción | +| ------------- | ----------- | ----------- | +| `username` | Sí | El nombre de usuario de MongoDB para la autenticación. | +| `password` | Sí | La contraseña de MongoDB para la autenticación. | +| `srvHost` | Sí | El host de SRV para MongoDB Atlas o la detección del conjunto de réplica. | +| `database` | No | El nombre de la base de datos a la que conectarte. | + +Incluye todas las credenciales en un único archivo: + +{{< code-block lang="json" filename="/etc/dd-action-runner/config/credentials/mongodb_srv_token.json" disable_copy="false" collapsible="true" >}} +{ + "auth_type": "Token Auth", + "credentials": [ + { + "tokenName": "username", + "tokenValue": "USERNAME" + }, + { + "tokenName": "password", + "tokenValue": "PASSWORD" + }, + { + "tokenName": "srvHost", + "tokenValue": "SRV_HOST" + }, + { + "tokenName": "database", + "tokenValue": "DATABASE" + } + ] +} +{{< /code-block >}} + +Sustituye `USERNAME`, `PASSWORD`, `SRV_HOST` y `DATABASE` por tus credenciales. + +En la conexión del ejecutor, especifica la ubicación del archivo de credenciales en el contenedor del ejecutor de acción privado. En este ejemplo, el archivo de credenciales se almacena en `/etc/dd-action-runner/config/credentials/mongodb_srv_token.json`. + +{{< img src="service_management/par-mongodb-srv-credentials.png" alt="La ruta al archivo de credenciales es '/etc/dd-action-runner/config/credentials/mongodb_srv_token.json'" style="width:80%;" >}} + +### Autenticación estándar + +La autenticación estándar de MongoDB acepta las siguientes credenciales: + +| Credencial | Obligatorio | Descripción | +| ------------- | ----------- | ----------- | +| `username` | Sí | El nombre de usuario de MongoDB para la autenticación. | +| `password` | Sí | La contraseña de MongoDB para la autenticación. | +| `host` | Sí | El nombre de host del servidor de MongoDB. | +| `port` | Sí | El número de puerto del servidor de MongoDB. | +| `database` | No | El nombre de la base de datos a la que conectarte. | +| `authSource` | No | La base de datos que contiene las credenciales del usuario. Especifica si el usuario se crea en una base de datos distinta de `admin`. | +| `authMechanism` | No | El mecanismo de autenticación a utilizar. Especifica si se requiere un mecanismo de autenticación específico. | + +Incluye todas las credenciales en un único archivo: + +{{< code-block lang="json" filename="/etc/dd-action-runner/config/credentials/mongodb_standard_token.json" disable_copy="false" collapsible="true" >}} +{ + "auth_type": "Token Auth", + "credentials": [ + { + "tokenName": "username", + "tokenValue": "USERNAME" + }, + { + "tokenName": "password", + "tokenValue": "PASSWORD" + }, + { + "tokenName": "host", + "tokenValue": "HOST" + }, + { + "tokenName": "port", + "tokenValue": "PORT" + }, + { + "tokenName": "database", + "tokenValue": "DATABASE" + }, + { + "tokenName": "authSource", + "tokenValue": "AUTH_SOURCE" + }, + { + "tokenName": "authMechanism", + "tokenValue": "AUTH_MECHANISM" + } + ] +} +{{< /code-block >}} + +Sustituye `USERNAME`, `PASSWORD`, `HOST`, `PORT`, `DATABASE`, `AUTH_SOURCE` y `AUTH_MECHANISM` por tus credenciales. + +En la conexión del ejecutor, especifica la ubicación del archivo de credenciales en el contenedor del ejecutor de acción privado. En este ejemplo, el archivo de credenciales se almacena en `/etc/dd-action-runner/config/credentials/mongodb_standard_token.json`. + +{{< img src="service_management/par-mongodb-standard-credentials.png" alt="La ruta al archivo de credenciales es '/etc/dd-action-runner/config/credentials/mongodb_standard_token.json'" style="width:80%;" >}} + +{{% /tab %}} + + {{% tab "PostgreSQL" %}} La conexión PostgreSQL acepta las siguientes credenciales: @@ -37,9 +294,8 @@ La conexión PostgreSQL acepta las siguientes credenciales: | `applicationName` | No | El nombre de la aplicación que se conecta al servidor PostGreSQL. Para obtener más información, consulta [la documentación oficial de PostGreSQL][107]. | | `searchPath` | No | Establece una ruta de búsqueda de esquemas. Para obtener más información, consulta [la documentación oficial de PostGreSQL][108]. | -Incluye todas las credenciales en un único archivo. +Incluye todas las credenciales en un único archivo: -En la conexión del ejecutor, especifica la localización del archivo de credenciales en el contenedor del ejecutor de acciones privadas. En este ejemplo, las tres credenciales están almacenadas en un único archivo. Sustituye los valores del ejemplo en mayúsculas por tus credenciales. {{< code-block lang="json" filename="/etc/dd-action-runner/config/credentials/postgresql_token.json" disable_copy="false" collapsible="true" >}} { @@ -47,43 +303,46 @@ En la conexión del ejecutor, especifica la localización del archivo de credenc "credentials": [ { "tokenName": "host", - "tokenValue": "YOUR_HOST_NAME" + "tokenValue": "HOST_NAME" }, { "tokenName": "port", - "tokenValue": "YOUR_PORT" + "tokenValue": "PORT" }, { "tokenName": "user", - "tokenValue": "YOUR_USER" + "tokenValue": "USER" }, { "tokenName": "password", - "tokenValue": "YOUR_PASSWORD" + "tokenValue": "PASSWORD" }, { "tokenName": "database", - "tokenValue": "YOUR_DATABASE_NAME" + "tokenValue": "DATABASE_NAME" }, { "tokenName": "sslmode", - "tokenValue": "disable" + "tokenValue": "require" }, { "tokenName": "applicationName", - "tokenValue": "YOUR_APPLICATION_NAME" + "tokenValue": "APPLICATION_NAME" }, { "tokenName": "searchPath", - "tokenValue": "YOUR_SEARCH_PATH" + "tokenValue": "SEARCH_PATH" } ] } {{< /code-block >}} -En la conexión del ejecutor, especifica la localización del archivo de credenciales en el contenedor del ejecutor de acciones privadas. Tu conexión PostgreSQL apunta a la misma ruta para todas las credenciales. En este ejemplo, el archivo de credenciales está almacenado en `/etc/dd-action-runner/config/credentials/postgresql_token.json` en el ejecutor. +Sustituye los valores del ejemplo por tus credenciales. + + +En la conexión del ejecutor, especifica la ubicación del archivo de credenciales en el contenedor del ejecutor de acción privado. En este ejemplo, el archivo de credenciales se almacena en `/etc/dd-action-runner/config/credentials/postgresql_token.json`. -{{< img src="service_management/private-runner-creds1.png" alt="La ruta al archivo de credenciales es '/etc/dd-action-runner/config/credentials/postgresql_token.json'" style="width:80%;" >}} +{{< img src="service_management/par-postgresql-credentials.png" alt="La ruta al archivo de credenciales es '/etc/dd-action-runner/config/credentials/postgresql_token.json`'" style="width:80%;" >}} [101]: https://www.postgresql.org/docs/current/libpq-connect.html#LIBPQ-CONNECT-HOST [102]: https://www.postgresql.org/docs/current/libpq-connect.html#LIBPQ-CONNECT-PORT @@ -95,151 +354,117 @@ En la conexión del ejecutor, especifica la localización del archivo de credenc [108]: https://www.postgresql.org/docs/15/ddl-schemas.html#DDL-SCHEMAS-PATH {{% /tab %}} -{{% tab "Jenkins" %}} +{{% tab "Temporal" %}} + +El Temporal admite tres métodos de autenticación: -Las conexiones Jenkins requieren tres credenciales: -- **Nombre de usuario**: El nombre de usuario del usuario de Jenkins que quieres utilizar para autenticarte con el servidor Jenkins. Este usuario debe tener los permisos necesarios para las acciones que quieres realizar. -- **Token**: El token de la API del usuario de Jenkins que quieres utilizar para autenticarte con el servidor Jenkins. Este usuario debe tener los permisos necesarios para las acciones que quieres realizar. Puedes generar un token de API en la configuración del usuario de Jenkins. -- **Dominio**: El dominio del servidor Jenkins al que quieres conectarte. +- **Autenticación mTLS**: utilízala para la comunicación más segura con autenticación de certificado bidireccional de servidor a cliente. +- **Autenticación TLS**: utilízala para una comunicación segura con autenticación de certificado de servidor. +- **Sin autenticación**: utilizar para una comunicación no cifrada (no recomendado para entornos de producción). -Puedes incluir todas las credenciales en un único archivo o almacenar cada credencial en un archivo independiente. +### Autenticación mTLS -{{% collapse-content title="Ejemplo de archivo único" level="p" %}} +La autenticación mTLS Temporal requiere las siguientes credenciales: + +| Credencial | Obligatorio | Descripción | +| ------------- | ----------- | ----------- | +| `serverAddress` | Sí | La dirección del servidor (nombre de host y puerto opcional). Si no se define, el puerto es por defecto 7233. | +| `serverNameOverride` | Sí | El nombre de servidor que anula el nombre de destino (SNI) utilizado para la comprobación del nombre de host de TLS. Esto puede ser útil cuando se tiene un proxy inverso delante de un servidor temporal y se desea anular el SNI para dirigir el tráfico al backend apropiado basándose en reglas personalizadas. | +| `serverRootCACertificate` | Sí | El certificado de CA raíz utilizado por el servidor. Si no se establece, y si el certificado del servidor lo emite una autoridad de confianza, la verificación seguirá siendo correcta (por ejemplo, si se utiliza un proveedor de nube como AWS, Google Cloud o Azure, que emiten certificados de servidor a través de CA reconocidas y de confianza). | +| `clientCertPairCrt` | Sí | El certificado del cliente para conectarte con mTLS. | +| `clientCertPairKey` | Sí | La clave del cliente para conectarte con mTLS. | -En la conexión del ejecutor, especifica la localización del archivo de credenciales en el contenedor del ejecutor de acciones privadas. En este ejemplo, las tres credenciales están almacenadas en un único archivo. Sustituye `USERNAME`, `TOKEN` y `DOMAIN` por tu nombre de usuario, tu token y tu dominio. +Incluye todas las credenciales en un único archivo: -{{< code-block lang="json" filename="/etc/dd-action-runner/config/credentials/jenkins_creds.json" disable_copy="false" collapsible="true" >}} +{{< code-block lang="json" filename="/etc/dd-action-runner/config/credentials/temporal_mTLS_token.json" disable_copy="false" collapsible="true" >}} { "auth_type": "Token Auth", "credentials": [ { - "tokenName": "username", - "tokenValue": "USERNAME" + "tokenName": "serverAddress", + "tokenValue": "SERVER_ADDRESS" }, { - "tokenName": "token", - "tokenValue": "TOKEN" + "tokenName": "serverNameOverride", + "tokenValue": "SERVER_NAME_OVERRIDE" }, { - "tokenName": "domain", - "tokenValue": "DOMAIN" + "tokenName": "serverRootCACertificate", + "tokenValue": "SERVER_ROOT_CA_CERTIFICATE" + }, + { + "tokenName": "clientCertPairCrt", + "tokenValue": "CLIENT_CERTIFICATE" + }, + { + "tokenName": "clientCertPairKey", + "tokenValue": "CLIENT_KEY" } ] } {{< /code-block >}} -En la conexión del ejecutor, especifica la localización del archivo de credenciales en el contenedor del ejecutor de acciones privadas. Tu conexión Jenkins apunta a la misma ruta para todas las credenciales. En este ejemplo, el archivo de credenciales está almacenado en `/etc/dd-action-runner/config/credentials/jenkins_creds.json` en el ejecutor. +Sustituye `SERVER_ADDRESS`, `SERVER_NAME_OVERRIDE`, `SERVER_ROOT_CA_CERTIFICATE`, `CLIENT_CERTIFICATE` y `CLIENT_KEY` por tus credenciales. -{{< img src="service_management/single-file-creds.png" alt="Todas las rutas de credenciales de la conexión Jenkins apuntan a '/etc/dd-action-runner/config/credentials/jenkins_creds.json'" style="width:80%;" >}} +En la conexión del ejecutor, especifica la ubicación del archivo de credenciales en el contenedor del ejecutor de acción privado. En este ejemplo, el archivo de credenciales se almacena en `/etc/dd-action-runner/config/credentials/temporal_mTLS_token.json`. -{{% /collapse-content %}} -{{% collapse-content title="Ejemplo de varios archivos" level="p" %}} -En este ejemplo, cada credencial de Jenkins está almacenada en un archivo independiente. +{{< img src="service_management/par-temporal-mtls-credentials.png" alt="La ruta del archivo de credenciales es '/etc/dd-action-runner/config/credentials/temporal_mTLS_token.json'" style="width:80%;" >}} -Para la credencial de nombre de usuario, sustituye `USERNAME` por tu nombre de usuario. +### Autenticación TLS -{{< code-block lang="json" filename="/etc/dd-action-runner/config/credentials/jenkins_username.json" disable_copy="false" collapsible="true" >}} -{ - "auth_type": "Token Auth", - "credentials": [ - { - "tokenName": "username", - "tokenValue": "USERNAME" - } - ] -} -{{< /code-block >}} +La autenticación TLS temporal requiere las siguientes credenciales: -Para la credencial de token, sustituye `TOKEN` por tu token. - -{{< code-block lang="json" filename="/etc/dd-action-runner/config/credentials/jenkins_token.json" disable_copy="false" collapsible="true" >}} -{ - "auth_type": "Token Auth", - "credentials": [ - { - "tokenName": "token", - "tokenValue": "TOKEN" - } - ] -} -{{< /code-block >}} +| Credencial | Obligatorio | Descripción | +| ------------- | ----------- | ----------- | +| `serverAddress` | Sí | La dirección del servidor (nombre de host y puerto opcional). Si no se define, el puerto es por defecto 7233. | +| `serverNameOverride` | Sí | El nombre de servidor que anula el nombre de destino (SNI) utilizado para la comprobación del nombre de host de TLS. Esto puede ser útil cuando se tiene un proxy inverso delante de un servidor temporal y se desea anular el SNI para dirigir el tráfico al backend apropiado basándose en reglas personalizadas. | +| `serverRootCACertificate` | Sí | El certificado de CA raíz utilizado por el servidor. Si no se establece, y si el certificado del servidor lo emite una autoridad de confianza, la verificación seguirá siendo correcta (por ejemplo, si se utiliza un proveedor de nube como AWS, Google Cloud o Azure, que emiten certificados de servidor a través de CA reconocidas y de confianza). | -Para la credencial de dominio, sustituye `DOMAIN` por tu dominio. +Incluye todas las credenciales en un único archivo: -{{< code-block lang="json" filename="/etc/dd-action-runner/config/credentials/jenkins_domain.json" disable_copy="false" collapsible="true" >}} +{{< code-block lang="json" filename="/etc/dd-action-runner/config/credentials/temporal_TLS_token.json" disable_copy="false" collapsible="true" >}} { "auth_type": "Token Auth", "credentials": [ { - "tokenName": "domain", - "tokenValue": "DOMAIN" + "tokenName": "serverAddress", + "tokenValue": "SERVER_ADDRESS" + }, + { + "tokenName": "serverNameOverride", + "tokenValue": "SERVER_NAME_OVERRIDE" + }, + { + "tokenName": "serverRootCACertificate", + "tokenValue": "SERVER_ROOT_CA_CERTIFICATE" } ] } {{< /code-block >}} -En la conexión del ejecutor, especifica la localización del archivo de credenciales en el contenedor del ejecutor de acciones privadas. Tu conexión Jenkins apunta a la ruta para de cada credencial. En este ejemplo, el archivo de credenciales está almacenado en las siguientes localizaciones del ejecutor. -- `/etc/dd-action-runner/config/credentials/jenkins_username.json` -- `/etc/dd-action-runner/config/credentials/jenkins_token.json` -- `/etc/dd-action-runner/config/credentials/jenkins_domain.json` - -{{< img src="service_management/multi-file-creds.png" alt="Cada ruta apunta a la localización del archivo de credenciales en el contenedor del ejecutor" style="width:80%;" >}} - -{{% /collapse-content %}} - -{{% /tab %}} - -{{% tab "Acción HTTP" %}} +Sustituye `SERVER_ADDRESS`, `SERVER_NAME_OVERRIDE` y `SERVER_ROOT_CA_CERTIFICATE` por tus credenciales. -### Autenticación básica - -La autenticación básica para la conexión HTTP requiere un archivo de credenciales con un nombre de usuario y una contraseña. - -Sustituye `USERNAME` y `PASSWORD` por tu nombre de usuario y tu contraseña. +En la conexión del ejecutor, especifica la ubicación del archivo de credenciales en el contenedor del ejecutor de acción privado. En este ejemplo, el archivo de credenciales se almacena en `/etc/dd-action-runner/config/credentials/temporal_TLS_token.json`. -{{< code-block lang="json" filename="/etc/dd-action-runner/config/credentials/http_creds.json" disable_copy="false" collapsible="true" >}} -{ - "auth_type": "Basic Auth", - "credentials": [ - { - "username": "USERNAME", - "password": "PASSWORD" - } - ] -} -{{< /code-block >}} +{{< img src="service_management/par-temporal-tls-credentials.png" alt="La ruta al archivo de credenciales es '/etc/dd-action-runner/config/credentials/temporal_TLS_token.json'" style="width:80%;" >}} -En la conexión del ejecutor, especifica la localización del archivo de credenciales en el contenedor del ejecutor de acciones privadas. En este ejemplo, el archivo de credenciales está almacenado en `/etc/dd-action-runner/config/credentials/http_creds.json` en el ejecutor. +### Sin autenticación -{{< img src="service_management/http-creds.png" alt="La ruta al archivo de credenciales es '/etc/dd-action-runner/config/credentials/http_creds.json'" style="width:80%;" >}} +Este tipo de conexión utiliza la comunicación no cifrada y no se recomienda para entornos de producción. Solo debe utilizarse en entornos de desarrollo o para conexiones de test. Para uso en producción, considera el uso de los tipos de autenticación TLS o mTLS. -### Autenticación mediante token +El tipo de conexión requiere las siguientes credenciales: -La autenticación mediante token para la conexión HTTP requiere un archivo de credenciales con una matriz de nombres y valores de tokens. +| Credencial | Obligatorio | Descripción | +| ------------- | ----------- | ----------- | +| `address` | Sí | El nombre de host del servidor y el puerto opcional. El puerto es por defecto 7233 si la dirección solo contiene el host. | -El siguiente ejemplo incluye dos tokens denominados `TOKEN1` y `TOKEN2`. Sustituye los nombres y los valores de los tokens del ejemplo por los tuyos. -{{< code-block lang="json" filename="/etc/dd-action-runner/config/credentials/http_creds.json" disable_copy="false" collapsible="true" >}} -{ - "auth_type": "Token Auth", - "credentials": [ - { - "tokenName": "TOKEN1", - "tokenValue": "VALUE1" - }, - { - "tokenName": "TOKEN2", - "tokenValue": "VALUE2" - } - ] -} -{{< /code-block >}} +Para este tipo de conexión, no es necesario crear un archivo de credenciales, ya que la dirección no es un secreto y se almacena directamente en Datadog. Para configurarlo, indica la dirección del servidor: -En la conexión del ejecutor, especifica la localización del archivo de credenciales en el contenedor del ejecutor de acciones privadas. En este ejemplo, el archivo de credenciales está almacenado en `/etc/dd-action-runner/config/credentials/http_creds.json` en el ejecutor. +{{< img src="service_management/par-temporal-no-tls-credentials.png" alt="Una conexión temporal no segura" style="width:80%;" >}} -[101]: https://www.postgresql.org/docs/current/libpq-connect.html#LIBPQ-CONNSTRING-URIS {{% /tab %}} {{< /tabs >}} -[1]: /es/actions/private_actions +[1]: /es/actions/private_actions \ No newline at end of file diff --git a/content/es/developers/authorization/oauth2_in_datadog.md b/content/es/developers/authorization/oauth2_in_datadog.md index 88578a12419e8..7251fbe099fd7 100644 --- a/content/es/developers/authorization/oauth2_in_datadog.md +++ b/content/es/developers/authorization/oauth2_in_datadog.md @@ -49,7 +49,7 @@ Esta página proporciona una visión general paso a paso sobre cómo implementar Si el contexto `API_KEYS_WRITE` no ha sido añadido a tu cliente, este paso falla. Este endpoint genera una clave de API que solo se muestra una vez, y no puede volver a generarse a menos que el usuario la elimine dentro de su cuenta de Datadog. **Almacena este valor en una base de datos o localización segura**. -Para más información sobre la creación, prueba y publicación de clientes OAuth, consulta [OAuth para integraciones de Datadog][5]. +Para obtener más información sobre la creación, prueba y publicación de clientes OAuth, consulta [Crear una integración basada en API][5]. ### Iniciar la autorización de una localización de terceros @@ -93,7 +93,7 @@ El [protocolo PKCE][11] se integra con el flujo de concesión del código de aut - La aplicación envía una solicitud de token a Datadog con el código de autorización y `code_verifier` para obtener un token de acceso. El endpoint de token verifica el código de autorización transformando el `code_verifier` mediante el `code_challenge_method` y comparándolo con el valor original de `code_challenge`. -## Leer más +## Para leer más {{< partial name="whats-next/whats-next.html" >}} @@ -101,7 +101,7 @@ El [protocolo PKCE][11] se integra con el flujo de concesión del código de aut [2]: /es/api/latest/scopes/ [3]: /es/developers/datadog_apps/#oauth-api-access [4]: https://datatracker.ietf.org/doc/html/rfc6749#section-3.2.1 -[5]: /es/developers/integrations/oauth_for_integrations +[5]: /es/developers/integrations/api_integration [6]: /es/developers/authorization/oauth2_endpoints/?tab=authorizationendpoints#request-authorization-from-a-user [7]: /es/developers/authorization/oauth2_endpoints/?tab=apikeycreationendpoints#create-an-api-key-on-behalf-of-a-user [8]: https://tools.ietf.org/html/rfc6749#section-4.1 diff --git a/content/es/error_tracking/backend/capturing_handled_errors/ruby.md b/content/es/error_tracking/backend/capturing_handled_errors/ruby.md new file mode 100644 index 0000000000000..265af258aad3b --- /dev/null +++ b/content/es/error_tracking/backend/capturing_handled_errors/ruby.md @@ -0,0 +1,52 @@ +--- +code_lang: ruby +code_lang_weight: 10 +title: Captura de excepciones gestionadas en aplicaciones Ruby +type: multi-code-lang +--- + +## Requisitos de compatibilidad + +Debes estar ejecutando: +- Ruby `2.7+`. JRuby y TruffleRuby no son compatibles. +- Gema Datadog Ruby (`datadog`) `v2.16.0+`. + +## Empezando + +Antes de empezar, asegúrate de que ya has [instalado y configurado el Agent][1]. También necesitas [añadir la biblioteca de rastreo][2] directamente en la aplicación para instrumentarla. + +### Instrumentación automática + +Para habilitar la notificación automática de errores gestionados, puedes definir una de estas dos variables de entorno: + +`DD_ERROR_TRACKING_HANDLED_ERRORS` +: Para informar errores gestionados desde código de usuario, gemas de terceros o ambos. Los valores aceptados son: `user`, `third_party`, `all`. + +`DD_ERROR_TRACKING_HANDLED_ERRORS_INCLUDE` +: Para proporcionar una lista de rutas separadas por comas, nombres de archivo y nombres de gema de los que se informarán errores gestionados. Los posibles valores separados por comas deben ser: +: - **Un nombre de archivo**: Por ejemplo, `main` para instrumentar el archivo `main.rb`. +: - **Un nombre de carpeta**: Por ejemplo, `subdir` para instrumentar todos los archivos Ruby de las carpetas denominadas `subdir`. +: - **Un nombre de gema**: Por ejemplo, `rails` para instrumentar todos los archivos Ruby de la gema `rails` y todos los archivos Ruby de las carpetas denominadas `rails`. +: - **Una ruta absoluta** (una ruta que empiece por `/`): Por ejemplo, `/app/lib/mypackage/main.rb` para instrumentar ese archivo o `/app/lib/mypackage` para instrumentar todos los archivos Ruby de esa carpeta. +: - **Una ruta relativa al directorio actual** (una ruta que empieza por `./`): Por ejemplo, si ejecutas tu programa en `/app/`, utiliza `./lib/mypackage/main.rb` para instrumentar el archivo `main.rb`, o `./lib/mypackage/` para instrumentar todos los archivos Ruby de esa carpeta. + +: Para Ruby `v3.3+`, se buscará la ubicación donde se rescató el error. +: Para versiones anteriores de Ruby, se buscará la ubicación donde se advirtió el error. + +Alternativamente, puedes definir cualquiera de estos parámetros de Error Tracking en código, dentro de un bloque `Datadog.configure`: + +- `c.error_tracking.handled_errors` para informar de errores gestionados desde código de usuario, gemas de terceros o ambos. Los valores aceptados son: `user,third_party,all`. +- `c.error_tracking.handled_errors_include` para proporcionar una lista de rutas separadas por comas, nombres de archivo y nombres de gema de los que se informarán errores gestionados. Los valores posibles se especifican en `DD_ERROR_TRACKING_HANDLED_ERRORS_INCLUDE` en la tabla anterior. Para Ruby `v3.3+`, se buscará la ubicación en la que se rescató el error. Para versiones anteriores de Ruby, se buscará la ubicación en la que se advirtió el error. + +```Ruby +Datadog.configure do |c| + # To report handled errors from user code + c.error_tracking.handled_errors = 'user' + + # Or to provide a list of comma-separated paths, file names, and gem names for which handled errors will be reported + c.error_tracking.handled_errors_include = ['sinatra', 'subdir'] +end +``` + +[1]: /es/error_tracking/backend/getting_started/#getting-started-with-backend-error-tracking +[2]: /es/tracing/trace_collection/automatic_instrumentation/dd_libraries/ruby \ No newline at end of file diff --git a/content/es/glossary/terms/lcp_(RUM).md b/content/es/glossary/terms/lcp_(RUM).md new file mode 100644 index 0000000000000..cac57aa1c6d18 --- /dev/null +++ b/content/es/glossary/terms/lcp_(RUM).md @@ -0,0 +1,6 @@ +--- +core_product: +- real user monitoring +title: Largest Contentful Paint (LCP) +--- +En Datadog RUM, Largest Contentful Paint (LCP) es un indicador de rendimiento web que mide el tiempo que tarda el contenido más grande de una página web en hacerse visible para el usuario. Es una métrica Core Web Vital que Google utiliza para evaluar la experiencia de carga de un sitio web. \ No newline at end of file diff --git a/content/es/glossary/terms/security_posture_score.md b/content/es/glossary/terms/security_posture_score.md index 7c42e732c7d9e..ea13cf36331b6 100644 --- a/content/es/glossary/terms/security_posture_score.md +++ b/content/es/glossary/terms/security_posture_score.md @@ -1,7 +1,7 @@ --- core_product: - seguridad -- csm +- cloud security synonyms: - puntuación de la posición - puntuación de cumplimiento @@ -10,20 +10,20 @@ title: puntuación de la posición de seguridad {{< jqmath-vanilla >}} -Disponible para [Cloud Security Management Misconfigurations][3], la puntuación de la posición de seguridad representa el porcentaje de tu entorno que satisface todas tus reglas activas de cumplimiento de [nube][1] e [infraestructura][2] listas para utilizar de Datadog. +Disponible para [errores de configuración de Cloud Security][3], la puntuación de la postura de seguridad representa el porcentaje de tu entorno que satisface todas tus reglas Datadog predefinidas de cumplimiento de [nube][1] e [infraestructura][2] de activas. **Fórmula**: -$${{({\text"Pcrictical"/\text"Pcritical + Fcritical"})^2 *8}+{(\text"Phigh"/\text"Phigh + Fhigh") *6}+{(\text"Pmedium"/\text"Pmedium + Fmedium") *3}+{(\text"Plow"/\text"Plow + Flow") *2}+{(\text"Pinfo"/\text"Pinfo + Finfo") *1}}/{8+6+3+2+1}$$ +$${{({\text"Pcritical"/\text"Pcritical + Fcritical"})^2 *8}+{(\text"Phigh"/\text"Phigh + Fhigh") *6}+{(\text"Pmedium"/\text"Pmedium + Fmedium") *3}+{(\text"Plow"/\text"Plow + Flow") *2}+{(\text"Pinfo"/\text"Pinfo + Finfo") *1}}/{8+6+3+2+1}$$ -- P es el número de errores de configuración que se evalúan para aprobarse. -- F es el número de errores de configuración que se evalúan como fallas. +- P es el número de hallazgos de errores de configuración que se evalúan como aprobados. +- F es el número de hallazgos de errores de configuración que se evalúan como fallidos. -La fórmula utiliza una relación ponderada que tiene en cuenta la gravedad del error de configuración y el número de errores de configuración aprobados/fallidos para cada gravedad. Solo se incluyen en el cálculo las reglas y errores de configuración que tienen la etiqueta (tag) `scored:true`. +La fórmula utiliza una relación ponderada que tiene en cuenta la gravedad del error de configuración y el número de hallazgos de aprobación/fallo para cada gravedad. Solo se incluyen en el cálculo las reglas y conclusiones que tienen la etiqueta (tag) `scored:true`. -Si no hay errores de configuración para una gravedad determinada, dicha gravedad no se incluye en el cálculo. Por ejemplo, si no hay errores de configuración críticos, los denominadores serían 6+3+2+1 (excluyendo 8 para críticos). +Si no hay hallazgos para una gravedad determinada, la gravedad no se incluye en el cálculo. Por ejemplo, si no hay hallazgos críticos, los denominadores serían 6+3+2+1 (excluyendo 8 para crítico). -Puedes mejorar tu puntuación al corregir los errores de configuración, ya sea al solucionar los problemas subyacentes o silenciar el error de configuración del recurso afectado. La puntuación de la posición se actualiza cada hora. +Puedes mejorar tu puntuación corrigiendo los errores de configuración, ya sea solucionando los problemas subyacentes o silenciando la regla para el recurso afectado. La puntuación de la postura se actualiza cada hora. [1]: /es/security/default_rules/#cat-posture-management-cloud [2]: /es/security/default_rules/#cat-posture-management-infra diff --git a/content/es/glossary/terms/system_probe.md b/content/es/glossary/terms/system_probe.md new file mode 100644 index 0000000000000..f509d2f159a67 --- /dev/null +++ b/content/es/glossary/terms/system_probe.md @@ -0,0 +1,7 @@ +--- +core_product: +- protección de cargas de trabajo +- seguridad +title: System Probe +--- +System Probe es un componente del Datadog Agent que se utiliza para monitorizar y recopilar métricas a nivel de sistema, como datos de red y de rendimiento, de los hosts donde se ejecutan tus cargas de trabajo Kubernetes. System Probe proporciona información detallada sobre el sistema y la actividad a nivel de contenedor y te ayuda a monitorizar la salud de la infraestructura y de la aplicación en clústeres Kubernetes. \ No newline at end of file diff --git a/content/es/integrations/dagster.md b/content/es/integrations/dagster.md new file mode 100644 index 0000000000000..96e500115295d --- /dev/null +++ b/content/es/integrations/dagster.md @@ -0,0 +1,108 @@ +--- +app_id: dagster-plus +app_uuid: 019635d0-d25c-7e1b-86de-83baaac55b5e +assets: + dashboards: + Dagster+ Overview: assets/dashboards/dagster__overview.json + integration: + auto_install: true + configuration: {} + events: + creates_events: false + process_signatures: [] + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 44669257 + source_type_name: dagster-plus + supports_ddr_coordinated_failover: false + logs: + source: dagster-plus + oauth: assets/oauth_clients.json +author: + homepage: https://dagster.io + name: Dagster+ + sales_email: sales@dagster.cloud + support_email: support@dagster.cloud + vendor_id: dagster +categories: +- orquestación +- recopilación de logs +- nube +- ia/ml +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/dagster/README.md +display_on_public_website: true +draft: false +git_integration_title: dagster +integration_id: dagster-plus +integration_title: Dagster+ +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: dagster +public_title: Dagster+ +short_description: Recopilar logs de eventos de tus despliegues de Dagster+ +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Categoría::Orquestación + - Category::Log Collection + - Categoría::Nube + - Category::AI/ML + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Tipo de datos enviados::Logs + configuration: README.md#Configuración + description: Recopilar logs de eventos de tus despliegues de Dagster+ + media: + - caption: Dashboard de información general de Dagster + image_url: images/Screenshot 2025-04-15 at 2.33.38 PM.png + media_type: imagen + overview: README.md#Información general + support: README.md#Soporte + title: Dagster+ + uninstallation: README.md#Desinstalación +--- + + + + +## Información general + +Dagster es una plataforma open-source de última generación diseñada para crear, ejecutar y monitorizar flujos de trabajo de recursos de datos. La integración de Dagster+ transmite [logs de eventos][1] a Datadog e incluye un pipeline de logs y un dashboard predefinidos. + +## Configuración + +1. En Datadog, ve al cuadro de la integración de Dagster y haz clic en **Connect Accounts** (Conectar cuentas) para iniciar el flujo de OAuth. + +2. Inicia sesión en Dagster+ utilizando la cuenta que quieres utilizar para esta integración. + +3. Cuando se te redirija a Datadog, haz clic en **Authorize** (Autorizar) para conceder a Dagster+ permiso para crear una clave de API para enviar logs a tu cuenta de Datadog. + +### Validación + +Luego de 10 minutos de finalizar la configuración de la integración, el dashboard de información general de Dagster empieza a mostrar nuevos eventos de logs, siempre que haya trabajos de Dagster activos emitiendo eventos. + +## Desinstalación + +1. Ve al cuadro de la integración de Dagster+ y haz clic en **Uninstall Integration** (Desinstalar integración). + +2. Luego de desinstalar la integración, se revocan todas las autorizaciones anteriores. + +3. Desactiva todas las claves de API asociadas a esta integración buscando el nombre de la integración en la [página de claves de API][2]. + +## Soporte + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Dagster][3]. + + +[1]: https://docs.dagster.io/guides/monitor/logging +[2]: https://github.com/DataDog/integrations-extras/blob/master/organization-settings/api-keys?filter=Dagster +[3]: https://dagster.io/support \ No newline at end of file diff --git a/content/es/integrations/delinea_privilege_manager.md b/content/es/integrations/delinea_privilege_manager.md new file mode 100644 index 0000000000000..bff1f14c8c0f8 --- /dev/null +++ b/content/es/integrations/delinea_privilege_manager.md @@ -0,0 +1,251 @@ +--- +app_id: delinea-privilege-manager +app_uuid: 9b65ff08-afbc-4ad2-aaf1-9e06d959e309 +assets: + dashboards: + Delinea Privilege Manager - Application Control Events: assets/dashboards/delinea_privilege_manager_application_control_events.json + Delinea Privilege Manager - Local Security Events: assets/dashboards/delinea_privilege_manager_local_security_events.json + Delinea Privilege Manager - Overview: assets/dashboards/delinea_privilege_manager_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 33204336 + source_type_name: Delinea Privilege Manager + logs: + source: delinea-privilege-manager +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +- seguridad +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/delinea_privilege_manager/README.md +display_on_public_website: true +draft: false +git_integration_title: delinea_privilege_manager +integration_id: delinea-privilege-manager +integration_title: Delinea Privilege Manager +integration_version: 1.0.0 +is_public: true +manifest_version: 2.0.0 +name: delinea_privilege_manager +public_title: Delinea Privilege Manager +short_description: Obtén información sobre los eventos de Delinea Privilege Manager. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Log Collection + - Category::Security + - Offering::Integration + - Submitted Data Type::Logs + configuration: README.md#Setup + description: Obtén información sobre los eventos de Delinea Privilege Manager. + media: + - caption: 'Delinea Privilege Manager: información general' + image_url: images/delinea_privilege_manager_overview.png + media_type: imagen + - caption: 'Delinea Privilege Manager: eventos de control de aplicaciones' + image_url: images/delinea_privilege_manager_application_control_events.png + media_type: imagen + - caption: 'Delinea Privilege Manager: eventos de seguridad local' + image_url: images/delinea_privilege_manager_local_security_events.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Delinea Privilege Manager +--- + + + + +## Información general + +[Delinea Privilege Manager][1] es una solución de control de aplicaciones y privilegios mínimos para Windows y macOS, capaz de respaldar a empresas y organizaciones de rápido crecimiento a escala. La seguridad local y el control de aplicaciones son los dos componentes principales de Delinea Privilege Manager. + +Esta integración admite los siguientes tipos de logs: +- **Eventos de acción de la aplicación**: los eventos de acción de la aplicación contiene información genérica sobre la aplicación que se ejecutó, la política que se activó, la fecha y la hora, el ordenador y el usuario. +- **Eventos de justificación de la aplicación**: los eventos de justificación de la aplicación se generan cuando una aplicación que requiere un proceso de justificación es ejecutada por un usuario. +- **Eventos de acción de la aplicación mal clasificada**: los eventos de acción de la aplicación mal clasificada se generan cuando se instala o ejecuta una aplicación con una calificación de seguridad deficiente. +- **Eventos de divulgación de contraseñas**: los eventos de divulgación de contraseñas contienen cualquier tipo de actividad de divulgación de contraseñas. +- **Eventos de archivos recién detectados**: los eventos de archivos recién detectados contienen información sobre archivos recién detectados en el sistema. +- **Eventos del historial de cambios**: los eventos del historial de cambios contienen información sobre cualquier cambio realizado en Delinea Privilege Manager. + +Obtén información detallada sobre estos logs utilizando los dashboards predefinidos. La integración también incluye reglas de detección de Cloud SIEM listas para usar para mejorar la monitorización y la seguridad. + +## Configuración + +### Instalación + +Para instalar la integración de Delinea Privilege Manager, ejecuta el siguiente comando de instalación del Agent seguido de los pasos siguientes. Para más información, consulta la documentación de [Gestión de integraciones][2]. + +**Nota**: Este paso no es necesario para el Agent versión >= 7.63.0. + +Comando de Linux + ```shell + sudo -u dd-agent -- datadog-agent integration install datadog-delinea-privilege-manager==1.0.0 + ``` + +### Configuración + +#### Recopilación de logs + +1. Por defecto, la recopilación de logs está desactivada en el Datadog Agent. Para activarla, modifica el archivo `datadog.yaml`:: + + ```yaml + logs_enabled: true + ``` +2. Añade el siguiente bloque de configuración a tu archivo `delinea_privilege_manager.d/conf.yaml` para empezar a recopilar tus logs. + + Ve el ejemplo [delinea_privilege_manager.d/conf.yaml][3] para las opciones disponibles de configuración. El protocolo apropiado (ya sea TCP o UDP) debe ser elegido basado en la configuración de reenvío de syslog de Delinea Privilege Manager. + + - **TCP**: si se utiliza el protocolo TCP para el reenvío de syslog, configura `type` en `tcp`. + - **UDP**: si se utiliza el protocolo UDP para el reenvío de syslog, configura `type` en `udp`. + + ```yaml + logs: + - type: + port: + source: delinea-privilege-manager + service: delinea-privilege-manager + ``` + **Notas**: + - `PORT`: el puerto debe ser el mismo que el proporcionado en la sección **Configurar reenvío de mensajes syslog desde Delinea Privilege Manager**. + - Es recomendado mantener los valores servicio y fuente sin cambios, ya que estos parámetros son parte integral de la operación del pipeline. + +3. [Reinicia el Agent][4]. + +#### Configurar reenvío de mensajes syslog desde Delinea Privilege Manager + + - Creación de una configuración del servidor Syslog + 1. Ve a **Admin** > **Configuration** (Administrador > Configuración) y selecciona la pestaña **Foreign Systems** (Sistemas extranjeros). + 2. Haz clic en **Syslog** para abrir la página de configuraciones de syslog y, a continuación, haz clic en el botón **Create** (Crear). + 3. Indica un nombre de configuración y la dirección del servidor syslog (TCP o UDP) + - Para TCP, la configuración debe tener el siguiente formato: tcp://[host]:port + - Para UDP, la configuración debe tener el siguiente formato: udp://[host]:port + + **host**: la dirección IP donde se ejecuta tu datadog-agent. + + **Puerto**: número de puerto para enviar mensajes syslog. + 4. Haz clic en el botón **Create** (Crear). Confirma los datos añadidos y vuelve al menú Admin (Administrador). + - Configuración de tareas del servidor Syslog: + 1. Tras añadir una nueva conexión Syslog, ve a **Admin** > **Tasks** (Administrador > Tareas) para enviar logs a tu servidor Syslog. + 2. Expande las carpetas **Server Tasks** > **Foreign Systems** (Tareas del servidor > Sistemas externos), selecciona **SysLog** y haz clic en **Create** (Crear). + 3. En el menú desplegable **Template** (Plantilla), selecciona la plantilla **Send Application Action Events to Syslog** (Enviar eventos de acción de la aplicación a Syslog). + 4. Añade un **Name** (Nombre) para esta tarea (establecido en **Application Action Events** (Eventos de acción de la aplicación)) y **Event Name** (Nombre de evento) (configurado como **Application Action Events** (Eventos de acción de la aplicación)), y especifica **Event Severity** (Seguridad de evento) (0: mínimo, 10: máximo), o manténla como está. + + 5. En el menú desplegable **SysLog System** (Sistema SysLog), selecciona tu sistema externo de servidor SysLog (configurado anteriormente). + 6. Proporciona un valor para **Security Ratings Provider** (Proveedor de calificaciones de seguridad) si es necesario, o déjalo como está. + 7. Haz clic en **Create** (Crear). + + **Nota**: No modifiques **Data source** (Fuente de datos) y asegúrate de que el conmutador **Replace spaces** (Reemplazar espacios) está desactivado, ya que cualquier cambio en estos parámetros afectará directamente a la funcionalidad de la integración de Delinea Privilege Manager. + + 8. Una vez creado, desplázate hasta la sección Schedule (Horario) y haz clic en el botón **New Schedule** (Nuevo horario). Proporciona los siguientes datos: + 1. Detalles del horario: + - Proporciona un **Schedule Name** (Nombre del horario). + 2. Horario: + 1. Para **Schedule Type** (Tipo de horario), selecciona **Shared Schedule** (Horario compartido) en el menú desplegable. + 2. En **Shared Schedule** (Horario compartido), selecciona **Quarter-Hour** (Cuarto de hora) en el menú desplegado. + 9. Pulsa el botón **Save changes** (Guardar cambios) disponible en la esquina superior derecha de la página. + +Este proceso configura la tarea de reenvío de Syslog para **Application Action Events** (Eventos de acción de la aplicación). Para otros tipos de eventos mencionados en la tabla siguiente, crea nuevas tareas para cada evento con la plantilla y el nombre de evento respectivos, y sigue todos los pasos anteriores. + + **Nota**: En el paso 4, asegúrate de establecer el **Name** (Nombre) para la tarea y el **Event Name** (Nombre de evento) de acuerdo con la plantilla seleccionada, tal y como se especifica en la siguiente tabla. El **Nombre de evento** es esencial para la funcionalidad del pipeline de Delinea Privilege Manager y debe ser proporcionado exactamente como se especifica. + +| Plantilla | Nombre de evento | Nombre | +| --------- | -------------- |-------------- +| Enviar eventos de acción de la aplicación a Syslog | Eventos de acción de la aplicación | Eventos de acción de la aplicación | +| Enviar eventos de justificación de la aplicación a Syslog | Eventos de justificación de la aplicación | Eventos de justificación de la aplicación | +| Enviar eventos del historial de cambios a Syslog | No aplicable | Eventos del historial de cambios | +| Enviar eventos de archivo recién detectado a Syslog | Eventos de archivo recién detectado | Eventos de archivo recién detectado | +| Enviar eventos de divulgación de contraseñas a Syslog | Eventos de divulgación de contraseñas | Eventos de divulgación de contraseñas | +| Enviar eventos de acción de aplicaciones mal calificadas a Syslog | Eventos de acción de aplicaciones mal calificadas | Eventos de acción de aplicaciones mal calificadas | + +### Validación + +[Ejecuta el comando de estado del Agent][5] y busca `Delinea Privilege Manager` en la sección Checks. + +## Datos recopilados + +### Log + +| Formato | Tipos de eventos | +| --------- | -------------- | +| CEF | Eventos de acción de la aplicación, Eventos de acción de aplicaciones mal calificadas, Eventos de justificación de la aplicación, Eventos de divulgación de contraseñas, Eventos de archivo recién detectado, Eventos de historial de cambios | + +### Métricas + +La integración de Delinea Privilege Manager no incluye ninguna métrica. + +### Eventos + +La integración de Delinea Privilege Manager no incluye ningún evento. + +### Checks de servicio + +La integración de Delinea Privilege Manager no incluye ningún check de servicio. + +## Solucionar problemas + +**Permiso denegado mientras se vincula el puerto:** + +Si aparece un error de **Permission denied** (Permiso denegado) al vincular puertos en los logs del Agent: + +1. La vinculación a un número de puerto inferior a 1024 requiere permisos elevados. Concede acceso al puerto mediante el comando `setcap`: + ```shell + sudo setcap CAP_NET_BIND_SERVICE=+ep /opt/datadog-agent/bin/agent/agent + ``` + +2. Comprueba que la configuración es correcta mediante la ejecución del comando `getcap`: + + ```shell + sudo getcap /opt/datadog-agent/bin/agent/agent + ``` + + Con el resultado esperado: + + ```shell + /opt/datadog-agent/bin/agent/agent = cap_net_bind_service+ep + ``` + + **Nota**: Debes ejecutar el comando `setcap` cada vez que actualices el Agent. + +3. [Reinicia el Agent][4]. + + +**No se están recopilando datos:** + +Asegúrate de que se evita el tráfico del puerto configurado si el firewall está activado. + +**Puerto ya en uso:** + +Si aparece el error **Port Already in Use** (El puerto está en uso), consulta las siguientes instrucciones. El siguiente ejemplo es para el puerto 514: + +- En los sistemas que utilizan Syslog, si el Agent escucha eventos en el puerto 514, puede aparecer el siguiente error en los logs del Agent: `Can't start UDP forwarder on port 514: listen udp :514: bind: address already in use`. Este error se produce porque, por defecto, Syslog escucha en el puerto 514. Para resolver este error, sigue **uno** de los pasos siguientes: + - Desactiva Syslog. + - Configura el Agent para escuchar en un puerto diferente disponible. + + +Para obtener más ayuda, ponte en contacto con el [soporte de Datadog][6]. + +[1]: https://delinea.com/products/privilege-manager +[2]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=linux#install +[3]: https://github.com/DataDog/integrations-core/blob/master/delinea_privilege_manager/datadog_checks/delinea_privilege_manager/data/conf.yaml.example +[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[6]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/harness_harness_notifications.md b/content/es/integrations/harness_harness_notifications.md new file mode 100644 index 0000000000000..30d12f4f3a994 --- /dev/null +++ b/content/es/integrations/harness_harness_notifications.md @@ -0,0 +1,116 @@ +--- +app_id: harness-harness-notifications +app_uuid: 0194c0d4-f822-7117-be7a-1ed1ccf587e7 +assets: + dashboards: + Harness Notifications Integration Overview: assets/dashboards/harness_notifications_integration_overview.json + integration: + auto_install: true + events: + creates_events: true + process_signatures: [] + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 38607293 + source_type_name: harness_notifications +author: + homepage: https://www.harness.io/ + name: Harness + sales_email: sales@harness.io + support_email: support@harness.io + vendor_id: harness +categories: +- notificaciones +- gestión de eventos +- events +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/harness_harness_notifications/README.md +display_on_public_website: true +draft: false +git_integration_title: harness_harness_notifications +integration_id: harness-harness-notifications +integration_title: Harness Notifications +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: harness_harness_notifications +public_title: Harness Notifications +short_description: Ingerir pipelines de notificaciones de Harness como eventos de + Datadog +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Notifications + - Categoría::Gestión de eventos + - Category::Alerting + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Events + configuration: README.md#Setup + description: Ingerir pipelines de notificaciones de Harness como eventos de Datadog + media: + - caption: Dashboard de información general sobre la integración Harness Notifications + en Datadog + image_url: images/Screenshot 2025-03-05 at 11.45.07 PM-2560x1440.png + media_type: imagen + - caption: Notificaciones de pipelines de Harness ingeridas en Datadog + image_url: images/Screenshot 2025-03-05 at 9.18.27 AM-2560x1440.png + media_type: imagen + - caption: Seleccionar eventos de pipelines para notificaciones en Harness + image_url: images/Screenshot 2025-02-03 at 2.34.46 PM-2560x1440.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Harness Notifications + uninstallation: README.md#Uninstallation +--- + + + + +## Información general + +Harness es una plataforma CI/CD de autoservicio que permite a ingenieros y DevOps crear, probar, desplegar y comprobar software bajo demanda. Con esta integración, puedes enviar notificaciones de eventos de Harness a Datadog de forma ininterrumpida, lo que te garantiza una visibilidad en tiempo real de las actualizaciones críticas de pipelines en tus flujos de trabajo de monitorización existentes. Estas notificaciones están disponibles en el [Explorador de eventos][1] de Datadog y se muestran en el dashboard predefinido. + +**Nota**: La capacidad de configurar notificaciones de Datadog en Harness está detrás de un marcador de características. Ponte en contacto con el [servicio de asistencia de Harness][2] para activar esta función. Consulta la [documentación de Harness][3] para obtener más información sobre esta integración. + +## Configuración + +Una vez instalada la integración, estos eventos se etiquetan con `source:harness_notifications`. + +### Configurar notificaciones de pipelines de Datadog en Harness + +1. En Harness Pipeline Studio, haz clic en **Notify** (Notificar) en la barra lateral derecha. +2. Haz clic en **+ Notifications** (+ notificaciones) para crear un nuevo canal. +3. Asigna un nombre a tu canal de notificación Datadog. +4. Selecciona los eventos de pipeline que quieres monitorizar. +5. En Notification Method (Método de notificación), selecciona **Datadog(/v1/events API)** como el tipo de canal. +6. Introduce tu URL de Datadog, que debe ir seguida de `/api/v1/events` (por ejemplo, `https://app.datadoghq.com/api/v1/events/`) +7. Introduce tu [clave de API Datadog][4]. +8. (Opcional) Añade cabeceras, si es necesario. +9. Prueba la configuración y haz clic en **Finish** (Finalizar). + +## Desinstalación + +Los canales de notificación se pueden activar, desactivar o eliminar desde la página de notificaciones. +- Para activar o desactivar reglas de notificación, coloca el interruptor en **Enabled** (Activado). +- Para eliminarlas, selecciona **:** para ver más opciones y luego haz clic en **Delete** (Eliminar). + + +## Asistencia + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Harness][5]. + + +[1]: https://docs.datadoghq.com/es/service_management/events/explorer/ +[2]: mailto:support@harness.io +[3]: https://developer.harness.io/docs/continuous-delivery/x-platform-cd-features/cd-steps/notify-users-of-pipeline-events/#datadog-notifications +[4]: https://docs.datadoghq.com/es/account_management/api-app-keys/ +[5]: https://www.harness.io/support \ No newline at end of file diff --git a/content/es/integrations/hazelcast.md b/content/es/integrations/hazelcast.md index 70262ce6dffb9..b835a06a4cf4b 100644 --- a/content/es/integrations/hazelcast.md +++ b/content/es/integrations/hazelcast.md @@ -1,90 +1,37 @@ --- app_id: hazelcast -app_uuid: 00434289-3c74-4c25-8841-9e0c826510c2 -assets: - dashboards: - Hazelcast Overview: assets/dashboards/overview.json - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - metrics: - check: - - hazelcast.mc.license_expiration_time - - hazelcast.instance.running - metadata_path: metadata.csv - prefix: hazelcast. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10095 - source_type_name: Hazelcast -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - almacenes de datos - almacenamiento en caché - recopilación de logs custom_kind: integración -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/hazelcast/README.md -display_on_public_website: true -draft: false -git_integration_title: hazelcast -integration_id: hazelcast -integration_title: Hazelcast -integration_version: 6.1.0 -is_public: true -manifest_version: 2.0.0 -name: hazelcast -public_title: Hazelcast -short_description: Monitoriza los miembros de Hazelcast y el Centro de Gestión. +description: Monitoriza los miembros de Hazelcast y el Centro de Gestión. +integration_version: 6.2.0 +media: [] supported_os: -- Linux +- linux - macOS -- Windows -tile: - changelog: CHANGELOG.md - classifier_tags: - - Sistema operativo compatible::Linux - - Sistema operativo compatible::macOS - - Sistema operativo compatible::Windows - - Categoría::Almacenes de datos - - Categoría::Almacenamiento en caché - - Categoría::Recopilación de logs - - Oferta::Integración - configuration: README.md#Configuración - description: Monitoriza los miembros de Hazelcast y el Centro de Gestión. - media: [] - overview: README.md#Información general - support: README.md#Soporte - title: Hazelcast +- windows +title: Hazelcast --- - - - - ## Información general -Este check monitoriza [Hazelcast][1] v4.0 o posterior. +Este check monitoriza [Hazelcast](https://hazelcast.org) v4.0+. ## Configuración ### Instalación -El check de Hazelcast está incluido en el paquete del [Datadog Agent][2]. +El check de Hazelcast está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest). No es necesaria ninguna instalación adicional en tu servidor. ### Configuración {{< tabs >}} + {{% tab "Host" %}} -#### Host +#### host Para configurar este check para un Agent que se ejecuta en un host: @@ -92,18 +39,18 @@ Para configurar este check para un Agent que se ejecuta en un host: 1. Edita el archivo `hazelcast.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración del Agent para empezar a recopilar tus datos de rendimiento de Hazelcast. - Para conocer todas las opciones de configuración disponibles, consulta el [hazelcast.d/conf.yam de ejemplo][1]. + Consulta el [sample hazelcast.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/hazelcast/datadog_checks/hazelcast/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. - Este check tiene un límite de 350 métricas por instancia. El número de métricas devueltas se indica en [la página de estado][2]. + Este check tiene un límite de 350 métricas por instancia. El número de métricas devueltas se indica en [la página de estado](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information). Puedes especificar las métricas que te interesan editando la configuración a continuación. - Para saber cómo personalizar las métricas a recopilar, consulta la [documentación de checks de JMX][3] para obtener instrucciones más detalladas. - Si necesitas monitorizar más métricas ponte en contacto con el [soporte de Datadog][4]. + Para saber cómo personalizar las métricas que se recopilarán, consulta la [documentación de checks de JMX](https://docs.datadoghq.com/integrations/java/) para obtener instrucciones más detalladas. + Si necesitas monitorizar más métricas, ponte en contacto con [asistencia técnica de Datadog](https://docs.datadoghq.com/help/). -2. [Reinicia el Agent][5]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). ##### Recopilación de logs -1. Hazelcast admite muchos [adaptadores de generación de logs][6] diferentes. El siguiente es un ejemplo de archivo `log4j2.properties`: +1. Hazelcast es compatible con muchos [adaptadores de registro] (https://docs.hazelcast.org/docs/latest/manual/html-single/index.html#logging-configuration) diferentes. He aquí un ejemplo de archivo `log4j2.properties`: ```text rootLogger=file @@ -140,21 +87,21 @@ Para configurar este check para un Agent que se ejecuta en un host: #log4j.logger.com.hazelcast.hibernate=debug ``` -2. Por defecto, el pipeline de integración de Datadog admite el siguiente [patrón][7] de conversión: +1. En forma predeterminada, el pipeline de la integración de Datadog es compatible con el siguiente [patrón] de conversión (https://logging.apache.org/log4j/2.x/manual/layouts.html#Patterns): ```text %d{yyyy-MM-dd HH:mm:ss} [%thread] %level{length=10} %c{1}:%L - %m%n ``` - Clona y edita el [pipeline de la integración][8] si tienes un formato diferente. + Clona y edita el [pipeline de integración](https://docs.datadoghq.com/logs/processing/#integration-pipelines) si tienes un formato diferente. -3. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en tu archivo `datadog.yaml`: +1. La recopilación de logs está desactivada de forma predeterminada en el Datadog Agent. Actívala en tu archivo `datadog.yaml`: ```yaml logs_enabled: true ``` -4. Añade el siguiente bloque de configuración a tu archivo `hazelcast.d/conf.yaml`. Cambia los valores de los parámetros `path` y `service` en función de tu entorno. Consulta el [hazelcast.d/conf.yaml de ejemplo][1] para ver todas las opciones de configuración disponibles. +1. Añade el siguiente bloque de configuración a tu archivo `hazelcast.d/conf.yaml`. Cambia los valores de los parámetros `path` y `service` en función de tu entorno. Consulta [ejemplo hazelcast.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/hazelcast/datadog_checks/hazelcast/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. ```yaml logs: @@ -168,41 +115,33 @@ Para configurar este check para un Agent que se ejecuta en un host: pattern: \d{4}\.\d{2}\.\d{2} ``` -5. [Reinicia el Agent][5]. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). -[1]: https://github.com/DataDog/integrations-core/blob/master/hazelcast/datadog_checks/hazelcast/data/conf.yaml.example -[2]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[3]: https://docs.datadoghq.com/es/integrations/java/ -[4]: https://docs.datadoghq.com/es/help/ -[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[6]: https://docs.hazelcast.org/docs/latest/manual/html-single/index.html#logging-configuration -[7]: https://logging.apache.org/log4j/2.x/manual/layouts.html#Patterns -[8]: https://docs.datadoghq.com/es/logs/processing/#integration-pipelines {{% /tab %}} -{{% tab "Contenedorizado" %}} + +{{% tab "En contenedores" %}} #### En contenedores ##### Recopilación de métricas -Para obtener información sobre entornos en contenedores, consulta la guía [Autodiscovery con JMX][1]. +Para entornos en contenedores, consulta la guía [Autodiscovery con JMX](https://docs.datadoghq.com/agent/guide/autodiscovery-with-jmx/?tab=containerizedagent). ##### Recopilación de logs -La recopilación de Logs se encuentra deshabilitada por defecto en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de Docker][2]. +La recopilación de logs está desactivada de forma predeterminada en el Datadog Agent. Para activarla, consulta [Recopilación de logs de Docker](https://docs.datadoghq.com/agent/docker/log/). | Parámetro | Valor | | -------------- | -------------------------------------------------- | | `` | `{"source": "hazelcast", "service": ""}` | -[1]: https://docs.datadoghq.com/es/agent/guide/autodiscovery-with-jmx/?tab=containerizedagent -[2]: https://docs.datadoghq.com/es/agent/docker/log/ {{% /tab %}} + {{< /tabs >}} ### Validación -[Ejecuta el subcomando de estado del Agent][3] y busca `hazelcast` en la sección **JMXFetch**: +[Ejecuta el subcomando de estado del Agent] (https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `hazelcast` en la sección **JMXFetch**: ```text ======== @@ -221,20 +160,309 @@ JMXFetch ## Datos recopilados ### Métricas -{{< get-metrics-from-git "hazelcast" >}} +| | | +| --- | --- | +| **hazelcast.imap.local_backup_count**
(gauge) | Recuento de copias de seguridad| +| **hazelcast.imap.local_backup_entry_count**
(gauge) | Recuento de entradas de copia de seguridad| +| **hazelcast.imap.local_backup_entry_memory_cost**
(gauge) | Costo de entradas de la copia de seguridad| +| **hazelcast.imap.local_creation_time**
(gauge) | Hora de creación| +| **hazelcast.imap.local_dirty_entry_count**
(gauge) | Recuento de entradas con cambios| +| **hazelcast.imap.local_event_operation_count**
(gauge) | Recuento de eventos| +| **hazelcast.imap.local_get_operation_count**
(gauge) | Obtener recuento de operaciones| +| **hazelcast.imap.local_heap_cost**
(gauge) | Costo del montón| +| **hazelcast.imap.local_hits**
(gauge) | Resultados| +| **hazelcast.imap.local_last_access_time**
(gauge) | Hora del último acceso| +| **hazelcast.imap.local_last_update_time**
(gauge) | Hora de la última actualización| +| **hazelcast.imap.local_locked_entry_count**
(gauge) | Recuento de entradas bloqueadas| +| **hazelcast.imap.local_max_get_latency**
(gauge) | Latencia máxima de obtención| +| **hazelcast.imap.local_max_put_latency**
(gauge) | Latencia máxima de ventas| +| **hazelcast.imap.local_max_remove_latency**
(gauge) | Latencia máxima de eliminación| +| **hazelcast.imap.local_other_operation_count**
(gauge) | Otro recuento de operaciones (keySet,entrySet etc.)| +| **hazelcast.imap.local_owned_entry_count**
(gauge) | Recuento de entradas propias| +| **hazelcast.imap.local_owned_entry_memory_cost**
(gauge) | Costo de la memoria de entrada propia| +| **hazelcast.imap.local_put_operation_count**
(gauge) | Recuento de operaciones de venta| +| **hazelcast.imap.local_remove_operation_count**
(gauge) | Eliminar el recuento de operaciones| +| **hazelcast.imap.local_total**
(gauge) | Recuento total de operaciones| +| **hazelcast.imap.local_total_get_latency**
(gauge) | Latencia total de obtención| +| **hazelcast.imap.local_total_put_latency**
(gauge) | Latencia total de ventas| +| **hazelcast.imap.local_total_remove_latency**
(gauge) | Latencia total de eliminación| +| **hazelcast.imap.size**
(gauge) | Tamaño| +| **hazelcast.instance.cluster_time**
(gauge) | Tiempo transcurrido desde que se creó la instancia| +| **hazelcast.instance.managed_executor_service.completed_task_count**
(gauge) | Recuento de tareas finalizadas| +| **hazelcast.instance.managed_executor_service.is_shutdown**
(gauge) | | +| **hazelcast.instance.managed_executor_service.is_terminated**
(gauge) | | +| **hazelcast.instance.managed_executor_service.maximum_pool_size**
(gauge) | Recuento máximo de subprocesos del grupo| +| **hazelcast.instance.managed_executor_service.pool_size**
(gauge) | Recuento de subprocesos del grupo| +| **hazelcast.instance.managed_executor_service.queue_size**
(gauge) | Tamaño de la cola de trabajo| +| **hazelcast.instance.managed_executor_service.remaining_queue_capacity**
(gauge) | Capacidad restante de la cola de trabajo| +| **hazelcast.instance.member_count**
(gauge) | Tamaño del clúster| +| **hazelcast.instance.partition_service.active_partition_count**
(gauge) | Recuento de particiones activas| +| **hazelcast.instance.partition_service.is_cluster_safe**
(gauge) | Estado seguro del clúster| +| **hazelcast.instance.partition_service.is_local_member_safe**
(gauge) | Estado seguro de miembro local| +| **hazelcast.instance.partition_service.partition_count**
(gauge) | Recuento de particiones| +| **hazelcast.instance.running**
(gauge) | Estado de ejecución| +| **hazelcast.instance.version**
(gauge) | La versión de Hazelcast| +| **hazelcast.iqueue.average_age**
(gauge) | Antigüedad media
_Se muestra como segundo_ | +| **hazelcast.iqueue.backup_item_count**
(gauge) | Recuento de elementos de copia de seguridad| +| **hazelcast.iqueue.empty_poll_operation_count**
(gauge) | Recuento de sondeos vacíos| +| **hazelcast.iqueue.event_operation_count**
(gauge) | Recuento de operaciones de eventos| +| **hazelcast.iqueue.maximum_age**
(gauge) | Antigüedad máxima
_Se muestra como segundo_ | +| **hazelcast.iqueue.minimum_age**
(gauge) | Antigüedad mínima
_Se muestra como segundo_ | +| **hazelcast.iqueue.offer_operation_count**
(gauge) | Recuento de ofertas| +| **hazelcast.iqueue.other_operation_count**
(gauge) | Recuento de otras operaciones| +| **hazelcast.iqueue.owned_item_count**
(gauge) | Recuento de elementos propios| +| **hazelcast.iqueue.poll_operation_count**
(gauge) | Recuento de sondeos| +| **hazelcast.iqueue.rejected_offer_operation_count**
(gauge) | Recuento de ofertas rechazadas| +| **hazelcast.mc.license_expiration_time**
(gauge) | El número de segundos hasta la expiración de la licencia
_Se muestra como segundo_ | +| **hazelcast.member.accepted_socket_count**
(gauge) | | +| **hazelcast.member.active_count**
(gauge) | | +| **hazelcast.member.active_members**
(gauge) | | +| **hazelcast.member.active_members_commit_index**
(gauge) | | +| **hazelcast.member.async_operations**
(gauge) | | +| **hazelcast.member.available_processors**
(gauge) | | +| **hazelcast.member.backup_timeout_millis**
(gauge) | | +| **hazelcast.member.backup_timeouts**
(gauge) | | +| **hazelcast.member.bytes_read**
(gauge) | | +| **hazelcast.member.bytes_received**
(gauge) | | +| **hazelcast.member.bytes_send**
(gauge) | | +| **hazelcast.member.bytes_transceived**
(gauge) | | +| **hazelcast.member.bytes_written**
(gauge) | | +| **hazelcast.member.call_timeout_count**
(gauge) | | +| **hazelcast.member.client_count**
(gauge) | | +| **hazelcast.member.closed_count**
(gauge) | | +| **hazelcast.member.cluster_start_time**
(gauge) | | +| **hazelcast.member.cluster_time**
(gauge) | | +| **hazelcast.member.cluster_time_diff**
(gauge) | | +| **hazelcast.member.cluster_up_time**
(gauge) | | +| **hazelcast.member.commit_count**
(gauge) | | +| **hazelcast.member.committed_heap**
(gauge) | | +| **hazelcast.member.committed_native**
(gauge) | | +| **hazelcast.member.committed_virtual_memory_size**
(gauge) | | +| **hazelcast.member.completed_count**
(gauge) | | +| **hazelcast.member.completed_migrations**
(gauge) | | +| **hazelcast.member.completed_operation_batch_count**
(gauge) | | +| **hazelcast.member.completed_operation_count**
(gauge) | | +| **hazelcast.member.completed_packet_count**
(gauge) | | +| **hazelcast.member.completed_partition_specific_runnable_count**
(gauge) | | +| **hazelcast.member.completed_runnable_count**
(gauge) | | +| **hazelcast.member.completed_task_count**
(gauge) | | +| **hazelcast.member.completed_tasks**
(gauge) | | +| **hazelcast.member.completed_total_count**
(gauge) | | +| **hazelcast.member.connection_listener_count**
(gauge) | | +| **hazelcast.member.count**
(gauge) | | +| **hazelcast.member.created_count**
(gauge) | | +| **hazelcast.member.daemon_thread_count**
(gauge) | | +| **hazelcast.member.delayed_execution_count**
(gauge) | | +| **hazelcast.member.destroyed_count**
(gauge) | | +| **hazelcast.member.destroyed_group_ids**
(gauge) | | +| **hazelcast.member.elapsed_destination_commit_time**
(gauge) | | +| **hazelcast.member.elapsed_migration_operation_time**
(gauge) | | +| **hazelcast.member.elapsed_migration_time**
(gauge) | | +| **hazelcast.member.error_count**
(gauge) | | +| **hazelcast.member.event_count**
(gauge) | | +| **hazelcast.member.event_queue_size**
(gauge) | | +| **hazelcast.member.events_processed**
(gauge) | | +| **hazelcast.member.exception_count**
(gauge) | | +| **hazelcast.member.failed_backups**
(gauge) | | +| **hazelcast.member.frames_transceived**
(gauge) | | +| **hazelcast.member.free_heap**
(gauge) | | +| **hazelcast.member.free_memory**
(gauge) | | +| **hazelcast.member.free_native**
(gauge) | | +| **hazelcast.member.free_physical**
(gauge) | | +| **hazelcast.member.free_physical_memory_size**
(gauge) | | +| **hazelcast.member.free_space**
(gauge) | | +| **hazelcast.member.free_swap_space_size**
(gauge) | | +| **hazelcast.member.generic_priority_queue_size**
(gauge) | | +| **hazelcast.member.generic_queue_size**
(gauge) | | +| **hazelcast.member.generic_thread_count**
(gauge) | | +| **hazelcast.member.groups**
(gauge) | | +| **hazelcast.member.heartbeat_broadcast_period_millis**
(gauge) | | +| **hazelcast.member.heartbeat_packets_received**
(gauge) | | +| **hazelcast.member.heartbeat_packets_sent**
(gauge) | | +| **hazelcast.member.idle_time_millis**
(gauge) | | +| **hazelcast.member.idle_time_ms**
(gauge) | | +| **hazelcast.member.imbalance_detected_count**
(gauge) | | +| **hazelcast.member.in_progress_count**
(gauge) | | +| **hazelcast.member.invocation_scan_period_millis**
(gauge) | | +| **hazelcast.member.invocation_timeout_millis**
(gauge) | | +| **hazelcast.member.invocations.last_call_id**
(gauge) | | +| **hazelcast.member.invocations.pending**
(gauge) | | +| **hazelcast.member.invocations.used_percentage**
(gauge) | | +| **hazelcast.member.io_thread_id**
(gauge) | | +| **hazelcast.member.last_heartbeat**
(gauge) | | +| **hazelcast.member.last_repartition_time**
(gauge) | | +| **hazelcast.member.listener_count**
(gauge) | | +| **hazelcast.member.loaded_classes_count**
(gauge) | | +| **hazelcast.member.local_clock_time**
(gauge) | | +| **hazelcast.member.local_partition_count**
(gauge) | | +| **hazelcast.member.major_count**
(gauge) | | +| **hazelcast.member.major_time**
(gauge) | | +| **hazelcast.member.max_backup_count**
(gauge) | | +| **hazelcast.member.max_cluster_time_diff**
(gauge) | | +| **hazelcast.member.max_file_descriptor_count**
(gauge) | | +| **hazelcast.member.max_heap**
(gauge) | | +| **hazelcast.member.max_memory**
(gauge) | | +| **hazelcast.member.max_metadata**
(gauge) | | +| **hazelcast.member.max_native**
(gauge) | | +| **hazelcast.member.maximum_pool_size**
(gauge) | | +| **hazelcast.member.member_groups_size**
(gauge) | | +| **hazelcast.member.migration_active**
(gauge) | | +| **hazelcast.member.migration_completed_count**
(gauge) | | +| **hazelcast.member.migration_queue_size**
(gauge) | | +| **hazelcast.member.minor_count**
(gauge) | | +| **hazelcast.member.minor_time**
(gauge) | | +| **hazelcast.member.missing_members**
(gauge) | | +| **hazelcast.member.nodes**
(gauge) | | +| **hazelcast.member.normal_frames_read**
(gauge) | | +| **hazelcast.member.normal_frames_written**
(gauge) | | +| **hazelcast.member.normal_pending_count**
(gauge) | | +| **hazelcast.member.normal_timeouts**
(gauge) | | +| **hazelcast.member.open_file_descriptor_count**
(gauge) | | +| **hazelcast.member.opened_count**
(gauge) | | +| **hazelcast.member.operation_timeout_count**
(gauge) | | +| **hazelcast.member.owner_id**
(gauge) | | +| **hazelcast.member.park_queue_count**
(gauge) | | +| **hazelcast.member.partition_thread_count**
(gauge) | | +| **hazelcast.member.peak_thread_count**
(gauge) | | +| **hazelcast.member.planned_migrations**
(gauge) | | +| **hazelcast.member.pool_size**
(gauge) | | +| **hazelcast.member.priority_frames_read**
(gauge) | | +| **hazelcast.member.priority_frames_transceived**
(gauge) | | +| **hazelcast.member.priority_frames_written**
(gauge) | | +| **hazelcast.member.priority_pending_count**
(gauge) | | +| **hazelcast.member.priority_queue_size**
(gauge) | | +| **hazelcast.member.priority_write_queue_size**
(gauge) | | +| **hazelcast.member.process_count**
(gauge) | | +| **hazelcast.member.process_cpu_load**
(gauge) | | +| **hazelcast.member.process_cpu_time**
(gauge) | | +| **hazelcast.member.proxy_count**
(gauge) | | +| **hazelcast.member.publication_count**
(gauge) | | +| **hazelcast.member.queue_capacity**
(gauge) | | +| **hazelcast.member.queue_size**
(gauge) | | +| **hazelcast.member.rejected_count**
(gauge) | | +| **hazelcast.member.remaining_queue_capacity**
(gauge) | | +| **hazelcast.member.replica_sync_requests_counter**
(gauge) | | +| **hazelcast.member.replica_sync_semaphore**
(gauge) | | +| **hazelcast.member.response_queue_size**
(gauge) | | +| **hazelcast.member.responses.backup_count**
(gauge) | | +| **hazelcast.member.responses.error_count**
(gauge) | | +| **hazelcast.member.responses.missing_count**
(gauge) | | +| **hazelcast.member.responses.normal_count**
(gauge) | | +| **hazelcast.member.responses.timeout_count**
(gauge) | | +| **hazelcast.member.retry_count**
(gauge) | | +| **hazelcast.member.rollback_count**
(gauge) | | +| **hazelcast.member.running_count**
(gauge) | | +| **hazelcast.member.running_generic_count**
(gauge) | | +| **hazelcast.member.running_partition_count**
(gauge) | | +| **hazelcast.member.scheduled**
(gauge) | | +| **hazelcast.member.selector_i_o_exception_count**
(gauge) | | +| **hazelcast.member.selector_rebuild_count**
(gauge) | | +| **hazelcast.member.selector_recreate_count**
(gauge) | | +| **hazelcast.member.size**
(gauge) | | +| **hazelcast.member.start_count**
(gauge) | | +| **hazelcast.member.started_migrations**
(gauge) | | +| **hazelcast.member.sync_delivery_failure_count**
(gauge) | | +| **hazelcast.member.system_cpu_load**
(gauge) | | +| **hazelcast.member.system_load_average**
(gauge) | | +| **hazelcast.member.task_queue_size**
(gauge) | | +| **hazelcast.member.terminated_raft_node_group_ids**
(gauge) | | +| **hazelcast.member.text_count**
(gauge) | | +| **hazelcast.member.thread_count**
(gauge) | | +| **hazelcast.member.total_completed_migrations**
(gauge) | | +| **hazelcast.member.total_elapsed_destination_commit_time**
(gauge) | | +| **hazelcast.member.total_elapsed_migration_operation_time**
(gauge) | | +| **hazelcast.member.total_elapsed_migration_time**
(gauge) | | +| **hazelcast.member.total_failure_count**
(gauge) | | +| **hazelcast.member.total_loaded_classes_count**
(gauge) | | +| **hazelcast.member.total_memory**
(gauge) | | +| **hazelcast.member.total_parked_operation_count**
(gauge) | | +| **hazelcast.member.total_physical**
(gauge) | | +| **hazelcast.member.total_physical_memory_size**
(gauge) | | +| **hazelcast.member.total_registrations**
(gauge) | | +| **hazelcast.member.total_space**
(gauge) | | +| **hazelcast.member.total_started_thread_count**
(gauge) | | +| **hazelcast.member.total_swap_space_size**
(gauge) | | +| **hazelcast.member.unknown_count**
(gauge) | | +| **hazelcast.member.unknown_time**
(gauge) | | +| **hazelcast.member.unloaded_classes_count**
(gauge) | | +| **hazelcast.member.uptime**
(gauge) | | +| **hazelcast.member.usable_space**
(gauge) | | +| **hazelcast.member.used_heap**
(gauge) | | +| **hazelcast.member.used_memory**
(gauge) | | +| **hazelcast.member.used_metadata**
(gauge) | | +| **hazelcast.member.used_native**
(gauge) | | +| **hazelcast.member.write_queue_size**
(gauge) | | +| **hazelcast.multimap.local_backup_count**
(gauge) | Recuento de copias de seguridad| +| **hazelcast.multimap.local_backup_entry_count**
(gauge) | Recuento de entradas de copia de seguridad| +| **hazelcast.multimap.local_backup_entry_memory_cost**
(gauge) | Costo de entrada de la copia de seguridad| +| **hazelcast.multimap.local_creation_time**
(gauge) | Hora de creación| +| **hazelcast.multimap.local_event_operation_count**
(gauge) | Recuento de eventos| +| **hazelcast.multimap.local_get_operation_count**
(gauge) | Obtener recuento de operaciones| +| **hazelcast.multimap.local_hits**
(gauge) | Resultados| +| **hazelcast.multimap.local_last_access_time**
(gauge) | Hora del último acceso| +| **hazelcast.multimap.local_last_update_time**
(gauge) | Hora de la última actualización| +| **hazelcast.multimap.local_locked_entry_count**
(gauge) | Recuento de entradas bloqueadas| +| **hazelcast.multimap.local_max_get_latency**
(gauge) | Latencia máxima de obtención| +| **hazelcast.multimap.local_max_put_latency**
(gauge) | Latencia máxima de ventas| +| **hazelcast.multimap.local_max_remove_latency**
(gauge) | Latencia máxima de eliminación| +| **hazelcast.multimap.local_other_operation_count**
(gauge) | Otro recuento de operaciones (keySet,entrySet etc.)| +| **hazelcast.multimap.local_owned_entry_count**
(gauge) | Recuento de entradas propias| +| **hazelcast.multimap.local_owned_entry_memory_cost**
(gauge) | Costo de la memoria de entrada propia| +| **hazelcast.multimap.local_put_operation_count**
(gauge) | Recuento de operaciones de venta| +| **hazelcast.multimap.local_remove_operation_count**
(gauge) | Eliminar recuento de operaciones| +| **hazelcast.multimap.local_total**
(gauge) | Recuento total de operaciones| +| **hazelcast.multimap.local_total_get_latency**
(gauge) | Latencia total de obtención| +| **hazelcast.multimap.local_total_put_latency**
(gauge) | Latencia total de ventas| +| **hazelcast.multimap.local_total_remove_latency**
(gauge) | Latencia total de eliminación| +| **hazelcast.multimap.size**
(gauge) | Tamaño| +| **hazelcast.reliabletopic.creation_time**
(gauge) | Hora de creación
_Se muestra como segundo_ | +| **hazelcast.reliabletopic.publish_operation_count**
(gauge) | Publicar recuento| +| **hazelcast.reliabletopic.receive_operation_count**
(gauge) | Recibir recuento| +| **hazelcast.replicatedmap.local_creation_time**
(gauge) | Hora de creación| +| **hazelcast.replicatedmap.local_event_operation_count**
(gauge) | Recuento de eventos| +| **hazelcast.replicatedmap.local_get_operation_count**
(gauge) | Obtener recuento de operaciones| +| **hazelcast.replicatedmap.local_hits**
(gauge) | Resultados| +| **hazelcast.replicatedmap.local_last_access_time**
(gauge) | Hora del último acceso| +| **hazelcast.replicatedmap.local_last_update_time**
(gauge) | Hora de la última actualización| +| **hazelcast.replicatedmap.local_max_get_latency**
(gauge) | Latencia máxima de obtención| +| **hazelcast.replicatedmap.local_max_put_latency**
(gauge) | Latencia máxima de venta| +| **hazelcast.replicatedmap.local_max_remove_latency**
(gauge) | Latencia máxima de eliminación| +| **hazelcast.replicatedmap.local_other_operation_count**
(gauge) | Otro recuento de operaciones (keySet,entrySet etc.)| +| **hazelcast.replicatedmap.local_owned_entry_count**
(gauge) | Recuento de entradas propias| +| **hazelcast.replicatedmap.local_put_operation_count**
(gauge) | Recuento de operaciones de venta| +| **hazelcast.replicatedmap.local_remove_operation_count**
(gauge) | Eliminar recuento de operaciones| +| **hazelcast.replicatedmap.local_total**
(gauge) | Recuento total de operaciones| +| **hazelcast.replicatedmap.local_total_get_latency**
(gauge) | Latencia total de obtención| +| **hazelcast.replicatedmap.local_total_put_latency**
(gauge) | Latencia total de ventas| +| **hazelcast.replicatedmap.local_total_remove_latency**
(gauge) | Latencia total de eliminación| +| **hazelcast.replicatedmap.size**
(gauge) | Tamaño| +| **hazelcast.topic.creation_time**
(gauge) | Hora de creación
_Se muestra como segundo_ | +| **hazelcast.topic.publish_operation_count**
(gauge) | Publicar recuento| +| **hazelcast.topic.receive_operation_count**
(gauge) | Recibir recuento| ### Checks de servicio -{{< get-service-checks-from-git "hazelcast" >}} +**hazelcast.can_connect** + +Devuelve `CRITICAL` si el Agent no puede conectarse a Hazelcast, `WARNING` si no se recopilan métricas y `OK` en caso contrario. -## Solucionar problemas +_Estados: ok, critical, warning_ -¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][4]. +**hazelcast.mc_cluster_state** + +Representa el estado del Centro de Gestión de Hazelcast indicado por su check de estado. + +_Estados: ok, critical, warning_ + +### Eventos + +Hazelcast no incluye ningún evento. + +### Checks de servicio +Consulta [service_checks.json](https://github.com/DataDog/integrations-core/blob/master/hazelcast/assets/service_checks.json) para obtener una lista de los checks de servicio proporcionadas por esta integración. +## Resolución de problemas -[1]: https://hazelcast.org -[2]: https://app.datadoghq.com/account/settings/agent/latest -[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[4]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +¿Necesitas ayuda? Ponte en contacto con [asistencia técnica de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/ivanti_connect_secure.md b/content/es/integrations/ivanti_connect_secure.md new file mode 100644 index 0000000000000..8de918b0f1e08 --- /dev/null +++ b/content/es/integrations/ivanti_connect_secure.md @@ -0,0 +1,230 @@ +--- +app_id: ivanti-connect-secure +app_uuid: 6fbaf2b3-bcc9-49b1-bcb6-67239f17a1e0 +assets: + dashboards: + Ivanti Connect Secure - Administrator Activities: assets/dashboards/ivanti_connect_secure_administrator_activities.json + Ivanti Connect Secure - Authentication: assets/dashboards/ivanti_connect_secure_authentication.json + Ivanti Connect Secure - Connection and VPN Tunneling: assets/dashboards/ivanti_connect_secure_connection_and_vpn_tunneling.json + Ivanti Connect Secure - Overview: assets/dashboards/ivanti_connect_secure_overview.json + Ivanti Connect Secure - Statistics and System Status: assets/dashboards/ivanti_connect_secure_statistics_and_system_status.json + Ivanti Connect Secure - Web Requests: assets/dashboards/ivanti_connect_secure_web_requests.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 33282127 + source_type_name: Ivanti Connect Secure + logs: + source: ivanti-connect-secure +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +- seguridad +- network +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/ivanti_connect_secure/README.md +display_on_public_website: true +draft: false +git_integration_title: ivanti_connect_secure +integration_id: ivanti-connect-secure +integration_title: Ivanti Connect Secure +integration_version: 1.0.0 +is_public: true +manifest_version: 2.0.0 +name: ivanti_connect_secure +public_title: Ivanti Connect Secure +short_description: Obtén información sobre los logs de Ivanti Connect Secure. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Log Collection + - Category::Security + - Category::Network + - Offering::Integration + - Submitted Data Type::Logs + configuration: README.md#Setup + description: Obtén información sobre los logs de Ivanti Connect Secure. + media: + - caption: 'Ivanti Connect Secure: descripción general' + image_url: images/ivanti_connect_secure_overview.png + media_type: imagen + - caption: 'Ivanti Connect Secure: solicitudes web' + image_url: images/ivanti_connect_secure_web_requests.png + media_type: imagen + - caption: 'Ivanti Connect Secure: autenticación' + image_url: images/ivanti_connect_secure_authentication.png + media_type: imagen + - caption: 'Ivanti Connect Secure: conexión y túnel VPN' + image_url: images/ivanti_connect_secure_connection_and_vpn_tunneling.png + media_type: imagen + - caption: 'Ivanti Connect Secure: actividades del administrador' + image_url: images/ivanti_connect_secure_administrator_activities.png + media_type: imagen + - caption: 'Ivanti Connect Secure: estadísticas y estado del sistema' + image_url: images/ivanti_connect_secure_statistics_and_system_status.png + media_type: imagen + overview: README.md#Overview + support: README.md#Support + title: Ivanti Connect Secure +--- + + +## Información general + +[Ivanti Connect Secure][1] ofrece a los empleados, socios y clientes un acceso seguro y controlado a los datos y aplicaciones corporativos. Las aplicaciones incluyen servidores de archivos, servidores web, mensajería nativa y servidores alojados fuera de tu red de confianza. + +Esta integración analiza los siguientes tipos de logs: + +- **Solicitudes web**: los logs proporcionan información sobre las solicitudes de los clientes a los recursos basados en la web, incluidas las solicitudes realizadas con éxito, fallidas, bloqueadas, denegadas y no autenticadas. +- **Autenticación**: los logs proporcionan información sobre los eventos de inicio de sesión, los fallos de negociación SSL y los eventos de cambio de dirección remota. +- **Conexión**: los logs proporcionan información sobre las conexiones, incluidos detalles sobre los bytes transferidos, duración, nombre de host y direcciones IP. +- **Túnel VPN**: los logs proporcionan información sobre la actividad relacionada con ACL, así como los eventos relacionados con la sesión VPN. +- **Estadísticas**: los logs proporcionan información sobre el uso del sistema, incluidos los usuarios simultáneos y otras métricas de rendimiento. +- **Actividades de los administradores**: los logs proporcionan información sobre las acciones realizadas por los administradores, como inicios de sesión, cambios de configuración y tareas de gestión del sistema. + +Visualiza información detallada sobre estos logs a través de los dashboards predefinidos. Además, dispones de reglas de detección de Cloud SIEM listas para usar para monitorizar y responder a posibles amenazas de seguridad con eficacia. + +## Configuración + +### Instalación + +Para instalar la integración de Ivanti Connect Secure, ejecuta el siguiente comando de instalación del Agent en tu terminal y, luego, sigue los pasos de configuración que se indican a continuación. Para obtener más información, consulta la documentación de [Gestión de integraciones][2]. + +**Nota**: Este paso no es necesario para la versión del Agent >= 7.59.0. + +```shell +sudo -u dd-agent -- datadog-agent integration install datadog-ivanti_connect_secure==1.0.0 +``` + +### Configuración + +#### Recopilación de logs + +1. La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Añade este bloque de configuración a tu archivo `ivanti_connect_secure.d/conf.yaml` para empezar a recopilar tus logs. + + Consulta el [ivanti_connect_secure.d/conf.yaml][3] de ejemplo para ver las opciones disponibles de configuración. + + ```yaml + logs: + - type: tcp # or 'udp' + port: + source: ivanti-connect-secure + service: ivanti-connect-secure + ``` + + **Nota**: + + - `PORT`: el puerto debe ser similar al puerto proporcionado en la sección **Configure syslog message forwarding from Ivanti Connect Secure** (Configurar el reenvío de mensajes syslog desde Ivanti Connect Secure). + - Es recomendado no cambiar los valores de servicio y fuente, ya que estos parámetros son parte integral del funcionamiento del pipeline. + +3. [Reinicia el Agent][4]. + +#### Configurar el reenvío de mensajes syslog desde Ivanti Connect Secure + +1. Inicia sesión en el portal de administración de Ivanti Connect Secure. +2. Ve a **System** > **Log/Monitoring** > **Events** (Sistema > Log/Monitorización > Eventos). +3. Haz clic en la pestaña **Settings** (Configuración). +4. En **Select Events to Log** (Seleccionar eventos a loguear), asegúrate de que están seleccionados todos los tipos de evento. +5. Haz clic en **Save Changes** (Guardar cambios) para aplicar la configuración. +6. Configura los detalles del servidor syslog en la sección **Syslog Servers** (Servidores syslog): + - **Server name/IP** (Nombre del servidor/IP): introduce el nombre de dominio completo o la dirección IP del servidor syslog en el formato `:`. + - **Type** (Tipo): selecciona **TCP** o **UDP** en el menú desplegable. + - **Filter** (Filtro): elige **JSON: JSON** en el menú desplegable. +
Una vez introducidos los detalles requeridos, haz clic en **Add** (Añadir). +7. Repite los pasos del 3 al 6 en las pestañas**User Access** (Acceso de usuario) y **Admin Access** (Acceso de administrador). + +### Validación + +[Ejecuta el subcomando de estado del Agent][5] y busca `ivanti_connect_secure` en la sección de Checks. + +## Datos recopilados + +### Log + +| Formato | Tipos de eventos | +| ------ | --------------------------------------------------------------------------------------------- | +| JSON | Solicitudes web, Autenticación, Conexión, Túnel VPN, Estadísticas, Actividades del administrador | + +### Métricas + +La integración de Ivanti Connect Secure no incluye ninguna métrica. + +### Eventos + +La integración de Ivanti Connect Secure no incluye ningún evento. + +### Checks de servicio + +La integración de Ivanti Connect Secure no incluye ningún check de servicio. + +## Solucionar problemas + +**Permiso denegado mientras se vincula el puerto:** + +Si aparece un error **Permission denied** (Permiso denegado) al vincular puertos en los logs del Agent: + +1. La vinculación a un número de puerto inferior a 1024 requiere permisos elevados. Concede acceso al puerto mediante el comando `setcap`: + + ```shell + sudo setcap CAP_NET_BIND_SERVICE=+ep /opt/datadog-agent/bin/agent/agent + ``` + +2. Comprueba que la configuración es correcta ejecutando el comando `getcap`: + + ```shell + sudo getcap /opt/datadog-agent/bin/agent/agent + ``` + + Con el resultado esperado: + + ```shell + /opt/datadog-agent/bin/agent/agent = cap_net_bind_service+ep + ``` + + **Nota**: Vuelve a ejecutar este comando `setcap` cada vez que actualices el Agent. + +3. [Reinicia el Agent][4]. + +**No se están recopilando datos:** + +Asegúrate de que se evita el tráfico del puerto configurado si el firewall está activado. + +**Puerto ya en uso:** + +Si aparece el error **Port Already in Use** (Puerto ya en uso), consulta las siguientes instrucciones. El siguiente ejemplo es para el puerto 514: + +- En los sistemas que utilizan Syslog, si el Agent escucha eventos en el puerto 514, puede aparecer el siguiente error en los logs del Agent: `Can't start UDP forwarder on port 514: listen udp :514: bind: address already in use`. Este error se produce porque, por defecto, Syslog escucha en el puerto 514. Para resolver este error, sigue **uno** de los pasos siguientes: + - Desactiva Syslog. + - Configura el Agent para escuchar en un puerto diferente, disponible. + +Para obtener más ayuda, ponte en contacto con el [soporte de Datadog][6]. + +[1]: https://www.ivanti.com/products/connect-secure-vpn +[2]: https://docs.datadoghq.com/es/agent/guide/integration-management/?tab=linux#install +[3]: https://github.com/DataDog/integrations-core/blob/master/ivanti_connect_secure/datadog_checks/ivanti_connect_secure/data/conf.yaml.example +[4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[6]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/mapr.md b/content/es/integrations/mapr.md index 2883380e8601a..9c91d21b5cb2c 100644 --- a/content/es/integrations/mapr.md +++ b/content/es/integrations/mapr.md @@ -1,115 +1,70 @@ --- app_id: mapr -app_uuid: 96cb179f-2a53-424b-95ce-302610f155eb -assets: - dashboards: - MapR - Overview: assets/dashboards/mapr_overview.json - integration: - auto_install: true - configuration: - spec: assets/configuration/spec.yaml - events: - creates_events: false - metrics: - check: mapr.metrics.submitted - metadata_path: metadata.csv - prefix: mapr. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 10073 - source_type_name: MapR -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - almacenes de datos - recopilación de logs custom_kind: integración -dependencies: -- https://github.com/DataDog/integrations-core/blob/master/mapr/README.md -display_on_public_website: true -draft: false -git_integration_title: mapr -integration_id: mapr -integration_title: MapR +description: Recopila las métricas de monitorización de MapR. integration_version: 3.0.0 -is_public: true -manifest_version: 2.0.0 -name: mapr -public_title: MapR -short_description: Recopila las métricas de monitorización de MapR. +media: [] supported_os: - linux -tile: - changelog: CHANGELOG.md - classifier_tags: - - Categoría::Almacenes de datos - - Categoría::Recopilación de logs - - SO compatible::Linux - - Oferta::Integración - configuration: README.md#Configuración - description: Recopila las métricas de monitorización de MapR. - media: [] - overview: README.md#Información general - support: README.md#Soporte - title: MapR +title: MapR --- - - - - ## Información general -Este check monitoriza [MapR][1] v6.1 o posterior a través del Datadog Agent. +Este check monitoriza [MapR](https://mapr.com) 6.1+ a través del Datadog Agent. ## Configuración -Sigue las instrucciones de abajo para instalar y configurar este check para un Agent que se ejecuta en un host. +Sigue las instrucciones a continuación para instalar y configurar este check para un Agent que se ejecuta en un host. ### Instalación -El check de MapR está incluido en el paquete del [Datadog Agent][2], pero requiere que se realicen operaciones de configuración adicionales. +El check de MapR está incluido en el paquete del [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest), pero requiere operaciones de configuración adicionales. #### Requisitos previos -- Asegúrate de que la [monitorización de MapR][3] se ejecute correctamente. -- Asegúrate de disponer de un [usuario de MapR][4] (con nombre, contraseña, UID y GID) con el permiso 'consume' en el flujo (stream) `/var/mapr/mapr.monitoring/metricstreams`. Puede ser un usuario existente o un usuario nuevo. -- **En un clúster no seguro**: sigue los pasos de [Configuración de la suplantación sin seguridad en el clúster][5] para que el usuario del `dd-agent` pueda suplantar a este usuario de MapR. -- **En un clúster seguro**: genera un [ticket de servicio de larga duración][6] para este usuario que sea legible para el usuario del `dd-agent`. +- [La monitorización de MapR](https://mapr.com/docs/61/AdministratorGuide/Monitoring.html) se está ejecutando correctamente. +- Tienes un [usuario MapR](https://mapr.com/docs/61/AdministratorGuide/c-managing-users-and-groups.html) disponible (con nombre, contraseña, UID y GID) con el permiso 'consumir' en el flujo (stream) `/var/mapr/mapr.monitoring/metricstreams`. Puede tratarse de un usuario ya existente o de un usuario recién creado. +- **En un clúster no seguro**: Sigue [Configuración de suplantación sin seguridad del clúster](https://docs.datafabric.hpe.com/52/SecurityGuide/t_config_impersonation_notsecure.html?hl=secure%2Ccluster) para que el usuario de `dd-agent` pueda suplantar a este usuario de MapR. +- **En un clúster seguro**: Genera un [ticket de servicio de duración prolongada](https://mapr.com/docs/61/SecurityGuide/GeneratingServiceTicket.html) para este usuario que sea legible por el usuario `dd-agent`. Pasos de instalación para cada nodo: -1. [Instala el Agent][2]. -2. Instala la librería _librdkafka_, que se requiere para _mapr-streams-library_, siguiendo [estas instrucciones][7]. -3. Instala la librería _mapr-streams-library_ con el siguiente comando: +1. [Instala el Agent](https://app.datadoghq.com/account/settings/agent/latest). + +1. Instala la biblioteca _librdkafka_, requerida por la _biblioteca de flujos (streams) de MapR_, siguiendo [estas instrucciones](https://github.com/confluentinc/librdkafka#installing-prebuilt-packages). + +1. Instala la biblioteca _biblioteca de flujos (streams) de MapR_ con el siguiente comando:0 - `sudo -u dd-agent /opt/datadog-agent/embedded/bin/pip install --global-option=build_ext --global-option="--library-dirs=/opt/mapr/lib" --global-option="--include-dirs=/opt/mapr/include/" mapr-streams-python`. + `sudo -u dd-agent /opt/datadog-agent/embedded/bin/pip install --global-option=build_ext --global-option="--library-dirs=/opt/mapr/lib" --global-option="--include-dirs=/opt/mapr/include/" mapr-streams-python`. - Si utilizas Python 3 con el Agent v7, reemplaza `pip` por `pip3`. + Si utilizas Python 3 con el Agent v7, sustituye `pip` por `pip3`. -4. Añade `/opt/mapr/lib/` a `/etc/ld.so.conf` (o un archivo en `/etc/ld.so.conf.d/`). Esto es necesario para que la _mapr-streams-library_ que utiliza el Agent encuentre las bibliotecas compartidas de MapR. -5. Vuelve a cargar las bibliotecas ejecutando `sudo ldconfig`. -6. Configura la integración mediante la especificación de la localización del ticket. +1. Añade `/opt/mapr/lib/` a `/etc/ld.so.conf` (o un archivo en `/etc/ld.so.conf.d/`). Esto es necesario para que la _biblioteca de flujos (streams) de MapR_ que utiliza el Agent encuentre las bibliotecas compartidas de MapR. + +1. Vuelve a cargar las bibliotecas ejecutando `sudo ldconfig`. + +1. Configura la integración mediante la especificación de la localización del ticket. #### Notas adicionales - Si no tienes habilitada la "seguridad" en el clúster, puedes continuar sin un ticket. -- Si tu entorno de producción no admite herramientas de compilación como gcc (necesarias para compilar la mapr-streams-library), es posible generar un archivo wheel compilado de la librería en una instancia de desarrollo y distribuir el archivo wheel compilado a producción. Los hosts de desarrollo y producción tienen que ser lo suficientemente similares para que el archivo wheel compilado sea compatible. Puedes ejecutar `sudo -u dd-agent /opt/datadog-agent/embedded/bin/pip wheel --global-option=build_ext --global-option="--library-dirs=/opt/mapr/lib" --global-option="--include-dirs=/opt/mapr/include/" mapr-streams-python` para crear el archivo de wheel en la máquina de desarrollo. Luego, debes ejecutar `sudo -u dd-agent /opt/datadog-agent/embedded/bin/pip install ` en la máquina de producción. -- Si utilizas Python 3 con el Agent v7, asegúrate de reemplazar `pip` por `pip3` al instalar la _mapr-streams-library_. +- Si tu entorno de producción no admite herramientas de compilación como gcc (necesarias para compilar la biblioteca de flujos (stremas) de MapR), es posible generar un archivo wheel compilado de la biblioteca en una instancia de desarrollo y distribuir el archivo wheel compilado a producción. Los hosts de desarrollo y producción tienen que ser lo suficientemente similares para que el archivo wheel compilado sea compatible. Puedes ejecutar `sudo -u dd-agent /opt/datadog-agent/embedded/bin/pip wheel --global-option=build_ext --global-option="--library-dirs=/opt/mapr/lib" --global-option="--include-dirs=/opt/mapr/include/" mapr-streams-python` para crear el archivo de wheel en la máquina de desarrollo. Luego, debes ejecutar `sudo -u dd-agent /opt/datadog-agent/embedded/bin/pip install ` en la máquina de producción. +- Si utilizas Python 3 con el Agent v7, asegúrate de reemplazar `pip` por `pip3` al instalar la _biblioteca de flujos (streams) de MaprR_. ### Configuración #### Recopilación de métricas -1. Edita el archivo `mapr.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración del Agent, para empezar a recopilar los datos de rendimiento de MapR. Consulta el [archivo de ejemplo mapr.d/conf.yaml][8] para conocer todas las opciones de configuración disponibles. -2. Define el parámetro `ticket_location` de la configuración como la ruta del ticket de larga duración que creaste. -3. [Reinicia el Agent][9]. +1. Edita el archivo `mapr.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu directorio de configuración del Agent para recopilar tus datos de rendimiento de MapR. Consulta [ejemplo mapr.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/mapr/datadog_checks/mapr/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. +1. Define el parámetro `ticket_location` de la configuración como la ruta del ticket de larga duración que creaste. +1. [Reinicia el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). #### Recopilación de logs -MapR utiliza FluentD para los logs. Debes usar el [complemento de FluentD para Datadog][10] para recopilar los logs de MapR. El siguiente comando descarga e instala el complemento en el directorio correcto. +MapR utiliza fluentD para los logs. Utiliza el [complemento de fluentD Datadog](https://www.rubydoc.info/gems/fluent-plugin-datadog) para recopilar los logs de MapR. El siguiente comando descarga e instala el complemento en el directorio correcto. `curl https://raw.githubusercontent.com/DataDog/fluent-plugin-datadog/master/lib/fluent/plugin/out_datadog.rb -o /opt/mapr/fluentd/fluentd-/lib/fluentd--linux-x86_64/lib/app/lib/fluent/plugin/out_datadog.rb` @@ -134,55 +89,201 @@ Luego, actualiza `/opt/mapr/fluentd/fluentd-/etc/fluentd/fluentd.conf` ``` -Consulta el [fluent_datadog_plugin][10] para obtener más detalles sobre las opciones que puedes utilizar. +Consulta [fluent_datadog_complemento](https://www.rubydoc.info/gems/fluent-plugin-datadog) para obtener más información sobre las opciones que puedes utilizar. ### Validación -Ejecuta el [subcomando de estado del Agent][11] y busca `mapr` en la sección Checks. +Ejecuta el [subcomando de estado del Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busca `mapr` en la sección Checks. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "mapr" >}} +| | | +| --- | --- | +| **mapr.alarms.alarm_raised**
(gauge) | El número de subprocesos que están esperando a ser ejecutados. Esto puede ocurrir cuando un subproceso debe esperar a que otro subproceso realice una acción antes de continuar.
_Se muestra como subproceso_. | +| **mapr.cache.lookups_data**
(count) | Número de búsquedas en la caché de bloques.
_Se muestra como operación_ | +| **mapr.cache.lookups_dir**
(count) | El número de búsquedas en la caché de la tabla LRU. La tabla LRU se utiliza para almacenar páginas de hojas internas del árbol B.
_Se muestra como operación_. | +| **mapr.cache.lookups_inode**
(count) | El número de búsquedas en la caché de inodo.| +| **mapr.cache.lookups_largefile**
(count) | El número de búsquedas en la caché LRU de archivos grandes. La LRU de archivos grandes se utiliza para almacenar archivos con un tamaño superior a 64 K y páginas de datos de bases de datos de MapR.
_Se muestra como operación_. | +| **mapr.cache.lookups_meta**
(count) | El número de búsquedas en la caché de meta LRU. La meta LRU se utiliza para almacenar páginas internas del árbol B.
_Se muestra como operación_. | +| **mapr.cache.lookups_smallfile**
(count) | El número de búsquedas en la caché de LRU de archivos pequeños. Esta LRU se utiliza para almacenar archivos con un tamaño inferior a 64 K y páginas de índice de bases de datos de MapR.
_Se muestra como operación_. | +| **mapr.cache.lookups_table**
(count) | El número de búsquedas en la caché de la tabla LRU. La tabla LRU se utiliza para almacenar páginas de hojas internas del árbol B.
_Se muestra como operación_. | +| **mapr.cache.misses_data**
(count) | El número de pérdidas de caché en la caché de bloques.
_Se muestra como pérdida_ | +| **mapr.cache.misses_dir**
(count) | El número de pérdidas de caché en la tabla LRU de caché.
_Se muestra como pérdida_ | +| **mapr.cache.misses_inode**
(count) | El número de pérdidas de caché en la caché de inodo.
_Se muestra como pérdida_ | +| **mapr.cache.misses_largefile**
(count) | Número de pérdidas de caché en la caché LRU de archivos grandes.
_Se muestra como pérdida_ | +| **mapr.cache.misses_meta**
(count) | Número de pérdidas de caché en la caché meta LRU.
_Se muestra como pérdida_ | +| **mapr.cache.misses_smallfile**
(count) | Número de pérdidas de caché en la caché LRU de archivos pequeños.
_Se muestra como pérdida_ | +| **mapr.cache.misses_table**
(count) | El número de pérdidas de caché en la tabla LRU de caché.
_Se muestra como pérdida_ | +| **mapr.cldb.cluster_cpu_total**
(gauge) | El número de CPU físicas en el clúster.
_Se muestra como CPU_ | +| **mapr.cldb.cluster_cpubusy_percent**
(gauge) | El porcentaje agregado de CPU ocupadas en el clúster.
_Se muestra como porcentaje_ | +| **mapr.cldb.cluster_disk_capacity**
(gauge) | La capacidad de almacenamiento de los discos de MapR en GB.
_Se muestra como gibibyte_ | +| **mapr.cldb.cluster_diskspace_used**
(gauge) | La cantidad de discos de MapR utilizados en GB.
_Se muestra como gibibyte_ | +| **mapr.cldb.cluster_memory_capacity**
(gauge) | La capacidad de memoria en MB.
_Se muestra como mebibyte_ | +| **mapr.cldb.cluster_memory_used**
(gauge) | La cantidad de memoria utilizada en MB.
_Se muestra como mebibyte_ | +| **mapr.cldb.containers**
(gauge) | El número de contenedores actualmente en el clúster.
_Se muestra como contenedor_ | +| **mapr.cldb.containers_created**
(count) | Número acumulado de contenedores creados en el clúster. Este valor incluye los contenedores que se han eliminado.
_Se muestra como contenedor_. | +| **mapr.cldb.containers_unusable**
(gauge) | El número de contenedores que ya no son utilizables. La CLDB marca un contenedor como no utilizable cuando el nodo que almacena el contenedor está desconectado durante 1 hora o más.
_Se muestra como contenedor_ | +| **mapr.cldb.disk_space_available**
(gauge) | La cantidad de espacio disponible en disco en GB.
_Se muestra como gibibyte_ | +| **mapr.cldb.nodes_in_cluster**
(gauge) | El número de nodos en el clúster.
_Se muestra como nodo_ | +| **mapr.cldb.nodes_offline**
(gauge) | El número de nodos del clúster que están desconectados.
_Se muestra como nodo_ | +| **mapr.cldb.rpc_received**
(count) | El número de RPC recibidos.
_Se muestra como operación_ | +| **mapr.cldb.rpcs_failed**
(count) | El número de RPC fallidas.
_Se muestra como operación_ | +| **mapr.cldb.storage_pools_cluster**
(gauge) | El número de grupos de almacenamiento.| +| **mapr.cldb.storage_pools_offline**
(gauge) | El número de grupos de almacenamiento desconectados.| +| **mapr.cldb.volumes**
(gauge) | El número de volúmenes creados, incluidos los volúmenes del sistema.
_Se muestra como volumen_ | +| **mapr.db.append_bytes**
(count) | El número de bytes escritos por RPC anexados
_Se muestra como byte_ | +| **mapr.db.append_rpcrows**
(count) | El número de filas escritas por RPC anexados
_Se muestra como objeto_ | +| **mapr.db.append_rpcs**
(count) | El número de RPC anexados finalizados de la base de datos de MapR
_Se muestra como operación_ | +| **mapr.db.cdc.pending_bytes**
(gauge) | El número de bytes de datos de CDC que quedan por enviar
_Se muestra como byte_ | +| **mapr.db.cdc.sent_bytes**
(count) | El número de bytes de datos de CDC enviados
_Se muestra como byte_ | +| **mapr.db.checkandput_bytes**
(count) | El número de bytes escritos por los RPC check y vendidos
_Se muestra como byte_ | +| **mapr.db.checkandput_rpcrows**
(count) | El número de filas escritas por RPC check y vendidos
_Se muestra como objeto_ | +| **mapr.db.checkandput_rpcs**
(count) | Número de RPC check y vendidos finalizados de la base de datos de MapR
_Se muestra como operación_ | +| **mapr.db.flushes**
(count) | El número de descargas que reorganizan los datos de los archivos de buckets (datos sin clasificar) a los archivos perdidos (datos clasificados) cuando el tamaño del bucket supera un umbral.
_Se muestra como descarga_ | +| **mapr.db.forceflushes**
(count) | El número de descargas que reorganizan los datos de los archivos de buckets (datos sin clasificar) a los archivos perdidos (datos clasificados) cuando se llena la caché de archivos de buckets en memoria.
_Se muestra como descarga_. | +| **mapr.db.fullcompacts**
(count) | El número de compactaciones que combinan varios archivos de datos de la base de datos de MapR que contienen datos clasificados (denominados pérdidas) en un único archivo de pérdida.
_Se muestra como operación_. | +| **mapr.db.get_bytes**
(count) | El número de bytes leídos por RPC obtenidos
_Se muestra como byte_ | +| **mapr.db.get_currpcs**
(gauge) | El número de RPC obtenidos de la base de datos de MapR en progreso
_Se muestra como operación_ | +| **mapr.db.get_readrows**
(count) | El número de filas leídas por RPC obtenidos
_Se muestra como objeto_ | +| **mapr.db.get_resprows**
(count) | El número de filas devueltas desde RPC obtenidos
_Se muestra como objeto_ | +| **mapr.db.get_rpcs**
(count) | Número de RPC de obtención de bases de datos de MapR finalizadas
_Se muestra como operación_ | +| **mapr.db.increment_bytes**
(count) | El número de bytes escritos por RPC de incremento
_Se muestra como byte_ | +| **mapr.db.increment_rpcrows**
(count) | El número de filas escritas por RPC de incremento
_Se muestra como objeto_ | +| **mapr.db.increment_rpcs**
(count) | El número de RPC de incremento de la base de datos de MapR completado
_Se muestra como operación_ | +| **mapr.db.index.pending_bytes**
(gauge) | El número de bytes de datos de índice secundario que quedan por enviar
_Se muestra como byte_ | +| **mapr.db.minicompacts**
(count) | El número de compactaciones que combinan varios archivos de datos pequeños que contienen datos clasificados (denominados pérdidas) en un único archivo de pérdida.
_Se muestra como operación_ | +| **mapr.db.put_bytes**
(count) | El número de bytes escritos por RPC vendidos
_Se muestra como byte_ | +| **mapr.db.put_currpcs**
(gauge) | El número de RPC vendidos de la base de datos de MapR en progreso
_Se muestra como operación_ | +| **mapr.db.put_readrows**
(count) | El número de filas leídas por RPC vendidos
_Se muestra como objeto_ | +| **mapr.db.put_rpcrows**
(count) | El número de filas escritas por RPC vendidos. Cada RPC vendido de la base de datos de MapR puede incluir varias filas vendidas.
_Se muestra como objeto_. | +| **mapr.db.put_rpcs**
(count) | El número de RPC vendidos finalizados de la base de datos de MapR
_Se muestra como operación_ | +| **mapr.db.repl.pending_bytes**
(gauge) | El número de bytes de datos de replicación que quedan por enviar
_Se muestra como byte_ | +| **mapr.db.repl.sent_bytes**
(count) | El número de bytes enviados para replicar los datos
_Se muestra como byte_ | +| **mapr.db.scan_bytes**
(count) | El número de bytes leídos por RPC de scan
_Se muestra como byte_ | +| **mapr.db.scan_currpcs**
(gauge) | El número de RPC de scan de la base de datos de MapR en curso
_Se muestra como operación_ | +| **mapr.db.scan_readrows**
(count) | El número de filas leídas por RPC de scan
_Se muestra como objeto_ | +| **mapr.db.scan_resprows**
(count) | El número de filas devueltas por los RPC de scan.
_Se muestra como objeto_ | +| **mapr.db.scan_rpcs**
(count) | El número de RPC de scan de la base de datos de MapR finalizados
_Se muestra como operación_ | +| **mapr.db.table.latency**
(gauge) | La latencia de las operaciones de RPC en las tablas, representada como un histograma. Los endpoints identifican los límites de los buckets del histograma.
_Se muestra en milisegundos_. | +| **mapr.db.table.read_bytes**
(count) | El número de bytes leídos de las tablas
_Se muestra como byte_ | +| **mapr.db.table.read_rows**
(count) | El número de filas leídas de las tablas
_Se muestra como objeto_. | +| **mapr.db.table.resp_rows**
(count) | El número de filas devueltas de las tablas
_Se muestra como objeto_ | +| **mapr.db.table.rpcs**
(count) | El número de llamadas de RPC finalizadas en las tablas
_Se muestra como operación_ | +| **mapr.db.table.value_cache_hits**
(count) | Número de operaciones de la base de datos de MapR en tablas que utilizaron la caché de valores de la base de datos de MapR
_Se muestra como operación_. | +| **mapr.db.table.value_cache_lookups**
(count) | Número de operaciones de la base de datos de MapR en tablas que realizaron una búsqueda en la caché de valores de la base de datos de MapR
_Se muestra como operación_. | +| **mapr.db.table.write_bytes**
(count) | El número de bytes escritos en las tablas
_Se muestra como byte_ | +| **mapr.db.table.write_rows**
(count) | El número de filas escritas en las tablas
_Se muestra como objeto_ | +| **mapr.db.ttlcompacts**
(count) | Número de compactaciones que dan lugar a la recuperación de espacio en disco debido a la eliminación de datos obsoletos.
_Se muestra como operación_ | +| **mapr.db.updateandget_bytes**
(count) | El número de bytes escritos por RPC actualizados y obtenidos
_Se muestra como byte_ | +| **mapr.db.updateandget_rpcrows**
(count) | El número de filas escritas por RPC actualizados y obtenidos
_Se muestra como objeto_ | +| **mapr.db.updateandget_rpcs**
(count) | Número de RPC actualizados y obtenidos de la base de datos de MapR finalizado
_Se muestra como operación_ | +| **mapr.db.valuecache_hits**
(count) | Número de operaciones de la base de datos de MapR que utilizaron la caché de valores de la base de datos de MapR
_Se muestra como operación_. | +| **mapr.db.valuecache_lookups**
(count) | Número de operaciones de la base de datos de MapR que realizaron una búsqueda en la caché de valores de la base de datos de MapR
_Se muestra como operación_. | +| **mapr.db.valuecache_usedSize**
(gauge) | El tamaño de la caché de valores de la base de datos de MapR en MB
_Se muestra como mebibyte_ | +| **mapr.drill.allocator_root_peak**
(gauge) | La cantidad máxima de memoria utilizada en bytes por el asignador de memoria interna.
_Se muestra como byte_ | +| **mapr.drill.allocator_root_used**
(gauge) | La cantidad de memoria utilizada en bytes por el asignador de memoria interna.
_Se muestra como byte_ | +| **mapr.drill.blocked_count**
(gauge) | El número de subprocesos que están bloqueados porque están esperando un bloqueo de monitor (noun).
_Se muestra como subproceso_ | +| **mapr.drill.count**
(gauge) | El número de subprocesos activos (incluidos los subprocesos daemon y no daemon).
_Se muestra como subproceso_ | +| **mapr.drill.fd_usage**
(gauge) | Relación de descriptores de archivo utilizados con respecto al total.| +| **mapr.drill.fragments_running**
(gauge) | El número de fragmentos de consulta que se están ejecutando actualmente en el bit de exploración.
_Se muestra como byte_ | +| **mapr.drill.heap_used**
(gauge) | La cantidad de memoria de montón utilizada en bytes por la JVM.
_Se muestra como byte_ | +| **mapr.drill.non_heap_used**
(gauge) | La cantidad de memoria que no son montones utilizada en bytes por la JVM.
_Se muestra como byte_ | +| **mapr.drill.queries_completed**
(count) | El número de consultas finalizadas, canceladas o fallidas para las que este bit de exploración es el capataz.
_Se muestra como byte_ | +| **mapr.drill.queries_running**
(gauge) | El número de consultas en ejecución para las que este bit de exploración es el capataz.
_Se muestra como byte_ | +| **mapr.drill.runnable_count**
(gauge) | El número de subprocesos que se están ejecutando en la JVM.
_Se muestra como subproceso_ | +| **mapr.drill.waiting_count**
(gauge) | El número de subprocesos que están esperando a ser ejecutados. Esto puede ocurrir cuando un subproceso debe esperar a que otro subproceso realice una acción antes de continuar.
_Se muestra como subproceso_. | +| **mapr.fs.bulk_writes**
(count) | El número de operaciones de escritura masiva. Las operaciones de escritura masiva se producen cuando el contenedor maestro del sistema de archivos de MapR agrega varias escrituras de archivos de uno o más clientes en una RPC antes de replicar las escrituras.
_Se muestra como escritura_ | +| **mapr.fs.bulk_writesbytes**
(count) | El número de bytes escritos por las operaciones de escritura masiva. Las operaciones de escritura masiva se producen cuando el contenedor maestro del sistema de archivos de MapR agrega varias escrituras de archivos de uno o más clientes en una RPC antes de replicar las escrituras.
_Se muestra como byte_ | +| **mapr.fs.kvstore_delete**
(count) | Número de operaciones de eliminación en archivos de almacén de valores clave que utilizan la base de datos de CLDB y de MapR.
_Se muestra como operación_ | +| **mapr.fs.kvstore_insert**
(count) | Número de operaciones de inserción en archivos de almacén de valores clave que utilizan la base de datos de CLDB y de MapR.
_Se muestra como operación_ | +| **mapr.fs.kvstore_lookup**
(count) | Número de operaciones de búsqueda en archivos de almacén de valores clave que utilizan la base de datos de CLDB y de MapR.
_Se muestra como operación_ | +| **mapr.fs.kvstore_scan**
(count) | Número de operaciones de scan en archivos de almacén de valores clave que utilizan la base de datos de CLDB y de MapR.
_Se muestra como operación_ | +| **mapr.fs.local_readbytes**
(count) | Número de bytes leídos por las aplicaciones que se ejecutan en el nodo del sistema de archivos de MapR.
_Se muestra como byte_ | +| **mapr.fs.local_reads**
(count) | Número de operaciones de lectura de archivos realizadas por aplicaciones que se ejecutan en el nodo del sistema de archivos de MapR.
_Se muestra como leído_ | +| **mapr.fs.local_writebytes**
(count) | Número de bytes escritos por las aplicaciones que se ejecutan en el nodo del sistema de archivos de MapR.
_Se muestra como byte_ | +| **mapr.fs.local_writes**
(count) | Número de operaciones de escritura de archivos realizadas por aplicaciones que se ejecutan en el nodo del sistema de archivos de MapR.
_Se muestra como operación_ | +| **mapr.fs.read_bytes**
(count) | La cantidad de datos leídos a distancia en MB.
_Se muestra como mebibyte_ | +| **mapr.fs.read_cachehits**
(count) | Número de aciertos de caché para lecturas de archivos. Este valor incluye las páginas que el sistema de archivos de MapR rellena utilizando el mecanismo de lectura de un encabezado.
_Se muestra como acierto_ | +| **mapr.fs.read_cachemisses**
(count) | Número de pérdidas de caché en operaciones de lectura de archivos.
_Se muestra como pérdida_ | +| **mapr.fs.reads**
(count) | El número de lecturas remotas.
_Se muestra como lectura_ | +| **mapr.fs.statstype_create**
(count) | El número de operaciones de creación de archivos.
_Se muestra como operación_ | +| **mapr.fs.statstype_lookup**
(count) | El número de operaciones de búsqueda.
_Se muestra como operación_ | +| **mapr.fs.statstype_read**
(count) | El número de operaciones de lectura de archivos.
_Se muestra como lectura_ | +| **mapr.fs.statstype_write**
(count) | El número de operaciones de escritura de archivos.
_Se muestra como escritura_ | +| **mapr.fs.write_bytes**
(count) | La cantidad de datos escritos a distancia en MB.
_Se muestra como mebibyte_ | +| **mapr.fs.writes**
(count) | El número de escrituras remotas.
_Se muestra como escritura_ | +| **mapr.io.read_bytes**
(gauge) | El número de MB leídos del disco.
_Se muestra como mebibyte_ | +| **mapr.io.reads**
(gauge) | El número de operaciones de lectura del disco del sistema de archivos de MapR.
_Se muestra como lectura_ | +| **mapr.io.write_bytes**
(count) | El número de MB escritos en el disco.
_Se muestra como mebibyte_ | +| **mapr.io.writes**
(count) | Número de operaciones de escritura en disco del sistema de archivos de MapR.
_Se muestra como escritura_ | +| **mapr.metrics.submitted**
(gauge) | Número de métricas enviadas en cada ejecución de check.| +| **mapr.process.context_switch_involuntary**
(count) | El número de cambios de contexto involuntarios para los procesos de MapR.
_Se muestra como operación_ | +| **mapr.process.context_switch_voluntary**
(count) | El número de cambios de contexto voluntarios para los procesos de MapR.
_Se muestra como proceso_ | +| **mapr.process.cpu_percent**
(gauge) | El porcentaje de CPU utilizado para los procesos de MapR.
_Se muestra como porcentaje_ | +| **mapr.process.cpu_time.syst**
(count) | La cantidad de tiempo medido en segundos que el proceso ha estado en modo kernel.
_Se muestra como segundo_ | +| **mapr.process.cpu_time.user**
(count) | La cantidad de tiempo medida en segundos que el proceso ha estado en modo usuario
_Se muestra como segundo_ | +| **mapr.process.data**
(gauge) | La cantidad de memoria en MB utilizada por los segmentos de datos de los procesos de MapR.
_Se muestra como mebibyte_ | +| **mapr.process.disk_octets.read**
(count) | El número de bytes leídos desde el disco para los procesos de MapR.
_Se muestra como byte_ | +| **mapr.process.disk_octets.write**
(count) | El número de bytes escritos en disco para los procesos de MapR.
_Se muestra como byte_ | +| **mapr.process.disk_ops.read**
(count) | El número de operaciones de lectura para los procesos de MapR.
_Se muestra como lectura_ | +| **mapr.process.disk_ops.write**
(count) | El número de operaciones de escritura para los procesos de MapR.
_Se muestra como escritura_ | +| **mapr.process.mem_percent**
(gauge) | Porcentaje de la memoria total del sistema (no limitada por los procesos de MapR) utilizada por los procesos de MapR.
_Se muestra como porcentaje_. | +| **mapr.process.page_faults.majflt**
(count) | Número de fallos importantes del proceso de MapR que requirieron cargar una page (página) de memoria desde el disco.
_Se muestra como error_ | +| **mapr.process.page_faults.minflt**
(count) | El número de fallos menores del proceso de MapR que requirieron cargar una page (página) de memoria desde el disco.
_Se muestra como error_ | +| **mapr.process.rss**
(gauge) | La cantidad real de memoria en MB utilizada por los procesos de MapR.
_Se muestra como mebibyte_ | +| **mapr.process.vm**
(gauge) | La cantidad de memoria virtual en MB utilizada por los procesos de MapR.
_Se muestra como mebibyte_ | +| **mapr.rpc.bytes_recd**
(count) | El número de bytes recibidos por el sistema de archivos de MapR a través de RPC.
_Se muestra como byte_ | +| **mapr.rpc.bytes_sent**
(count) | El número de bytes enviados por el sistema de archivos de MapR a través de RPC.
_Se muestra como byte_ | +| **mapr.rpc.calls_recd**
(count) | Número de llamadas RPC recibidas por el sistema de archivos de MapR.
_Se muestra como mensaje_ | +| **mapr.streams.listen_bytes**
(count) | El número de megabytes consumidos por los mensajes de Streams.
_Se muestra como mebibyte_ | +| **mapr.streams.listen_currpcs**
(gauge) | El número de RPC simultáneos del consumidor de Stream.
_Se muestra como objeto_ | +| **mapr.streams.listen_msgs**
(count) | El número de mensajes de Streams leídos por el consumidor.
_Se muestra como objeto_ | +| **mapr.streams.listen_rpcs**
(count) | El número de RPC del consumidor de Streams.
_Se muestra como objeto_ | +| **mapr.streams.produce_bytes**
(count) | El número de megabytes producidos por los mensajes de Streams.
_Se muestra como mebibyte_ | +| **mapr.streams.produce_msgs**
(count) | El número de mensajes de Streams producidos.
_Se muestra como objeto_ | +| **mapr.streams.produce_rpcs**
(count) | El número de RPC del productor de Streams.
_Se muestra como objeto_ | +| **mapr.topology.disks_total_capacity**
(gauge) | La capacidad del disco en gigabytes.
_Se muestra como gibibyte_ | +| **mapr.topology.disks_used_capacity**
(gauge) | La cantidad de espacio de disco utilizada en gigabytes.
_Se muestra como gibibyte_ | +| **mapr.topology.utilization**
(gauge) | El porcentaje agregado de utilización de la CPU.
_Se muestra como porcentaje_ | +| **mapr.volmetrics.read_latency**
(gauge) | La latencia de lectura por volumen en milisegundos
_Se muestra como milisegundo_ | +| **mapr.volmetrics.read_ops**
(count) | Un count de las operaciones de lectura por volumen
_Se muestra como operación_ | +| **mapr.volmetrics.read_throughput**
(gauge) | El rendimiento de lectura por volumen en KB
_Se muestra como kibibyte_ | +| **mapr.volmetrics.write_latency**
(gauge) | La latencia de escritura por volumen en milisegundos
_Se muestra como milisegundo_ | +| **mapr.volmetrics.write_ops**
(count) | Un count de las operaciones de escritura por volumen
_Se muestra como operación_ | +| **mapr.volmetrics.write_throughput**
(gauge) | El rendimiento de escritura por volumen en KB
_Se muestra como kibibyte_ | +| **mapr.volume.logical_used**
(gauge) | El número de MB utilizados para los volúmenes lógicos antes de aplicar la compresión a los archivos.
_Se muestra como mebibyte_ | +| **mapr.volume.quota**
(gauge) | El número de megabytes (MB) utilizados para la cuota de volumen.
_Se muestra como mebibyte_ | +| **mapr.volume.snapshot_used**
(gauge) | El número de MB utilizados para las instantáneas.
_Se muestra como mebibyte_ | +| **mapr.volume.total_used**
(gauge) | El número de MB utilizados para volúmenes e instantáneas.
_Se muestra como mebibyte_ | +| **mapr.volume.used**
(gauge) | El número de MB utilizados para los volúmenes después de aplicar la compresión a los archivos.
_Se muestra como mebibyte_ | ### Eventos El check de MapR no incluye eventos. ### Checks de servicio -{{< get-service-checks-from-git "mapr" >}} +**mapr.can_connect** + +Devuelve `CRITICAL` si el Agent no consigue conectarse y suscribirse al tema del flujo (stream), `OK` en caso contrario. + +_Estados: ok, crítico_ ## Solucionar problemas - **El Agent entra en un bucle de error luego de configurar la integración de MapR.** - Ha habido algunos casos en los que la librería de C dentro de _mapr-streams-python_ genera errores de segmentación debido a problemas de permisos. Asegúrate de que el usuario del `dd-agent` tenga permiso de lectura en el archivo del ticket y que dicho usuario del `dd-agent` pueda ejecutar comandos de la `maprcli` cuando la variable de entorno `MAPR_TICKETFILE_LOCATION` esté apuntando hacia el ticket. + Ha habido algunos casos en los que la biblioteca de C dentro de _mapr-streams-python_ genera errores de segmentación debido a problemas de permisos. Asegúrate de que el usuario del `dd-agent` tenga permiso de lectura en el archivo del ticket y que dicho usuario del `dd-agent` pueda ejecutar comandos de la `maprcli` cuando la variable de entorno `MAPR_TICKETFILE_LOCATION` esté apuntando hacia el ticket. - **La integración parece funcionar correctamente, pero no envía ninguna métrica.** Asegúrate de dejar que el Agent se ejecute durante al menos un par de minutos, ya que la integración extrae datos de un tema y MapR necesita introducir datos en ese tema. - Si eso no funciona, pero al ejecutar el Agent manualmente con `sudo` se muestran datos, se trata de un problema con los permisos. Revisa todo. El usuario de Linux del `dd-agent` debe ser capaz de utilizar un ticket almacenado localmente, lo que le permite ejecutar consultas en MapR como usuario X (que puede o no ser el mismo `dd-agent`). Además, el usuario X debe tener el permiso `consume` en el flujo `/var/mapr/mapr.monitoring/metricstreams`. + Si eso no funciona, pero al ejecutar el Agent manualmente con `sudo` se muestran datos, se trata de un problema con los permisos. Revisa todo. El usuario de Linux del `dd-agent` debe ser capaz de utilizar un ticket almacenado localmente, lo que le permite ejecutar consultas en MapR como usuario X (que puede o no ser el mismo `dd-agent`). Además, el usuario X debe tener el permiso `consume` en el flujo (stream) `/var/mapr/mapr.monitoring/metricstreams`. - **Ves el mensaje `confluent_kafka was not imported correctly ...`** - El entorno integrado del Agent no pudo ejecutar el comando `import confluent_kafka`. Esto significa que la _mapr-streams-library_ no se instaló dentro del entorno integrado o que no puede encontrar las bibliotecas mapr-core. El mensaje de error debería incluir más detalles. - -¿Necesitas más ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][14]. - - -[1]: https://mapr.com -[2]: https://app.datadoghq.com/account/settings/agent/latest -[3]: https://mapr.com/docs/61/AdministratorGuide/Monitoring.html -[4]: https://mapr.com/docs/61/AdministratorGuide/c-managing-users-and-groups.html -[5]: https://docs.datafabric.hpe.com/52/SecurityGuide/t_config_impersonation_notsecure.html?hl=secure%2Ccluster -[6]: https://mapr.com/docs/61/SecurityGuide/GeneratingServiceTicket.html -[7]: https://github.com/confluentinc/librdkafka#installing-prebuilt-packages -[8]: https://github.com/DataDog/integrations-core/blob/master/mapr/datadog_checks/mapr/data/conf.yaml.example -[9]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent -[10]: https://www.rubydoc.info/gems/fluent-plugin-datadog -[11]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information -[12]: https://github.com/DataDog/integrations-core/blob/master/mapr/metadata.csv -[13]: https://github.com/DataDog/integrations-core/blob/master/mapr/assets/service_checks.json -[14]: https://docs.datadoghq.com/es/help/ + El entorno integrado del Agent no pudo ejecutar el comando `import confluent_kafka`. Esto significa que la _biblioteca de flujos (streams) de MapR_ no se instaló dentro del entorno integrado o que no puede encontrar las bibliotecas mapr-core. El mensaje de error debería incluir más detalles. + +¿Necesitas más ayuda? Ponte en contacto con [asistencia técnica de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/microsoft_graph.md b/content/es/integrations/microsoft_graph.md new file mode 100644 index 0000000000000..799a78d7df0c5 --- /dev/null +++ b/content/es/integrations/microsoft_graph.md @@ -0,0 +1,112 @@ +--- +app_id: microsoft-graph +app_uuid: 6341e6d9-953d-4fad-8ff1-7a80d6ba6821 +assets: + dashboards: + microsoft-graph: assets/dashboards/microsoft_graph_security_alerts.json + integration: + auto_install: true + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 30155012 + source_type_name: Microsoft Graph +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- recopilación de logs +- seguridad +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: microsoft_graph +integration_id: microsoft-graph +integration_title: Microsoft Graph +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: microsoft_graph +public_title: Microsoft Graph +short_description: Realiza una integración con Microsoft Graph para recopilar logs + de seguridad de Defender, Purview, Entra ID y Sentinel. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Log Collection + - Category::Security + - Offering::Integration + configuration: README.md#Configuración + description: Realiza una integración con Microsoft Graph para recopilar logs de + seguridad de Defender, Purview, Entra ID y Sentinel. + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: Microsoft Graph +--- + + +## Información general + +Utiliza la API de seguridad de [Microsoft Graph][1] para conectar los productos de seguridad, los servicios y los socios de Microsoft a fin de agilizar las operaciones de seguridad y mejorar las capacidades de protección, detección y respuesta ante amenazas. + +La API de seguridad de Microsoft Graph es un servicio intermediario (o broker) que proporciona una única interfaz programática para conectar múltiples proveedores de seguridad de Microsoft Graph (también llamados proveedores de seguridad o proveedores). Las solicitudes a la API de seguridad de Microsoft Graph se federan a todos los proveedores de seguridad aplicables. Los resultados se agregan y se devuelven a la aplicación solicitante en un esquema común. + +Esta integración recopila eventos de seguridad de los siguientes productos: + +* Microsoft Entra ID Protection +* Microsoft 365 Defender +* Microsoft Defender for Cloud Apps +* Microsoft Defender for Endpoint +* Microsoft Defender for Identity +* Microsoft Defender for Office 365 +* Microsoft Purview Data Loss Prevention +* Microsoft Sentinel + +## Configuración + +Para integrar Microsoft Graph con Datadog, Datadog se conecta a Microsoft utilizando OAuth. El usuario autenticado debe tener contextos de permiso de seguidor para integrarse: + +- `offline_access` +- `APIConnectors.Read.All` +- `SecurityAlert.Read.All` + +### Instalación + +1. Ve a la página [Integraciones][2] y busca la integración "Microsoft Graph". +2. Haz clic en el cuadro. +3. Para añadir una cuenta para instalar la integración, haz clic en el botón **Add Microsoft Account** (Añadir cuenta de Microsoft). +4. Luego de leer las instrucciones del modal, haz clic en el botón **Authorize** (Autorizar), que te redirigirá a la página de inicio de sesión de Microsoft. +6. En la pantalla de solicitud de acceso, haz clic en **Authorize** (Autorizar). Esto permite a Datadog visualizar eventos de seguridad. +7. Se te redirigirá al cuadro de Microsoft Graph de Datadog con una nueva cuenta. Datadog recomienda cambiar el "Nombre de la cuenta" a uno más fácil de recordar. + +### Configuración + + +### Validación + + +## Datos recopilados + +### Logs + +Microsoft Graph recopila todos los eventos de seguridad disponibles de Microsoft Graph. + +## Resolución de problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + +[1]: https://learn.microsoft.com/en-us/graph/security-concept-overview +[2]: https://app.datadoghq.com/integrations?integrationId=microsoft-graph +[3]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/php_fpm.md b/content/es/integrations/php_fpm.md new file mode 100644 index 0000000000000..4a1c46518e906 --- /dev/null +++ b/content/es/integrations/php_fpm.md @@ -0,0 +1,231 @@ +--- +app_id: php-fpm +app_uuid: 34faabdb-8545-4a45-a8bd-be0f979e99e7 +assets: + dashboards: + php-fpm: assets/dashboards/php-fpm_dashboard.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: php_fpm.processes.total + metadata_path: metadata.csv + prefix: php_fpm. + process_signatures: + - php-fpm + - 'php-fpm:' + - php7.0-fpm + - inicio de php7.0-fpm + - servicio PHP-fpm + - reinicio de php7.0-fpm + - reiniciar PHP-fpm + - systemctl restart PHP-fpm.servicio + - php7.0-fpm.service + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 117 + source_type_name: PHP-FPM + saved_views: + php-fpm_processes: assets/saved_views/php-fpm_processes.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- métricas +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/php_fpm/README.md +display_on_public_website: true +draft: false +git_integration_title: php_fpm +integration_id: php-fpm +integration_title: PHP FPM +integration_version: 5.1.0 +is_public: true +manifest_version: 2.0.0 +name: php_fpm +public_title: PHP FPM +short_description: Monitoriza estados de procesos, solicitudes lentas y solicitudes + aceptadas. +supported_os: +- Linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Category::Metrics + - Supported OS::macOS + - Offering::Integration + configuration: README.md#Setup + description: Monitoriza estados de procesos, solicitudes lentas y solicitudes aceptadas. + media: [] + overview: README.md#Overview + support: README.md#Support + title: PHP FPM +--- + + + + +![información general de PHP][1] + +## Información general + +El check de PHP-FPM monitoriza el estado de tu grupo de FPM y realiza un seguimiento del rendimiento de las solicitudes. + +## Configuración + +### Instalación + +El check de PHP-FPM está incluido en el paquete del [Datadog Agent][2], por lo que no necesitas instalar nada más en tu servidor. + +### Configuración + +Sigue las instrucciones de abajo para configurar este check para un Agent que se ejecuta en un host. En el caso de entornos en contenedores, consulta la sección [En contenedores](#containerized). + +{{< tabs >}} +{{% tab "Host" %}} + +#### Host + +Para configurar este check para un Agent que se ejecuta en un host: + +1. Edita el archivo `php_fpm.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del [directorio de configuración del Agent][1]. Para ver todas las opciones de configuración disponibles, consulta el [marathon.d/conf.yaml de ejemplo][2]: + + ```yaml + init_config: + + instances: + ## @param status_url - string - required + ## Get metrics from your FPM pool with this URL + ## The status URLs should follow the options from your FPM pool + ## See http://php.net/manual/en/install.fpm.configuration.php + ## * pm.status_path + ## You should configure your fastcgi passthru (nginx/apache) to catch these URLs and + ## redirect them through the FPM pool target you want to monitor (FPM `listen` + ## directive in the config, usually a UNIX socket or TCP socket. + # + - status_url: http://localhost/status + + ## @param ping_url - string - required + ## Get a reliable service check of your FPM pool with `ping_url` parameter + ## The ping URLs should follow the options from your FPM pool + ## See http://php.net/manual/en/install.fpm.configuration.php + ## * ping.path + ## You should configure your fastcgi passthru (nginx/apache) to + ## catch these URLs and redirect them through the FPM pool target + ## you want to monitor (FPM `listen` directive in the config, usually + ## a UNIX socket or TCP socket. + # + ping_url: http://localhost/ping + + ## @param use_fastcgi - boolean - required - default: false + ## Communicate directly with PHP-FPM using FastCGI + # + use_fastcgi: false + + ## @param ping_reply - string - required + ## Set the expected reply to the ping. + # + ping_reply: pong + ``` + +2. [Reinicia el Agent][3]. + +[1]: https://docs.datadoghq.com/es/agent/guide/agent-configuration-files/#agent-configuration-directory +[2]: https://github.com/DataDog/integrations-core/blob/master/php_fpm/datadog_checks/php_fpm/data/conf.yaml.example +[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-and-restart-the-agent +{{% /tab %}} +{{% tab "Contenedores" %}} + +#### Contenedores + +En el caso de los entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. + +| Parámetro | Valor | +| -------------------- | ------------------------------------------------------------------------------------------------------------------------ | +| `` | `php_fpm` | +| `` | en blanco o `{}` | +| `` | `{"status_url":"http://%%host%%/status", "ping_url":"http://%%host%%/ping", "use_fastcgi": false, "ping_reply": "pong"}` | + +#### Extras + +##### Grupos múltiples + +Es posible monitorizar múltiples grupos de PHP-FPM utilizando el mismo servidor proxy, un escenario común cuando se ejecuta en Kubernetes. Para ello, modifica las rutas de tu servidor para que apunten a diferentes instancias PHP-FPM. Este es un ejemplo de configuración de NGINX: + +```text +server { + ... + + location ~ ^/(status1|ping1)$ { + access_log off; + fastcgi_pass instance1_ip:instance1_port; + include fastcgi_params; + fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name; + } + + location ~ ^/(status2|ping2)$ { + access_log off; + fastcgi_pass instance2_ip:instance2_port; + include fastcgi_params; + fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name; + } +} +``` + +Si esta estrategia a escala te resulta demasiado tediosa, configurar `use_fastcgi` como `true` instruye al check para que omita cualquier servidor proxy y se comunique directamente con PHP-FPM a través de FastCGI. El puerto por defecto es `9000` cuando se omite `status_url` o `ping_url`. + +##### Sockets Unix + +Si tu instalación de PHP-FPM utiliza sockets Unix, debes utilizar la siguiente sintaxis para `status_url`, `ping_url` y habilitar `use_fastcgi`: + +| Parámetro | Valor | +| ------------- | --------------------------------- | +| `status_url` | `unix:///.sock/status` | +| `ping_url` | `unix:///.sock/ping` | +| `ping_reply` | `pong` | +| `use_fastcgi` | `true` | + +**Nota**: Con Autodiscovery, si el Agent se ejecuta en un(a) contenedor/tarea/pod separado(a), no tendrá acceso al archivo de sockets Unix de tu grupo de FPM. Para solucionar este inconveniente, ejecuta el Agent como sidecar. + +[1]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ +{{% /tab %}} +{{< /tabs >}} + +### Validación + +[Ejecuta el subcomando `status` del Agent][3] y busca `php_fpm` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "php_fpm" >}} + + +### Eventos + +El check de PHP-FPM no incluye eventos. + +### Checks de servicios +{{< get-service-checks-from-git "php_fpm" >}} + + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][4]. + + + +[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/php_fpm/images/phpfpmoverview.png +[2]: https://app.datadoghq.com/account/settings/agent/latest +[3]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information +[4]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/observability_pipelines/guide/_index.md b/content/es/observability_pipelines/guide/_index.md new file mode 100644 index 0000000000000..1c5dbb7f8e06e --- /dev/null +++ b/content/es/observability_pipelines/guide/_index.md @@ -0,0 +1,9 @@ +--- +disable_toc: false +title: Guías de Observability Pipelines +--- + +{{< whatsnext desc="Guías generales:" >}} + {{< nextlink href="observability_pipelines/guide/strategies_for_reducing_log_volume" >}}Estrategias para la reducción del volumen de logs{{< /nextlink >}} + {{< nextlink href="observability_pipelines/guide/get_started_with_the_custom_processor" >}}Empezando con el procesador personalizado{{< /nextlink >}} +{{< /whatsnext >}} \ No newline at end of file diff --git a/content/es/real_user_monitoring/browser/setup/server/apache.md b/content/es/real_user_monitoring/browser/setup/server/apache.md new file mode 100644 index 0000000000000..7f1047cc05f8b --- /dev/null +++ b/content/es/real_user_monitoring/browser/setup/server/apache.md @@ -0,0 +1,125 @@ +--- +beta: true +code_lang: apache +code_lang_weight: 3 +description: Configura Apache httpd Server para inyectar automáticamente el SDK del + navegador RUM en las respuestas HTML utilizando el módulo Datadog. +further_reading: +- link: /real_user_monitoring/browser/setup/server/ + tag: Documentación + text: Instrumentación automática de la monitorización de navegadores +title: Instrumentación de Apache Server +type: lenguaje de código múltiple +--- + +
Para probar la vista previa de la Instrumentación automática RUM, sigue las instrucciones de esta página.
+ +## Información general + +La Instrumentación automática de RUM funciona inyectando el SDK del navegador RUM en las respuestas HTML que se entregan a través de un servidor web o proxy. Este método aprovecha la [funcionalidad de los módulos httpd de Apache][3] para implementar un filtro de cuerpo de respuesta. El filtro inyecta el SDK del navegador RUM en el cuerpo de la respuesta de aquellas respuestas identificadas como HTML. Una vez configurada la instrumentación automática, puedes gestionar las configuraciones desde la interfaz de usuario. + +Para conocer las limitaciones importantes y los requisitos de compatibilidad, consulta [Limitaciones][1]. + +## Requisitos previos + +El [Datadog Agent][2] está instalado y configurado. + +## Configurar tu aplicación RUM + +Para instrumentar automáticamente tu aplicación RUM: + +1. En Datadog, ve a **Digital Experience > Manage Applications Page** (Experiencia digital > Página de gestión de aplicaciones), haz clic en [**New Application** (Nueva aplicación)][4] y selecciona el tipo de aplicación JavaScript (JS). +2. Selecciona **Auto-Instrumentación** (Instrumentación automática) y **Apache httpd** (httpd Apache). +3. Configura los parámetros de tu aplicación. Consulta el [ejemplo de guía de configuración][5]. +4. Copia y ejecuta el comando de instalación para cargar el módulo httpd Datadog con el inyector de SDK RUM en httpd. +5. Una vez que el instalador haya instalado correctamente el inyector de SDK, reinicia httpd para comenzar a recopilar sesiones RUM. +6. (Opcional) Para comprobar que el módulo está inyectando correctamente el SDK del navegador RUM en páginas HTML, consulta los logs de error de httpd para ver si hay mensajes importantes. El módulo registra pasos importantes durante el proceso de inyección. Asegúrate de que el servidor HTTP APache está configurado con al menos el nivel de log `info` con lo siguiente: + +También puedes instalar y configurar [manualmente](#alternative-installation-method) el módulo. + +## Actualización de la aplicación RUM + +Puedes ajustar las frecuencias de muestreo de tus sesiones y de Session Replay desde la página Gestión de aplicaciones. + +Para actualizar tu solicitud RUM: + +1. Ve a tu aplicación RUM desde la lista de [Gestión de aplicaciones][4]. +2. En la página de **Configuración del SDK**, ajusta el control deslizante o introduce un porcentaje específico en el campo de entrada de Session Sampling o Session Replay Sampling. +3. Copia y pega el fragmento de configuración en tu archivo `/opt/datadog-httpd/datadog.conf`. + +## Solucionar problemas + +### No se inyecta RUM + +Si observas que RUM no se inyecta en las páginas HTML, considera las siguientes causas posibles: + +- **No coincide el tipo de contenido**: RUM sólo se inyecta en páginas HTML. Si la cabecera `Content-Type` no indica correctamente `text/html`, se omite la inyección. + +### Limitaciones + +Consulta otras [limitaciones][1]. + +## Desinstalar + +Para eliminar manualmente RUM de tu servidor web instrumentado automáticamente: + +1. Busca el archivo de configuración de Apache (`httpd`) ejecutando `httpd -V`. Dependiendo de la distribución Linux utilizada, este archivo binario podría llamarse `http`, `apachectl`, `apache2` o `apache2ctl`. En los pasos siguientes se utiliza `httpd` como ejemplo. En este caso, la ubicación del archivo podría ser: `/usr/local/apache2/conf/httpd.conf`. +2. Al final del archivo de configuración httpd, elimina la línea: `Include /opt/datadog-httpd/datadog.conf`. +3. Elimina el directorio `/opt/datadog-httpd/` y todo su contenido. +4. Reinicia o recarga Apache httpd. + +## Método de instalación alternativo + +Si necesitas un control más preciso de más parámetros que los que proporciona la instrumentación automática, puedes cargar manualmente el módulo en tu servidor web, en lugar de ejecutar el script de instalación. + +Para instrumentar manualmente tu aplicación RUM: + +### Descargar el archivo del módulo + +1. Descarga el [módulo comprimido][6]. +2. Extrae el zip para obtener el archivo `mod_datadog.so`. Desplázalo hacia una localización a la que tenga acceso el servidor HTTP Apache (citada como `` en los pasos siguientes). + +### Actualizar la configuración del servidor HTTP Apache + +1. Busca el archivo de configuración. Puedes utilizar `apachectl -V` para encontrar la ruta de configuración por defecto. Añade la siguiente línea para cargar el módulo: + + ```javascript + LoadModule datadog_module + ``` + +2. En la sección **root** (raíz) o **location** (ubicación) correspondiente, añade lo siguiente: + + ```javascript + # APM Tracing is enabled by default. The following line disables APM Tracing + DatadogTracing Off + DatadogRum On + + DatadogRumOption "applicationId" "" + DatadogRumOption "clientToken" "" + DatadogRumOption "site" "" + DatadogRumOption "service" "my-web-application" + DatadogRumOption "env" "production" + DatadogRumOption "version" "1.0.0" + DatadogRumOption "sessionSampleRate" "100" + DatadogRumOption "sessionReplaySampleRate" "100" + DatadogRumOption "trackResources" "true" + DatadogRumOption "trackLongTasks" "true" + DatadogRumOption "trackUserInteractions" "true" + + ``` + +### Reiniciar el servidor + +1. Reinicia el servidor HTTP Apache para comenzar a recopilar datos de tu aplicación RUM Datadog. Por defecto, el SDK RUM se inyecta en todos los documentos HTML. Es posible que necesites borrar la memoria caché de tu navegador. +2. (Opcional) Para comprobar que el módulo está inyectando correctamente el SDK del navegador RUM en páginas HTML, consulta los logs de error de httpd para ver si hay mensajes importantes. El módulo registra pasos importantes durante el proceso de inyección. Asegúrate de que el servidor HTTP Apache está configurado con al menos el nivel de log `info` con lo siguiente: + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/real_user_monitoring/browser/setup/server/#limitations +[2]: /es/agent/ +[3]: https://httpd.apache.org/modules/ +[4]: https://app.datadoghq.com/rum/list +[5]: /es/real_user_monitoring/guide/sampling-browser-plans/ +[6]: https://rum-auto-instrumentation.s3.amazonaws.com/httpd/latest/mod_datadog-amd64.zip \ No newline at end of file diff --git a/content/es/real_user_monitoring/rum_without_limits/metrics.md b/content/es/real_user_monitoring/rum_without_limits/metrics.md new file mode 100644 index 0000000000000..2d6ced92fc753 --- /dev/null +++ b/content/es/real_user_monitoring/rum_without_limits/metrics.md @@ -0,0 +1,71 @@ +--- +description: Comprende las métricas de rendimiento predefinidas disponibles con RUM + without Limits. +further_reading: +- link: /real_user_monitoring/rum_without_limits/ + tag: Documentación + text: RUM without Limits +- link: /real_user_monitoring/rum_without_limits/retention_filters + tag: Documentación + text: Filtros de retención +- link: /real_user_monitoring/guide/retention_filter_best_practices/ + tag: Guía + text: Prácticas recomendadas para filtros de retención +title: Analizar el rendimiento con métricas +--- +## Información general + +{{< img src="real_user_monitoring/rum_without_limits/filters-rum-measure-view.png" alt="Visualización del porcentaje de sesiones sin caídas de la aplicación Android en cuatro semanas." style="width:90%" >}} + +Datadog proporciona las siguientes métricas predefinidas para obtener una visión general del estado de la aplicación a lo largo del tiempo. Para garantizar la precisión, estas métricas se calculan antes de retener o descartar cualquier sesión. Esto significa que aunque conserves el 0,01 % de tus sesiones, estas métricas se calculan basándose en el 100 % de las sesiones ingeridas. Estas métricas son la base del [resumen de rendimiento][1] para ofrecerte una visión precisa del rendimiento de tus aplicaciones. + +**Notas**: +- El conjunto de cardinalidad **Predeterminado** de la siguiente tabla incluye las siguientes dimensiones: entorno, nombre de la aplicación, ID de la aplicación, versión de la aplicación, servicio, nombre del SO, versión del SO, nombre del navegador y país. +- Todas las consultas de las siguientes métricas incluyen `@session.type:user`. +- Si necesitas métricas de rendimiento más allá de las enumeradas a continuación, puedes crear [métricas personalizadas][2] desde tus eventos de RUM. Tanto las métricas predefinidas como las personalizadas se calculan basándose en el 100 % del tráfico ingerido. + +| Nombre de la métrica | Descripción | Dimensiones | Plataforma | +|-------------|-------------|------------|----------| +| `rum.measure.app.startup_time` | Tiempo de inicio de la aplicación | Por defecto, Desglose de percentiles | Solo móvil | +| `rum.measure.error` | Recuento de errores | Por defecto, Bloqueo, Nombre de la vista | Móvil y navegador | +| `rum.measure.error.anr` | Recuento de ANRs (una congelación de Android) | Por defecto, Bloqueo, Nombre de la vista | Solo móvil | +| `rum.measure.error.hang` | Recuento de caídas (una congelación de iOS) | Valor predeterminado | Solo móvil | +| `rum.measure.error.hang.duration` | Duración de las caídas (congelación de iOS) | Por defecto, Nombre de la vista | Solo móvil | +| `rum.measure.session` | Recuento de sesiones | Valor predeterminado | Móvil y navegador | +| `rum.measure.session.action` | Recuento de acciones | Por defecto, Tipo de acción, Nombre de la vista | Móvil y navegador | +| `rum.measure.session.crash_free` | Recuento de sesiones sin caídas | Valor predeterminado | Solo móvil | +| `rum.measure.session.error` | Recuento de errores por sesión (@session.error.count) | Por defecto, Desglose de percentiles | Móvil y navegador | +| `rum.measure.session.frustration` | Recuento de señales de frustración | Valor predeterminado | Móvil y navegador | +| `rum.measure.session.inactive` | Recuento de sesiones inactivas | Valor predeterminado | Móvil y navegador | +| `rum.measure.session.time_spent` | Duración de la sesión | Por defecto, Desglose de percentiles | Móvil y navegador | +| `rum.measure.view` | Recuento de visitas | Por defecto, Nombre de la vista | Móvil y navegador | +| `rum.measure.view.cpu_ticks_per_second` | Tics por segundo de la CPU | Por defecto, Nombre de la vista | Solo móvil | +| `rum.measure.view.crash_free` | Tasa de sesiones sin caídas | Por defecto, Nombre de la vista | Solo móvil | +| `rum.measure.view.cumulative_layout_shift` | Desplazamiento de diseño acumulativo | Por defecto, Desglose de percentiles, Nombre de la vista | Solo navegador | +| `rum.measure.view.loading_time` | Tiempo que transcurre hasta que la página está lista y no se está produciendo ninguna solicitud de red ni ninguna mutación del DOM. | Por defecto, Desglose de percentiles, Nombre de la vista | Móvil y navegador | +| `rum.measure.view.error_free` | Recuento de sesiones sin errores | Por defecto, Nombre de la vista | Móvil y navegador | +| `rum.measure.view.first_contentful_paint` | Momento en el que el navegador renderiza por primera vez cualquier texto, imagen (incluidas las imágenes de fondo), lienzo no blanco o SVG. | Por defecto, Desglose de percentiles, Nombre de la vista | Solo navegador | +| `rum.measure.view.frozen_frame` | Recuento de fotogramas congelados | Por defecto, Nombre de la vista | Solo móvil | +| `rum.measure.view.frozen_frame_free` | Recuento de vistas sin fotogramas congelados | Valor predeterminado | Solo móvil | +| `rum.measure.view.inactive` | Recuento de vistas inactivas | Por defecto, Desglose de percentiles | Móvil y navegador | +| `rum.measure.view.interaction_to_next_paint` | Duración máxima entre la interacción de un usuario con la página y la siguiente pintura. | Por defecto, Desglose de percentiles | Solo navegador | +| `rum.measure.view.interaction_to_next_view` | Tiempo transcurrido entre la última interacción del usuario en la vista anterior y el inicio de la vista actual. | Por defecto, Desglose de percentiles | Solo móvil | +| `rum.measure.view.largest_contentful_paint` | Momento de la carga de la página en el que se renderiza el objeto DOM más grande en la ventana gráfica (visible en pantalla) | Por defecto, Desglose de percentiles, Nombre de la vista | Solo navegador | +| `rum.measure.view.memory` | Cantidad de memoria del sistema utilizada | Por defecto, Desglose de percentiles | Solo móvil | +| `rum.measure.view.network_settled` | Red establecida | Por defecto, Desglose de percentiles | Solo móvil | +| `rum.measure.view.refresh_rate` | Media de la frecuencia de actualización del usuario (FPS) | Por defecto, Desglose de percentiles | Solo móvil | +| `rum.measure.view.slow_rendered` | Recuento de vistas renderizadas lentas | Valor predeterminado | Solo móvil | +| `rum.measure.view.time_spent` | Tiempo dedicado a la vista actual | Valor predeterminado | Móvil y navegador | + +## API + +Las métricas pueden gestionarse a través de [APIs][3] o los [módulos de Terraform][4] dedicados de Datadog. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/rum/performance-monitoring +[2]: /es/real_user_monitoring/platform/generate_metrics/ +[3]: /es/api/latest/rum-metrics/ +[4]: https://registry.terraform.io/providers/DataDog/datadog/3.60.0/docs/resources/rum_metric \ No newline at end of file diff --git a/content/es/security/application_security/setup/gcp/cloud-run/dotnet.md b/content/es/security/application_security/setup/gcp/cloud-run/dotnet.md new file mode 100644 index 0000000000000..759cac55794ba --- /dev/null +++ b/content/es/security/application_security/setup/gcp/cloud-run/dotnet.md @@ -0,0 +1,139 @@ +--- +further_reading: +- link: /security/application_security/how-it-works/ + tag: Documentación + text: Funcionamiento de App and API Protection +- link: /security/default_rules/?category=cat-application-security + tag: Documentación + text: Reglas predefinidas de App and API Protection +- link: /security/application_security/troubleshooting + tag: Documentación + text: Solución de problemas de App and API Protection +- link: /security/application_security/threats/ + tag: Documentación + text: App and API Protection +- link: https://www.datadoghq.com/blog/datadog-security-google-cloud/ + tag: Blog + text: Datadog Security amplía las funciones de cumplimiento de normativas y protección + frente a amenazas para Google Cloud +title: Habilitar App and API Protection para funciones de Google Cloud Run en .NET +--- + +
La compatibilidad de AAP con Google Cloud Run está en vista previa.
+ +## Cómo funciona + +La aplicación `serverless-init` envuelve tu proceso y lo ejecuta como un subproceso. Inicia un escuchador de métricas de DogStatsD y un escuchador de trazas del Trace Agent. Recopila logs envolviendo los flujos stdout/stderr de tu aplicación. Después de arrancar, `serverless-init` inicia tu comando como un subproceso. + +Para una instrumentación completa, asegúrate de que estás llamando a `datadog-init` como el primer comando que se ejecuta dentro de tu contenedor Docker. Puedes hacerlo configurándolo como punto de entrada, o configurándolo como el primer argumento en CMD. + +## Compatibilidad + +
La compatibilidad de Google Cloud Run con App and API Protection sin servidor está en vista previa.
+ +**Nota**: La protección frente a amenazas no es compatible a través de la configuración remota. Utiliza los [flujos][5] para bloquear direcciones IP en tu [WAF][6]. + +## Para empezar + +Añade las siguientes instrucciones y argumentos a tu Dockerfile. + +```dockerfile +COPY --from=datadog/serverless-init:1 /datadog-init /app/datadog-init +# For arm64 use datadog-dotnet-apm-2.57.0.arm64.tar.gz +# For alpine use datadog-dotnet-apm-2.57.0-musl.tar.gz +ARG TRACER_VERSION +ADD https://github.com/DataDog/dd-trace-dotnet/releases/download/v${TRACER_VERSION}/datadog-dotnet-apm-${TRACER_VERSION}.tar.gz /tmp/datadog-dotnet-apm.tar.gz +RUN mkdir -p /dd_tracer/dotnet/ && tar -xzvf /tmp/datadog-dotnet-apm.tar.gz -C /dd_tracer/dotnet/ && rm /tmp/datadog-dotnet-apm.tar.gz +ENV DD_SERVICE=datadog-demo-run-dotnet +ENV DD_ENV=datadog-demo +ENV DD_VERSION=1 +ENV DD_APPSEC_ENABLED=1 +ENTRYPOINT ["/app/datadog-init"] +CMD ["dotnet", "helloworld.dll"] +``` + +### Explicación + +1. Copia `serverless-init` de Datadog en tu imagen de Docker. + ```dockerfile + COPY --from=datadog/serverless-init:1 /datadog-init /app/datadog-init + ``` + +2. Copia el rastreador Datadog.NET en tu imagen de Docker. + ```dockerfile + # For arm64 use datadog-dotnet-apm-2.57.0.arm64.tar.gz + # For alpine use datadog-dotnet-apm-2.57.0-musl.tar.gz + ARG TRACER_VERSION + ADD https://github.com/DataDog/dd-trace-dotnet/releases/download/v${TRACER_VERSION}/datadog-dotnet-apm-${TRACER_VERSION}.tar.gz /tmp/datadog-dotnet-apm.tar.gz + + RUN mkdir -p /dd_tracer/dotnet/ && tar -xzvf /tmp/datadog-dotnet-apm.tar.gz -C /dd_tracer/dotnet/ && rm /tmp/datadog-dotnet-apm.tar.gz + ``` + Si instalas la biblioteca del rastreador de Datadog directamente en tu aplicación, como se indica en las [instrucciones para la instrumentación manual del rastreador][1], omite este paso. + +3. (Opcional) Añade etiquetas (tags) de Datadog. + ```dockerfile + ENV DD_SERVICE=datadog-demo-run-dotnet + ENV DD_ENV=datadog-demo + ENV DD_VERSION=1 + ENV DD_APPSEC_ENABLED=1 + ``` + +4. Cambia el punto de entrada para contener tu aplicación en el proceso de `serverless-init` de Datadog. + **Nota**: Si ya tienes un punto de entrada definido dentro de tu archivo Docker, consulta la [configuración alternativa](#alt-dotnet). + ```dockerfile + ENTRYPOINT ["/app/datadog-init"] + ``` + +5. Ejecuta tu aplicación binaria contenida en el punto de entrada. Adapta esta línea a tus necesidades. + ```dockerfile + CMD ["dotnet", "helloworld.dll"] + ``` +### Configuración alternativa {#alt-dotnet} +Si ya tienes un punto de entrada definido en tu archivo Docker, puedes modificar el argumento CMD. + +{{< highlight dockerfile "hl_lines=7" >}} +COPY --from=datadog/serverless-init:1 /datadog-init /app/datadog-init +# Para arm64 utilizar datadog-dotnet-apm-2.57.0.arm64.tar.gz +# Para alpine utilizar datadog-dotnet-apm-2.57.0-musl.tar.gz +ARG TRACER_VERSION +ADD https://github.com/DataDog/dd-trace-dotnet/releases/download/v${TRACER_VERSION}/datadog-dotnet-apm-${TRACER_VERSION}.tar.gz /tmp/datadog-dotnet-apm.tar.gz +RUN mkdir -p /dd_tracer/dotnet/ && tar -xzvf /tmp/datadog-dotnet-apm.tar.gz -C /dd_tracer/dotnet/ && rm /tmp/datadog-dotnet-apm.tar.gz +ENV DD_SERVICE=datadog-demo-run-dotnet +ENV DD_ENV=datadog-demo +ENV DD_VERSION=1 +ENV DD_APPSEC_ENABLED=1 +CMD ["/app/datadog-init", "dotnet", "helloworld.dll"] +{{< /highlight >}} + +Si necesitas que tu punto de entrada también se instrumente, puedes intercambiar tu punto de entrada y argumentos CMD en su lugar. Para obtener más información, consulta [Funcionamiento de `serverless-init`](#how-serverless-init-works). + +{{< highlight dockerfile "hl_lines=7-8" >}} +COPY --from=datadog/serverless-init:1 /datadog-init /app/datadog-init +# Para arm64 utilizar datadog-dotnet-apm-2.57.0.arm64.tar.gz +# Para alpine utilizar datadog-dotnet-apm-2.57.0-musl.tar.gz +ARG TRACER_VERSION +ADD https://github.com/DataDog/dd-trace-dotnet/releases/download/v${TRACER_VERSION}/datadog-dotnet-apm-${TRACER_VERSION}.tar.gz /tmp/datadog-dotnet-apm.tar.gz +RUN mkdir -p /dd_tracer/dotnet/ && tar -xzvf /tmp/datadog-dotnet-apm.tar.gz -C /dd_tracer/dotnet/ && rm /tmp/datadog-dotnet-apm.tar.gz +ENV DD_SERVICE=datadog-demo-run-dotnet +ENV DD_ENV=datadog-demo +ENV DD_VERSION=1 +ENV DD_APPSEC_ENABLED=1 +ENTRYPOINT ["/app/datadog-init"] +CMD ["your_entrypoint.sh", "dotnet", "helloworld.dll"] +{{< /highlight >}} + +Siempre y cuando el comando a ejecutar se pase como argumento a `datadog-init`, recibirás la Instrumentación completa. + +[1]: /es/tracing/trace_collection/dd_libraries/dotnet-core/?tab=linux#custom-instrumentation + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/services?query=type%3Afunction%20&env=prod&groupBy=&hostGroup=%2A&lens=Security&sort=-attackExposure&view=list +[2]: /es/serverless/distributed_tracing/ +[3]: https://app.datadoghq.com/security/appsec +[4]: /es/security/application_security/serverless/compatibility +[5]: /es/actions/workflows/ +[6]: /es/security/application_security/waf-integration/ +[apm-lambda-tracing-setup]: https://docs.datadoghq.com/serverless/aws_lambda/distributed_tracing/ \ No newline at end of file diff --git a/content/es/security/application_security/threats/custom_rules.md b/content/es/security/application_security/threats/custom_rules.md new file mode 100644 index 0000000000000..0d8d3fdb86490 --- /dev/null +++ b/content/es/security/application_security/threats/custom_rules.md @@ -0,0 +1,120 @@ +--- +aliases: +- /es/security_platform/application_security/custom_rules +- /es/security/application_security/custom_rules +further_reading: +- link: /security/application_security/ + tag: Documentación + text: Protégete contra las amenazas con la protección de aplicaciones y API de Datadog +- link: /security/application_security/event_rules/ + tag: Documentación + text: Crear reglas de eventos +- link: /security/application_security/troubleshooting + tag: Documentación + text: Soluciona los problemas más comunes de la protección de aplicaciones y API + de Datadog +- link: /security/notifications/variables/ + tag: Documentación + text: Más información sobre las variables de notificación de seguridad +- link: /tracing/trace_explorer/query_syntax/ + tag: Documentación + text: Sintaxis para definir la consulta AAP +title: Reglas de detección personalizadas +--- + +## Información general + +La protección de aplicaciones y API (AAP) viene con un conjunto de [reglas predefinidas de detección][1] cuyo objetivo es detectar los intentos de ataque, las vulnerabilidades encontradas por el atacante y el abuso de la lógica de negocios que afectan a tus sistemas de producción. + +Sin embargo, hay situaciones en las que puedes querer personalizar una regla según tu entorno o carga de trabajo. Por ejemplo, es posible que desees personalizar una regla de detección que detecte a los usuarios que realizan acciones confidenciales desde una geolocalización en la que no opera tu empresa. + +Otro ejemplo es la personalización de una regla para excluir un escáner de seguridad interno. AAP detecta su actividad como es de esperar. Sin embargo, es posible que no desees que se te notifique su análisis periódico. + +En estas situaciones, se puede crear una regla de detección personalizada para excluir tales eventos. Esta guía muestra cómo crear una regla de detección personalizada para AAP. + +## Regla de detección de abuso de lógica de negocio + +AAP ofrece reglas predefinidas para detectar el abuso de la lógica de negocios (por ejemplo, restablecer una contraseña mediante fuerza bruta). Estas reglas requieren [añadir información de lógica de negocios a las traces (trazas)][7]. + +Intento reciente de las bibliotecas de rastreo de Datadog de detectar y enviar el inicio de sesión de usuario y los eventos de registro automáticamente sin necesidad de modificar el código. En caso necesario, puedes [desactivar el rastreo automático del evento de la actividad del usuario][8]. + +Puedes filtrar las reglas e identificar qué lógica de negocio empezar a rastrear. Además, puedes utilizar estas reglas como modelo para crear reglas personalizadas basadas en tu propia lógica de negocio. + +Consulta la sección siguiente para ver cómo configurar tus reglas. + +## Configuración + +Para personalizar una regla de detección predefinida, lo primero que tienes que hacer es clonar una regla ya existente. Ve a la sección [Detection Rules (Reglas de detección)][2] y selecciónala. Desplázate hasta el final de la regla y haz clic en el botón Clone Rule (Clonar regla). Así, podrás editar la regla. + +### Definir una consulta de AAP + +Construye una consulta de AAP utilizando la [misma sintaxis de consulta que en el Trace Explorer de AAP][3]. Por ejemplo, crea una consulta para monitorizar éxitos de inicio de sesión desde el exterior de Estados Unidos: `@appsec.security_activity:business_logic.users.login.success -@actor.ip_details.country.iso_code:US`. + +También puedes definir un count único y una agrupación de señales. Cuenta el número de valores únicos que se observan en relación con un atributo en una franja de tiempo determinada. El parámetro group-by definido genera una señal por cada valor group-by. Lo más habitual es que el parámetro group-by sea una entidad (un usuario, una IP o servicio). Este parámetro también se usa para [unir consultas](#joining-queries). + +Utiliza la sección de vista previa para ver qué traces (trazas) de AAP coinciden con la consulta de búsqueda. También puedes añadir consultas adicionales con el botón Añadir consulta. + +##### Unir consultas + +Unir consultas para abarcar una franja de tiempo puede aumentar la fiabilidad o la gravedad de la señal de seguridad. Por ejemplo, para detectar un ataque exitoso, se pueden correlacionar los desencadenantes de éxito y fracaso en un servicio. + +Las consultas se correlacionan empleando el valor `group by`. El valor `group by` suele ser una entidad (por ejemplo, `IP` o `Service`), aunque también puede ser un atributo. + +Por ejemplo, puedes crear consultas opuestas para buscar la misma actividad `business_logic.users.login.success`, pero añadirles consultas de ruta HTTP opuestas para detectar intentos exitosos y fallidos: + +Consulta 1: `@appsec.security_activity:business_logic.users.login.success @actor.ip_details.country.iso_code:US`. + +Consulta 2: `@appsec.security_activity:business_logic.users.login.success -@actor.ip_details.country.iso_code:US`. + +En este caso, las consultas unidas técnicamente contienen el mismo valor de atributo: el valor debe ser el mismo para el caso que se quiere encontrar. Si no existe un valor `group by`, nunca se encontrará el caso. Se genera una señal de seguridad por cada valor `group by` único cuando se encuentra una coincidencia con un caso. + +### Excluir la actividad benigna con consultas de supresión + +En el campo **Only generate a signal if there is a match** (Generar una señal solo si hay una coincidencia), tienes la opción de introducir una consulta para que solo se genere un desencadenante cuando se cumpla un valor. + +En el campo **Only generate a signal if there is a match** (Esta regla no generará una señal si hay una coincidencia), tienes la opción de introducir consultas de supresión para que no se genere un desencadenante cuando se cumplan los valores. Por ejemplo, si un servicio está activando una señal, pero la acción es benigna y ya no deseas que se activen señales desde este servicio, crea una consulta que excluya `service`. + +### Configurar casos de reglas + +#### Activación + +Los casos de las reglas, como `successful login > 0`, se evalúan como sentencias “case”. Por ello, el primer caso para el que se encuentre una coincidencia generará la señal. Crea uno o varios casos para tus reglas y haz clic en la zona gris situada junto a ellos para arrastrarlos y reordenarlos. + +Los casos de las reglas contienen operaciones lógicas (`>, >=, &&, ||`) para determinar si debe generarse una señal según el número de eventos de las consultas definidas previamente. + +**Nota**: La etiqueta de la consulta debe situarse por delante del operador. Por ejemplo, `a > 3` es válido y `3 < a` no es válido. + +Ponle **nombre** a cada caso de regla. Este nombre se añadirá al nombre de la regla cuando se genere una señal. + +#### Gravedad y notificación + +{{% security-rule-severity-notification %}} + +### Intervalos de tiempo + +{{% security-rule-time-windows %}} + +Haz clic en **Add case** (Añadir caso) para añadir casos adicionales. + +**Nota**: El valor de `evaluation window` debe ser inferior o igual a `keep alive` y `maximum signal duration`. + +### Decir qué está ocurriendo + +{{% security-rule-say-whats-happening %}} + +Utilice el menú desplegable **etiquetar señales resultantes** para añadir etiquetas (tags) a sus señales. Por ejemplo, `attack:sql-injection-attempt`. + +**Nota**: La etiqueta `security` es especial, ya que sirve para clasificar la señal de seguridad. Las opciones recomendadas son `attack`, `threat-intel`, `compliance`, `anomaly` y `data-leak`. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/security/default_rules/?category=cat-application-security +[2]: https://app.datadoghq.com/security/appsec/signals-rules +[3]: /es/tracing/trace_explorer/query_syntax/ +[4]: /es/monitors/notify/?tab=is_alert#integrations +[5]: /es/security/notifications/variables/ +[6]: /es/security/notifications/variables/#template-variables +[7]: /es/security/application_security/how-it-works/add-user-info/?tab=set_user#adding-business-logic-information-login-success-login-failure-any-business-logic-to-traces +[8]: /es/security/application_security/how-it-works/add-user-info/?tab=set_user#disabling-automatic-user-activity-event-tracking \ No newline at end of file diff --git a/content/es/security/application_security/threats/setup/compatibility/serverless.md b/content/es/security/application_security/threats/setup/compatibility/serverless.md new file mode 100644 index 0000000000000..879bd8520bb9d --- /dev/null +++ b/content/es/security/application_security/threats/setup/compatibility/serverless.md @@ -0,0 +1,92 @@ +--- +code_lang: serverless +code_lang_weight: 90 +title: Requisitos de compatibilidad serverless +type: lenguaje de código múltiple +--- + +App and API Protection proporciona funciones serverless para las siguientes plataformas y bibliotecas: + +{{< partial name="security-platform/appsec-libraries-serverless.html" >}}
+ +## AWS Lambda +**Nota**: La protección frente a amenazas no es compatible a través de la configuración remota. Utiliza los [flujos][5] para bloquear direcciones IP en tu [WAF][6]. + +|Tipo | Detección de amenazas | Análisis de la composición del software (SCA) | Seguridad del código | +| --- | --- | ---- | ---- | +| Java | {{< X >}} | | | +| .NET | {{< X >}} | | | +| Node | {{< X >}} | Vista previa | | +| Python | {{< X >}} | Vista previa | | +| Ruby | {{< X >}} | | | +| PHP | | | | +| Go | {{< X >}} | | | + +### Tipos de activación compatibles +La detección de amenazas admite solicitudes HTTP como entrada de función únicamente, ya que ese canal tiene la mayor probabilidad de que los atacantes exploten una aplicación serverless. Las solicitudes HTTP suelen proceder de servicios AWS como: +- Equilibrador de carga de aplicaciones (ALB) +- Pasarela API v1 (API Rest) +- Pasarela API v2 (API HTTP) +- URL de la función + +
Si quieres que agreguemos la compatibilidad para alguna función que aún no es compatible, háznoslo saber. Rellena este breve formulario para enviarnos tu información.
+ + +### Información adicional sobre la compatibilidad específica de lenguajes + +Node.js +: Si estás empaquetando con webpack o esbuild, [sigue las instrucciones específicas del empaquetador][4]. + +Python +: + +Java +: Para instrumentar de forma completa tu aplicación serverless con rastreo distribuido, tus funciones Lambda Java deben utilizar los tiempos de ejecución Java 8 Corretto (`java8.al2`), Java 11 (`java11`) o Java 17 (`java17`), con al menos 1024 MB de memoria. +: Si utilizas las capas Lambda Datadog `dd-trace-java:4` (o anteriores) y `Datadog-Extension:24` (o anteriores), sigue las instrucciones de [Actualización de la instrumentación para funciones Lambda Java][3]. + +Go +: + +.NET +: + + +## Google Cloud Run + +
La compatibilidad de Google Cloud Run con App and API Protection serverless se encuentra en vista previa.
+ +**Nota**: La protección frente a amenazas no es compatible a través de la configuración remota. Utiliza los [flujos][5] para bloquear direcciones IP en tu [WAF][6]. + +|Tipo | Detección de amenazas | Análisis de composición de software | Seguridad del código | +| --- | --- | ---- | ---- | +| Java | Vista previa | Vista previa | | +| .NET | Vista previa | Vista previa | | +| Node | Vista previa | Vista previa | | +| Python | Vista previa | Vista previa | | +| Ruby | Vista previa | Vista previa | | +| PHP | | | | +| Go | Vista previa | Vista previa | | + + +## Azure App Service + +Sólo son compatibles las *aplicaciones web*. Las funciones Azure no son compatibles. + +**Nota**: La protección frente a amenazas no es compatible a través de la configuración remota. Utiliza los [flujos][5] para bloquear direcciones IP en tu [WAF][6]. + +|Tipo | Sistema operativo |Detección de amenazas | Análisis de composición de software | Seguridad del código | +|-----------|--------------------|------------------|------------------------------------|------------------------------------------| +| Java | Windows, Linux | {{< X >}} | {{< X >}} | Vista previa | +| .NET | Windows, Linux | {{< X >}} | {{< X >}} | | +| Node | Linux | {{< X >}} | {{< X >}} | Vista previa | +| Python | Linux | {{< X >}} | {{< X >}} | | +| Ruby | Linux | {{< X >}} | {{< X >}} | | +| PHP | Linux | | {{< X >}} | | + + +[1]: /es/serverless/distributed_tracing/ +[2]: /es/serverless/guide/datadog_forwarder_python +[3]: /es/serverless/guide/upgrade_java_instrumentation +[4]: /es/serverless/guide/serverless_tracing_and_bundlers/ +[5]: /es/service_management/workflows/ +[6]: /es/security/application_security/threats/inapp_waf_rules/ \ No newline at end of file diff --git a/content/es/security/application_security/threats/setup/threat_detection/_index.md b/content/es/security/application_security/threats/setup/threat_detection/_index.md new file mode 100644 index 0000000000000..3979cd59eaa80 --- /dev/null +++ b/content/es/security/application_security/threats/setup/threat_detection/_index.md @@ -0,0 +1,40 @@ +--- +aliases: +- /es/security/application_security/enabling/tracing_libraries/threat_detection/ +- /es/security/application_security/threats/threat_detection/ +further_reading: +- link: /security/application_security/ + tag: Documentación + text: Protegerse de las amenazas con Datadog App and API Protection +- link: /security/application_security/add-user-info/ + tag: Documentación + text: Seguimiento de la actividad de los usuarios +- link: /security/default_rules/?category=cat-application-security + tag: Documentación + text: Reglas de App and API Protection predefinidas +- link: /security/application_security/troubleshooting + tag: Documentación + text: Solucionar problemas de App and API Protection +- link: /security/application_security/how-it-works/ + tag: Documentación + text: Funcionamiento de App and API Protection en Datadog +title: Activar AAP Threat Detection utilizando bibliotecas de rastreo de Datadog +type: lenguaje de código múltiple +--- + +## Requisitos previos + +Antes de configurar App and API Protection, asegúrate de que se cumplen los siguientes requisitos previos: +- **Instalación del Datadog Agent:** el Datadog Agent se instala y configura para el sistema operativo de tu aplicación o contenedor, nube o entorno virtual. +- **Configuración de Datadog APM:** Datadog APM está configurado para tu aplicación o servicio, y Datadog recibe las trazas (traces) web (`type:web`). +- **Biblioteca de rastreo compatible:** La biblioteca de rastreo de Datadog utilizada por tu aplicación o servicio es compatible con las funciones de App and API Protection para el lenguaje de tu aplicación o servicio. Para obtener más información, consulta la página [Compatibilidad de bibliotecas][1]. + +Selecciona el lenguaje de la aplicación para obtener información sobre cómo habilitar AAP Threat Detection para tu lenguaje y tus tipos de infraestructura. + +{{< partial name="security-platform/appsec-languages.html" >}}
+ +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/security/application_security/setup/compatibility \ No newline at end of file diff --git a/content/es/service_management/incident_management/incident_settings/templates.md b/content/es/service_management/incident_management/incident_settings/templates.md new file mode 100644 index 0000000000000..37c72df29e175 --- /dev/null +++ b/content/es/service_management/incident_management/incident_settings/templates.md @@ -0,0 +1,49 @@ +--- +further_reading: +- link: /service_management/incident_management/notification + tag: Documentación + text: Más información sobre las notificaciones de Incident Management +title: Plantillas +--- + +## Información general + +Las plantillas dinámicas ofrecen un marco completo para mejorar la respuesta a incidentes y la eficacia operativa. El uso de plantillas de mensajes personalizadas para notificaciones, tanto ad hoc como automatizadas, puede ahorrar tiempo durante incidentes de gran tensión. Esto garantiza que los mensajes sean siempre precisos y contengan el contexto pertinente, lo que permite una comprensión y una acción más rápidas por parte de los destinatarios. + +Los ajustes personalizables para el análisis postmortem pueden proporcionar información valiosa y optimización a largo plazo. Al adaptar los informes y dashboards al contexto único de tu organización, puedes identificar problemas recurrentes y aplicar medidas preventivas con mayor eficacia. + +## Mensajes + +Las plantillas de mensajes son mensajes dinámicos y reutilizables que pueden usarse en [notificaciones de incidentes manuales][1], o en reglas de notificación automatizadas. Las plantillas de mensajes aprovechan variables de plantilla, como `{{incident.severity}}`, para inyectar dinámicamente el valor correspondiente del incidente para el que se envía la notificación. Las plantillas de mensajes son compatibles con Markdown para que las notificaciones de incidente puedan incluir formato de texto, tablas, listas con sangría e hipervínculos. Para organizar mejor un gran número de plantillas de mensajes, cada plantilla requiere una categoría durante el proceso de creación. + +Para crear una plantilla de mensaje: + +1. Haz clic en el botón **+ New Message Template** (+ Nueva plantilla de mensaje). +2. Dale un nombre a la plantilla +3. Asígnale una categoría nueva o existente +4. Asigna un asunto a la plantilla (para correos electrónicos) +5. Escribe el mensaje de la plantilla +6. Haz clic en **Save** (Guardar). + +**Nota:** Se admiten variables de plantilla tanto en el título como en el cuerpo del mensaje. + +## Análisis retrospectivos + +Las plantillas de análisis retrospectivo son plantillas dinámicas y reutilizables que se utilizan para crear un [notebook de Datadog][2] o [página de Confluence][3] que se rellena automáticamente con información sobre incidentes después de que se haya resuelto un incidente. Las plantillas de análisis retrospectivo aprovechan variables de plantilla, como `{{incident.severity}}`, para inyectar dinámicamente el valor correspondiente del incidente para el que se está creando la plantilla de análisis retrospectivo. + +Para crear una plantilla de análisis retrospectivo: + +1. Haz clic en el botón **+ New Postmortem Template** (+ Nueva plantilla de análisis retrospectivo). +2. Dale un nombre a la plantilla +3. Selecciona un notebook de Datadog o una página de Confluence que se creará en la generación. +4. Escribe el contenido de la plantilla (a la derecha del cuadro de texto aparecen las variables de plantilla disponibles) +5. (Opcional) Establece la plantilla como predeterminada +6. Haz clic en **Save** (Guardar). + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/service_management/incident_management/notifications +[2]: /es/notebooks/ +[3]: /es/integrations/confluence/ \ No newline at end of file diff --git a/content/es/software_catalog/set_up/existing_datadog_user.md b/content/es/software_catalog/set_up/existing_datadog_user.md new file mode 100644 index 0000000000000..5db8a56aea5ee --- /dev/null +++ b/content/es/software_catalog/set_up/existing_datadog_user.md @@ -0,0 +1,63 @@ +--- +aliases: +- /es/software_catalog/import_entries_dd/ +- /es/software_catalog/enrich_default_catalog/import_entries_dd +- /es/service_catalog/import_entries_dd/ +- /es/service_catalog/enrich_default_catalog/import_entries_dd +- /es/service_catalog/customize/import_entries_dd +- /es/software_catalog/customize/import_entries_dd +further_reading: +- link: /tracing/software_catalog/setup/ + tag: Documentación + text: Configuración de Software Catalog +title: Detectar componentes en Software Catalog +--- + +Aprende cómo Software Catalog detecta servicios desde Datadog Application Performance Monitoring (APM), Universal Service Monitoring (USM), Real User Monitoring (RUM), métricas y logs de infraestructura. + +## Detección automática con APM, USM y RUM + +Datadog Software Catalog está precargado con entradas detectadas a través de [APM][5], autodetección basada en eBPF con las aplicaciones [Universal Service Monitoring][6] y RUM. + +Todos los componentes detectados automáticamente aparecen en el selector de componentes en Software Catalog. + +APM y USM detectan automáticamente los siguientes tipos de componentes: `service`,`datastore`, `queue`, `external providers`, `inferred services` y `endpoints`. Los SDK de APM identifican dependencias de servicios instrumentados y las clasifican como bases de datos, colas o API de terceros, incluso si esas dependencias no se instrumentan directamente. La instrumentación personalizada puede afectar la manera en que se autodetectan los componentes y en que se asigna la `service tag`. Para obtener más información, consulta [Servicios inferidos de APM][12]. + +RUM se encarga de detectar los componentes de `frontend apps`. + +**Gestión de servicios nombrados en forma automática:** +- Puedes optar por [entidades inferidas][7] para filtrar las entidades por tipo (base de datos, cola, terceros). +- Opcionalmente, puedes [eliminar sustituciones de servicios][8] como `service:my-service-http-client` de tu catálogo o mapa. + +Para obtener más información sobre la detección de endpoints, consulta [Detección de endpoints en APM][10]. + +## Importa componentes de infraestructura y logs + +Puedes importar servicios desde otra telemetría de Datadog que contenga la [tag (etiqueta)][2] `DD_SERVICE` to poblar el Software Catalog. Para detectar componentes `kind:service` a través de métricas o logs de la infraestructura de Datadog, ve a la [pestaña **Import Entries** (Importar entradas)][11] de Software Catalog. + +{{< img src="tracing/software_catalog/import_entries.png" alt="Pestaña Importar entradas en la sección de configuración de Software Catalog" style="width:90%;" >}} + +Tras la importación, las entradas aparecen en la pestaña **Explore** (Explorar). Las entradas pueden caducar a menos que añadas metadatos, como el propietario o los contactos, mediante [el uso de la API][3] o la [integración de GitHub][4]. + +Para eliminar los servicios importados de la vista predeterminada **Explore** (Explorar), haz clic en **Eliminar servicios importados anteriormente** en la pestaña [**Import Entries** (Importar entradas)][11]. Esto elimina todos los servicios que no tienen metadatos o no tienen telemetría de APM, Universal Service Monitoring (USM) o Real User Monitoring (RUM). + +{{< img src="tracing/software_catalog/clear_imported_services.png" alt="Confirmar la eliminación de servicios importados anteriormente en la sección de configuración del Software Catalog" style="width:90%;" >}} + + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + + +[1]: https://app.datadoghq.com/software/settings/get-started +[2]: /es/getting_started/tagging/unified_service_tagging +[3]: /es/tracing/software_catalog/service_definition_api/ +[4]: /es/integrations/github/ +[5]: /es/tracing/ +[6]: /es/universal_service_monitoring/ +[7]: /es/tracing/services/inferred_services +[8]: /es/tracing/guide/service_overrides/#remove-service-overrides +[9]: /es/tracing/guide/service_overrides/ +[10]: /es/software_catalog/endpoints/ +[11]: https://app.datadoghq.com/software/settings/get-started?currentTab=import +[12]: /es/tracing/services/inferred_services \ No newline at end of file diff --git a/content/es/synthetics/guide/canvas-content-javascript.md b/content/es/synthetics/guide/canvas-content-javascript.md new file mode 100644 index 0000000000000..fdb3954ac0117 --- /dev/null +++ b/content/es/synthetics/guide/canvas-content-javascript.md @@ -0,0 +1,313 @@ +--- +description: Aprende a probar y afirmar el contenido del lienzo en tests de navegador + Synthetic utilizando el análisis de píxeles, la detección de colores y las interacciones + simuladas de usuarios de JavaScript. +further_reading: +- link: /synthetics/browser_tests + tag: Documentación + text: Más información sobre los tests de navegador +title: Afirmación del contenido del lienzo con JavaScript +--- + +## Información general + +El contenido del lienzo se representa como datos de píxeles sin procesar, en lugar de elementos HTML estructurados. Esto significa que no puedes apuntar a elementos dentro de un lienzo utilizando selectores tradicionales como XPath o CSS, ya que no existe una representación DOM subyacente del contenido visual. Como resultado, acciones como **hacer clic** o **pasar el cursor por encima** no pueden interactuar con elementos dibujados dentro de un lienzo. + +Para solucionarlo, puedes utilizar [aserciones personalizadas de JavaScript][1] para analizar los datos de píxeles del lienzo y verificar que el contenido esperado está presente. + +## ¿Qué es un lienzo HTML? + +El elemento [`canvas`][2] es una etiqueta (tag) HTML que proporciona una región dibujable en el navegador, lo que permite representar gráficos dinámicos mediante JavaScript. Se utiliza habitualmente para mostrar contenido visual, como tablas, gráficos, herramientas de edición de imágenes y animaciones. + +Compatible con los principales navegadores modernos, el elemento `` es versátil. Cuando se combina con bibliotecas JavaScript como `Chart.js` o `D3.js`, puede mostrar visualizaciones interactivas que responden a acciones del usuario como hacer clic o pasar el cursor por encima de un elemento, lo que permite funciones como información sobre tooltips personalizados o el resaltado de puntos de datos. + +{{< img src="/synthetics/guide/canvas-content-javascript/graph.mp4" alt="Gráfica de una métrica en Datadog utilizando el Metrics Explorer." video=true >}} + +## Interacción con un lienzo + +Para trabajar con un elemento lienzo en JavaScript: + +- Seleccione el lienzo utilizando `document.getElementById()` o `document.querySelector()` y asígnalo a una variable. +- Obtén el contexto de presentación llamando al método `.getContext()` en el elemento lienzo, especificando el tipo de contexto. El más frecuente es `'2d'` para [gráficos bidimensionales][4]. + +Por ejemplo, define tu elemento lienzo: + +```javascript + +``` + +A continuación, ajusta su contenido con JavaScript: + +```javascript +//Store the canvas in a variable using its identifier +const canvas_variable = document.getElementById("canvas_ID"); +//Obtain the context +const ctx = canvas_variable.getContext("2d"); +//This code draws a green rectangle +ctx.fillStyle = "green"; +ctx.fillRect(10, 10, 150, 100); +``` + +Mozilla ofrece este [parque de juegos][5], donde puedes experimentar, copiar y modificar este ejemplo. + +## Buscar un píxel en función de un color + +Confirma que el siguiente gráfico utiliza los colores coral y verde esperados: + +{{< img src="/synthetics/guide/canvas-content-javascript/canvas_screenshot.png" alt="Gráfico de tráfico de sitio de ejemplo." >}} + +- La estrategia más eficaz consiste en localizar al menos un píxel de color coral y otro de color verde. Empieza por identificar un píxel que coincida con el color coral. + +- El siguiente script muestra cómo recorrer las coordenadas `x, y` del lienzo para afirmar que al menos uno de sus píxeles coincide con el color de destino: + +{{% collapse-content title="Comprobación JavaScript de ejemplo" level="h4" expanded=false id="JavaScript_assertion" %}} +{{< code-block lang="javascript" >}} + +// Defining the canvas element as a Variable +const canvas = document.querySelector('canvas_ID'); + +// Obtain the context +const ctx = canvas.getContext('2d'); + +/* + Recopila el área completa del lienzo comenzando en las coordenadas 0,0 + + La variable imageData contendrá: + - ancho: el ancho del lienzo + - altura: la altura del lienzo + - datos: una matriz que contiene los valores RGBA de cada píxel del lienzo +*/ +const imageData = ctx.getImageData(0, 0, canvas.width, canvas.height); + +// Variable that stores the array of RGBA values +const data = imageData.data; + +// RGBA definition of the color we are looking for (coral color) +const targetColor = { r: 240, g: 128, b: 128 }; + +// Tolerance threshold (see note at the bottom) +const maxDistance = 20; + +// Function that calculates Euclidean distance +function colorDistance(r1, g1, b1, r2, g2, b2) { + return Math.sqrt( + (r1 - r2) ** 2 + + (g1 - g2) ** 2 + + (b1 - b2) ** 2 + ); +} + +// Flag that tells if the pixel color has been found or not +let found = false; + +// Loop over the X axis of the canvas +for (let x = 0; x < canvas.width && !found; x++) { + + // Loop over the Y axis of the canvas + for (let y = 0; y < canvas.height; y++) { + + //See note at the bottom. + const index = (y * canvas.width + x) * 4; + const r = data[index]; + const g = data[index + 1]; + const b = data[index + 2]; + const a = data[index + 3]; + + if (a > 0 && colorDistance(r, g, b, targetColor.r, targetColor.g, targetColor.b) < maxDistance) { + found = true; + break; + } + } +} + +// Return the boolean variable to tell if the Step was successful (true) or not (false) +return found; +{{< /code-block >}} + +**Notas**: + +`maxDistance`: Esta variable indica la similitud entre el color del píxel actual y el color objetivo. + +- Una distancia de 0 significa una coincidencia exacta. +- Una distancia de 20 significa una pequeña variación visual, imperceptible para el ojo humano. + +`const data = imageData.data;`: +La variable `imageData.data` es una matriz de tipo donde cada píxel está representado por cuatro valores consecutivos: `[R, G, B, A, R, G, B, A, ...]`. Esto significa que cada píxel ocupa 4 bytes, independientemente de si el lienzo utiliza transparencia. + +- Los datos del primer píxel están en los índices `0–3: data[0] = red, data[1] = green, data[2] = blue, data[3] = alpha` +- El segundo píxel comienza en el índice 4, y así sucesivamente. Por eso debes utilizar la siguiente expresión para recorrer el lienzo: + + `const index = (y * canvas.width + x) * 4;` y luego evaluar los contenidos no opacos con a > 0. + +Si sabes que tu lienzo es totalmente opaco, puedes omitir la comprobación del valor alfa (a) en tu código. Sin embargo, recuerda que el canal alfa sigue presente en la matriz. + +{{% /collapse-content %}} + +## Hacer clic en el lienzo + +JavaScript permite activar eventos mediante programación en elementos, lo que permite simular interacciones de usuario. Puedes utilizar el método `addEventListener()` para hacer que los elementos HTML respondan a acciones específicas, como los clics. + +Después de configurar un escuchador, puedes enviar (o activar) un evento de clic. Con esta estrategia, puedes crear una función personalizada para simular un clic del usuario en coordenadas específicas: + +{{% collapse-content title="Custom function example" level="h4" expanded=false id="Custom_function" %}} +{{< code-block lang="javascript" >}} +//Store the canvas in a variable using its selector +const canvas = document.querySelector('canvas_selector') + +//Add a JavaScript Listener for 'Click' actions. +canvas.addEventListener('click', function(event) { + + //Obtain the bounding box of the canvas to calculate the click position. + const canvasRect = canvas.getBoundingClientRect(); + const x = event.clientX - canvasRect.left; + const y = event.clientY - canvasRect.top; +}); + +//Function that simulates a User's Click - expects a canvas and coordinates X,Y. +function simulateCanvasClick(user_canvas, x, y) { + + //Obtain the bounding box of the canvas to calculate the click position. + const rect = user_canvas.getBoundingClientRect(); + + //Define the Click event using the received coordinates + const click_event = new MouseEvent('click', { + clientX: rect.left + x, + clientY: rect.top + y + }); + + // Perform the click + // Using dispatch will fire the event in line 20 + user_canvas.dispatchEvent(click_event); +} + +//Clicks on an element inside a canvas in coordinates 620, 8 +simulateCanvasClick(canvas, 620, 8); + +{{< /code-block >}} +{{% /collapse-content %}} + +## Afirmación de elementos activados por clics + +Ahora que las piezas clave están en su lugar, puedes crear un flujo completo que incluya una aserción Synthetic. En el siguiente ejemplo, el test: + +- Busca en el lienzo el primer píxel que coincida con un color objetivo +- Simula un clic en esa ubicación + +{{% collapse-content title="Canvas interaction" level="h4" expanded=false id="Canvas_interaction" %}} +{{< code-block lang="javascript" >}} +// Defining the canvas element as a Variable +const canvas = document.querySelector('canvas_selector'); + +// Obtain the context +const ctx = canvas.getContext('2d'); + +// Add a JavaScript Listener for 'Click' actions. +canvas.addEventListener('click', function(event) { + const canvasRect = canvas.getBoundingClientRect(); + const x = event.clientX - canvasRect.left; + const y = event.clientY - canvasRect.top; + console.log('Clicked at relative canvas position:', x, y); +}); + +// Function that simulates a User's Click - expects a canvas and coordinates X,Y. +function simulateCanvasClick(user_canvas, x, y) { + const rect = user_canvas.getBoundingClientRect(); + const click_event = new MouseEvent('click', { + clientX: rect.left + x, + clientY: rect.top + y + }); + user_canvas.dispatchEvent(click_event); +} + +// Collect the full canvas area starting in coordinates 0,0 +const imageData = ctx.getImageData(0, 0, canvas.width, canvas.height); + +// Variable that stores the array of RGBA values +const data = imageData.data; + +// RGBA definition of the color we are looking for (adjust the RGB values) +const targetColor = { r: A, g: B, b: C }; + +// Tolerance threshold +const maxDistance = 20; + +// Function that calculates Euclidean distance +function colorDistance(r1, g1, b1, r2, g2, b2) { + return Math.sqrt( + (r1 - r2) ** 2 + + (g1 - g2) ** 2 + + (b1 - b2) ** 2 + ); +} + +// Flag that tells if the pixel color has been found or not +let found = false; + +// Loop over the canvas +for (let x = 0; x < canvas.width && !found; x++) { + for (let y = 0; y < canvas.height; y++) { + const index = (y * canvas.width + x) * 4; + const r = data[index]; + const g = data[index + 1]; + const b = data[index + 2]; + const a = data[index + 3]; + + if (colorDistance(r, g, b, targetColor.r, targetColor.g, targetColor.b) < maxDistance) { + found = true; + simulateCanvasClick(canvas, x, y); + break; + } + } +} + +return found; +{{< /code-block >}} +{{% /collapse-content %}} + + En función del comportamiento de tu aplicación, las acciones de **clic** muestran o añaden un nuevo elemento HTML (como `div`) con el que puedes hacer afirmaciones. + +## Solucionar problemas + +Trabajar con elementos de `` e interacciones de JavaScript puede resultar complejo, especialmente para los usuarios que no están familiarizados con scripts de navegador. Los ejemplos de este artículo se ofrecen como guía general y pueden adaptarse a casos de uso específicos. + +**Nota**: El servicio de asistencia de Datadog puede ayudar con problemas relacionados con cómo la monitorización Synthetic interactúa con ``, pero no puede proporcionar ayuda para depurar despliegues personalizados de JavaScript. + +A continuación encontrarás consejos y preguntas habituales que pueden servirte de guía para la resolución de problemas. + +### Obtener coordenadas exactas + +Para determinar las coordenadas x e y del lugar donde hiciste clic en ``, utiliza `console.log` para añadir una sentencia de impresión al método [`addEventListener`](#clicking-on-canvas). Esto imprimirá las coordenadas en la [consola de DevTools][8] del navegador. + +{{% collapse-content title="Agregar escuchador con console.log" level="h4" expanded=false id="Add listener" %}} +{{< code-block lang="javascript" >}} +const canvas = document.querySelector('canvas_selector'); +canvas.addEventListener('click', function(event) { + const canvasRect = canvas.getBoundingClientRect(); + const x = event.clientX - canvasRect.left; + const y = event.clientY - canvasRect.top; + console.log('Clicked at relative canvas position:', x, y); +}); +{{< /code-block >}} +{{% /collapse-content %}} + +### Elegir el color adecuado + +Un buen punto de partida es inspeccionar los estilos CSS utilizando las herramientas de desarrollo de tu navegador. La mayoría de los estilos incluyen la definición RGB del color. + +El elemento lienzo solo admite valores de color RGBA. Formatos como HEX no son compatibles. Si tienes un color HEX, necesitas convertirlo a RGBA utilizando una herramienta online o un script de conversión. + +## ¿Necesitas ayuda? + +Ponte en contacto con el [servicio de asistencia de Datadog][7] para obtener más ayuda. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/synthetics/guide/custom-javascript-assertion/ +[2]: https://developer.mozilla.org/en-US/docs/Web/API/Canvas_API +[4]: https://developer.mozilla.org/en-US/docs/Web/API/HTMLCanvasElement/getContext#parameters +[5]: https://developer.mozilla.org/en-US/play +[6]: https://julinvictus.github.io/canvas_example/ +[7]: /es/help +[8]: https://developer.chrome.com/docs/devtools/console/log#javascript \ No newline at end of file diff --git a/content/es/tracing/error_tracking/exception_replay.md b/content/es/tracing/error_tracking/exception_replay.md index b61cbe302793e..8907251bb8556 100644 --- a/content/es/tracing/error_tracking/exception_replay.md +++ b/content/es/tracing/error_tracking/exception_replay.md @@ -1,85 +1,10 @@ --- -aliases: -- /es/tracing/error_tracking/executional_context -- /es/tracing/error_tracking/execution_replay/ -description: Conoce más sobre Exception Replay para el seguimiento de errores. +description: Más información sobre la repetición de excepciones en APM Error Tracking. further_reading: - link: /monitors/types/error_tracking tag: Documentación - text: Más información sobre los monitores de seguimiento de errores -- link: /tracing/error_tracking - tag: Documentación - text: Más información sobre el seguimiento de errores para los servicios de backend -- link: https://www.datadoghq.com/blog/exception-replay-datadog/ - tag: Blog - text: Simplifica la depuración de la producción con Datadog Exception Replay -is_beta: true -title: Exception Replay para el seguimiento de errores + text: Más información sobre los monitores de Error Tracking +title: Repetición de excepciones en Error Tracking --- -
-Exception Replay para el seguimiento de errores de APM está en fase beta. -
- -## Información general - -Exception Replay en el seguimiento de errores de APM captura automáticamente los valores de las variables de producción para que puedas reproducir las excepciones de los problemas del seguimiento de errores. - -{{< img src="tracing/error_tracking/error_tracking_executional_context-2.png" alt="Exception Replay en Error Tracking Explorer" style="width:90%" >}} - -## Requisitos -Lenguajes admitidos -: Python, Java, .NET - -- El Datadog Agent debe estar configurado para APM. -- La aplicación debe instrumentarse con: - - `ddtrace` para Python - - `dd-trace-java` para Java - - `dd-trace-dotnet` para .NET - -Exception Replay solo está disponible en el seguimiento de errores de APM. No se admite el seguimiento de errores para logs y RUM. - -## Configuración - -1. Instala o actualiza el Agent a la versión `7.49.0` o superior. -2. Asegúrate de estar utilizando: - * `ddtrace` versión `1.16.0` o superior. - * `dd-trace-java` versión `1.35.0` o superior. - * `dd-trace-dotnet` versión `2.53.0` o superior. -4. Establece la variable de entorno`DD_EXCEPTION_DEBUGGING_ENABLED` en `true` para ejecutar el servicio con Exception Replay habilitado para el seguimiento de errores. - -### Ocultar datos confidenciales - -Por defecto, los datos de variables vinculados a identificadores específicos considerados confidenciales, como `password` y `accessToken`, se ocultan automáticamente. Vea la [lista completa de identificadores ocultos][1]. - -También puedes depurar datos de variables para PII con estas acciones: -- [Ocultar identificadores de forma personalizada][2]. -- [Ocultar con base en clases o tipos específicos][3]. -- Crear una regla de [Sensitive Data Scanner][4] y aplicarla a los logs que coincidan con la consulta `dd_source:debugger`. - -Para obtener más información sobre la depuración de datos de variables, consulta [Depuración de datos confidenciales de instrumentación dinámica][5]. - -## Empezando - -1. Ve a [**APM** > **Error Tracking** (Seguimiento de errores)][6]. -2. Haz clic en cualquier problema del seguimiento de errores de Python y desplázate hacia abajo hasta el componente de stack trace. -3. Expande los marcos del stack para examinar los valores de las variables capturadas. - -## Solucionar problemas - -### Una traza (trace) de error específica de Python no tiene valores de variables -Para mantener la sobrecarga de rendimiento de la función al mínimo, la captura de errores está limitada a una tasa: un error por segundo incluye datos de variables. Si no ves valores de variables en una determinada traza (trace): - -1. Haz clic en **View Similar Errors** (Ver errores similares). -2. Amplía la selección del intervalo de tiempo para encontrar otro caso de excepción en el que se hayan capturado valores de variables. - -[1]: https://github.com/DataDog/dd-trace-py/blob/2bd8e73b639af811cee2703198aa9e7e32b2f74e/ddtrace/debugging/_redaction.py -[2]: /es/dynamic_instrumentation/sensitive-data-scrubbing/#custom-identifier-redaction -[3]: /es/dynamic_instrumentation/sensitive-data-scrubbing/#redact-based-on-specific-classes-or-types -[4]: /es/sensitive_data_scanner/ -[5]: /es/dynamic_instrumentation/sensitive-data-scrubbing/ -[6]: https://app.datadoghq.com/apm/error-tracking - -## Leer más - -{{< partial name="whats-next/whats-next.html" >}} +{{< include-markdown "error_tracking/backend/exception_replay" >}} \ No newline at end of file diff --git a/content/es/tracing/trace_collection/custom_instrumentation/python/dd-api.md b/content/es/tracing/trace_collection/custom_instrumentation/python/dd-api.md index cb6e69509d13d..388d7e53268e3 100644 --- a/content/es/tracing/trace_collection/custom_instrumentation/python/dd-api.md +++ b/content/es/tracing/trace_collection/custom_instrumentation/python/dd-api.md @@ -17,19 +17,19 @@ further_reading: - link: tracing/glossary/ tag: Documentación text: Explora tus servicios, recursos y trazas -title: Instrumentación personalizada de Python utilizando la API de Datadog +title: Instrumentación personalizada de Python mediante la API de Datadog type: multi-code-lang --- Si no has leído las instrucciones de configuración de la instrumentación automática, empieza por las [Instrucciones de configuración de Python][6]. -Si no utilizas la instrumentación de librería compatible (consulta [Compatibilidad de librerías][1]), puede que desees instrumentar manualmente tu código. +Si no utilizas la instrumentación de biblioteca compatible (consulta [Compatibilidad de bibliotecas][1]), puede que desees instrumentar manualmente tu código. -También es posible que desees ampliar la funcionalidad de la librería `ddtrace` u obtener un control más preciso sobre la instrumentación de tu aplicación. La librería proporciona varias técnicas para conseguirlo. +También es posible que desees ampliar la funcionalidad de la biblioteca `ddtrace` u obtener un control más preciso sobre la instrumentación de tu aplicación. La biblioteca proporciona varias técnicas para conseguirlo. ## Creación de tramos -La librería `ddtrace` crea [tramos][2] automáticamente con `ddtrace-run` para [muchas bibliotecas y marcos][1]. Sin embargo, es posible que desees obtener visibilidad de tu propio código y esto se logra utilizando tramos. +La biblioteca `ddtrace` crea tramos automáticamente con `ddtrace-run` para [muchas bibliotecas y marcos][1]. Sin embargo, es posible que desees obtener visibilidad de tu propio código y esto se logra utilizando tramos. Dentro de tu solicitud web (por ejemplo, `make_sandwich_request`), puedes realizar varias operaciones, como `get_ingredients()` y `assemble_sandwich()`, que son útiles para hacer mediciones. @@ -55,7 +55,7 @@ def make_sandwich_request(request): # maybe go to the store return - # Puedes brindar más información para personalizar el tramo + # You can provide more information to customize the span @tracer.wrap("assemble_sandwich", service="my-sandwich-making-svc", resource="resource_name") def assemble_sandwich(ingredients): return @@ -74,13 +74,13 @@ Para rastrear un bloque arbitrario de código, utiliza el gestor de contexto `dd from ddtrace import tracer def make_sandwich_request(request): - # Captura ambas operaciones en un tramo + # Capture both operations in a span with tracer.trace("sandwich.make"): ingredients = get_ingredients() sandwich = assemble_sandwich(ingredients) def make_sandwich_request(request): - # Captura ambas operaciones en un tramo + # Capture both operations in a span with tracer.trace("sandwich.create", resource="resource_name") as outer_span: with tracer.trace("get_ingredients", resource="resource_name") as span: @@ -127,7 +127,7 @@ La instrumentación incorporada y tu propia instrumentación personalizada crean from ddtrace import tracer def make_sandwich_request(request): - # Captura ambas operaciones en un tramo + # Capture both operations in a span with tracer.trace("sandwich.make") as my_span: ingredients = get_ingredients() sandwich = assemble_sandwich(ingredients) @@ -138,9 +138,9 @@ def make_sandwich_request(request): ```python def get_ingredients(): - # Obtener el tramo activo + # Get the active span span = tracer.current_span() - # este es el tramo my_span from make_sandwich_request anterior + # this span is my_span from make_sandwich_request above ``` {{% /tab %}} @@ -150,9 +150,9 @@ def get_ingredients(): ```python def assemble_sandwich(ingredients): with tracer.trace("another.operation") as another_span: - # Obtener el tramo raíz activo + # Get the active root span span = tracer.current_root_span() - # este tramo es my_span from make_sandwich_request anterior + # this span is my_span from make_sandwich_request above ``` {{% /tab %}} {{< /tabs >}} @@ -182,7 +182,7 @@ Pueden establecerse etiquetas globalmente en el rastreador. Estas etiquetas se a from ddtrace import tracer from myapp import __version__ -# Esto se aplicará a cada tramo +# This will be applied to every span tracer.set_tags({"version": __version__, "": ""}) ``` {{% /tab %}} @@ -196,8 +196,8 @@ from ddtrace import tracer with tracer.trace("throws.an.error") as span: raise Exception("Oops!") -# `span` se marcará como un error y tendrá -# la stack trace y el mensaje de excepción adjuntos como etiquetas +# `span` will be flagged as erroneous and have +# the stack trace and exception message attached as tags ``` También se puede marcar manualmente una traza como errónea: @@ -221,7 +221,7 @@ try: except TypeError as e: root_span = tracer.current_root_span() (exc_type, exc_val, exc_tb) = sys.exc_info() - # esto establece el tipo de error, marca el tramo como un error y añade el rastreo + # this sets the error type, marks the span as an error, and adds the traceback root_span.set_exc_info(exc_type, exc_val, exc_tb) ``` {{% /tab %}} @@ -232,16 +232,90 @@ except TypeError as e: Puedes configurar la propagación de contexto para trazas distribuidas al inyectar y extraer encabezados. Consulta [Propagación de contexto de traza][2] para obtener información. -## Filtrado de recursos +### Baggage -Las trazas se pueden excluir en función de su nombre de recurso, para eliminar el tráfico Synthetic, como los checks de estado, de la notificación de trazas a Datadog. Esta y otras configuraciones de seguridad y ajuste se pueden encontrar en la página de [Seguridad][4] o en [Ignorar recursos no deseados][5]. +Manipulación de [Baggage][3] en un span (tramo): -## Leer más +```python +from ddtrace import tracer + +# Start a new span and set baggage +with tracer.trace("example") as span: + # set_baggage_item + span.context.set_baggage_item("key1", "value1") + span.context.set_baggage_item("key2", "value2") + + # get_all_baggage_items + all_baggage = span.context.get_all_baggage_items() + print(all_baggage) # {'key1': 'value1', 'key2': 'value2'} + + # remove_baggage_item + span.context.remove_baggage_item("key1") + print(span.context.get_all_baggage_items()) # {'key2': 'value2'} + + # get_baggage_item + print(span.context.get_baggage_item("key1")) # None + print(span.context.get_baggage_item("key2")) # value2 + + # remove_all_baggage_items + span.context.remove_all_baggage_items() + print(span.context.get_all_baggage_items()) # {} +``` + +Para ver un ejemplo en acción, consulta [flask-baggage en trace-examples][7]. + +## ddtrace-api + +{{< callout btn_hidden="true" header="ddtrace-api está en vista previa">}} +El paquete ddtrace-api de Python está en vista previa y puede que no incluya todas las llamadas a la API que necesitas. Si necesitas una funcionalidad más completa, utiliza la API como se describe en las secciones anteriores. +

Los siguientes pasos sólo son necesarios si deseas experimentar con el paquete ddtrace-api en vista previa .{{< /callout >}} + +El paquete [ddtrace-api][8] proporciona una API pública estable para la instrumentación personalizada de Python de Datadog APM. Este paquete implementa sólo la interfaz de la API, no la funcionalidad subyacente que crea y envía tramos a Datadog. + +Esta separación entre interfaz (`ddtrace-api`) e implementación (`ddtrace`) ofrece varias ventajas: + +- Puedes confiar en una API que cambia con menos frecuencia y de forma más predecible para tu instrumentación personalizada +- Si sólo utilizas la instrumentación automática, puedes ignorar por completo los cambios de la API +- Si implementas tanto el paso único como la instrumentación personalizada, evitarás depender de múltiples copias del paquete `ddtrace` + +Para utilizar `ddtrace-api`: + +1. Instala las bibliotecas `ddtrace` y `ddtrace-api`: + ```python + pip install 'ddtrace>=3.1' ddtrace-api + ``` + +2. Instrumenta tu aplicación de Python mediante el uso de `ddtrace-run` anteponiendo tu comando de punto de entrada de Python: + ```shell + ddtrace-run python app.py + ``` + +3. Una vez configurado esto, puedes escribir instrumentación personalizada exactamente igual que en los ejemplos de las secciones anteriores, pero importando desde `ddtrace_api` en lugar de `ddtrace`. + + Por ejemplo: + ```python + from ddtrace_api import tracer + + @tracer.wrap(service="my-sandwich-making-svc", resource="resource_name") + def get_ingredients(): + # go to the pantry + # go to the fridge + # maybe go to the store + return + ``` + +Consulte la [definición de la API][9] del paquete para conocer la lista completa de las llamadas a la API compatibles. + +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} [1]: /es/tracing/compatibility_requirements/python -[2]: /es/tracing/trace_collection/trace_context_propagation/python/ +[2]: /es/tracing/trace_collection/trace_context_propagation/ +[3]: /es/tracing/trace_collection/trace_context_propagation/#baggage [4]: /es/tracing/security [5]: /es/tracing/guide/ignoring_apm_resources/ [6]: /es/tracing/setup/python/ +[7]: https://github.com/DataDog/trace-examples/tree/master/python/flask-baggage +[8]: https://pypi.org/project/ddtrace-api/ +[9]: https://datadoghq.dev/dd-trace-api-py/pdocs/ddtrace_api.html \ No newline at end of file diff --git a/content/ja/coterm/_index.md b/content/ja/coterm/_index.md index df00edb622c7d..4c796ff4f82f6 100644 --- a/content/ja/coterm/_index.md +++ b/content/ja/coterm/_index.md @@ -1,4 +1,5 @@ --- +description: ターミナル セッションを記録し、Datadog で分析し、CoTerm のバリデーション レイヤーによって危険なターミナル コマンドから保護します。 further_reading: - link: https://www.datadoghq.com/blog/introducing-coterm/ tag: ブログ @@ -43,7 +44,7 @@ CoTerm でできること: - 機密データが複数行にまたがる場合、[機密データのマスキング][2] が失敗することがあります。 - Linux では、`seccomp` ベースのトレーシングにより、記録中に権限を昇格させることはできません。 -## 参考資料 +## 関連情報 {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/ja/integrations/f5-distributed-cloud.md b/content/ja/integrations/f5-distributed-cloud.md index fccfd0748dd23..37f076e04d638 100644 --- a/content/ja/integrations/f5-distributed-cloud.md +++ b/content/ja/integrations/f5-distributed-cloud.md @@ -4,6 +4,18 @@ app_uuid: 74c33838-0310-4ef3-95db-c378aece9d8b assets: dashboards: f5xc_access: assets/dashboards/f5xc_access.json + f5xc_bot_defense_events_overview: assets/dashboards/f5xc_bot_defense_events_overview.json + f5xc_waf_events_overview: assets/dashboards/f5xc_waf_events_overview.json + integration: + auto_install: true + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 22988204 + source_type_name: F5 Distributed Cloud Services + logs: + source: f5xc saved_views: f5xc_all: assets/saved_views/all.json author: @@ -15,7 +27,7 @@ categories: - クラウド - 構成 & デプロイ - notifications -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-extras/blob/master/f5-distributed-cloud/README.md display_on_public_website: true @@ -52,6 +64,12 @@ tile: - caption: F5 Distributed Cloud Services のアクセスログ概要ダッシュボードです。 image_url: images/dashboard_image.png media_type: image + - caption: F5 Distributed Cloud Services の WAF イベント ダッシュボードです。 + image_url: images/waf_events_overview.png + media_type: image + - caption: F5 Distributed Cloud Services の BOT Defense Events Overview ダッシュボードです。 + image_url: images/defense_events_overview.png + media_type: image overview: README.md#Overview resources: - resource_type: その他 @@ -70,8 +88,14 @@ F5 XC プラットフォームには、Datadog HTTPS ロギングエンドポイ このインテグレーションには、以下のものが含まれます。 -- ダッシュボード - *アクセスログの概要* +- ダッシュボード - *Access Log Overview* , *WAF Events Overview* , *BOT Defense Events Overview* - 保存ビュー - *よくクエリされるフィールドのためのファセットを含む* +- 検知ルール - *Detection rules for F5 WAF and Bot Defense Events* + - F5 - WAF - High Number of Traffic Being Blocked : Web アプリケーション ファイアウォール (WAF) によってブロックされているトラフィックの大量発生を検知します。 + - F5 - WAF - Unusual Traffic From Single Source IP : 単一の送信元 IP アドレスに由来する異常なトラフィック パターンを検知します。 + - F5 - Bot Defense - Single Host Affected by Multiple Domains : ネットワーク内の単一のホストが複数のドメインに標的とされる、潜在的なボット活動を示す状況を検知します。 + - F5 - Bot Defense - Multiple Hosts Affected From a Single Bot Client : 単一のボット クライアントからのトラフィックによって複数のホストが影響を受けている状況を検知します。 + - F5 - Bot Defense- Abnormal Traffic Observed in Specific Country : 直近 30 分間に特定の国で観測された異常なトラフィック パターンを検知し、対応します。 ## セットアップ @@ -97,14 +121,14 @@ Global Log Receiver セクションで以下を実行します。 1. Global Log Receiver セクション内で、メタデータセクションに名前を入力します。オプション: ラベルを設定し、説明を追加します。 2. Log Type フィールドで Request Logs または Security Events を選択します。注: デフォルトでリクエストログが設定されています。 3. 以下のオプションから、ネームスペースに基づいてストリームするイベントを選択します。 - a. Select logs from the current namespace - 共有ネームスペースからログをストリームします。 + a. Select logs from the current namespace - 共有ネームスペースからログをストリームします。 b. Select logs from all namespaces - すべてのネームスペースからログをストリームします。 - c. Select logs in specific namespaces - 指定したネームスペースからログをストリームします。表示されたネームスペースのリストにネームスペース名を入力します。複数のネームスペースを追加するには、Add item を選択します。注: ネームスペースは、分散クラウドテナント内のオブジェクトの論理的なグループ化と分離を提供します。 + c. Select logs in specific namespaces - 指定したネームスペースからログをストリームします。表示されたネームスペースのリストにネームスペース名を入力します。複数のネームスペースを追加するには、Add item を選択します。注: ネームスペースは、分散クラウドテナント内のオブジェクトの論理的なグループ化と分離を提供します。 4. Receiver Configuration ボックスで Datadog を選択します。Datadog レシーバーに以下を構成します。 a. サイト名を datadoghq.com に設定します。 - b. Datadog に移動し、組織設定内で [API キーの作成][3]を行います。 + b. Datadog に移動し、組織設定内で [API キーの作成][3]を行います。 c. API キーをコピーします。 - d. F5 に戻り、Datadog の API キーを Datadog receiver フィールドに貼り付けます。 + d. F5 に戻り、Datadog の API キーを Datadog receiver フィールドに貼り付けます。 **オプションステップ 3: 高度な設定の構成** @@ -112,15 +136,15 @@ Global Log Receiver セクションで以下を実行します。 1. Show Advanced Fields トグルを選択します 2. Batch Options セクション内で - a. Batch Timeout Options で Timeout Seconds を選択し、Timeout Seconds ボックスにタイムアウト値を入力します。 - b. Batch Max Events で Max Events を選択し、Max Events のボックスに 32 から 2000 の値を入力します。 - c. Batch Bytes で Max Bytes を選択し、Batch Bytes ボックスに 4096 から 1048576 の間の値を入力します。バッチサイズが指定されたバイトサイズと同じかそれ以上になると、ログが送信されます。 + a. Batch Timeout Options で Timeout Seconds を選択し、Timeout Seconds ボックスにタイムアウト値を入力します。 + b. Batch Max Events で Max Events を選択し、Max Events のボックスに 32 から 2000 の値を入力します。 + c. Batch Bytes で Max Bytes を選択し、Batch Bytes ボックスに 4096 から 1048576 の間の値を入力します。バッチサイズが指定されたバイトサイズと同じかそれ以上になると、ログが送信されます。 3. TLS セクション内で - a. TLS フィールドの Use TLS を選択します。 - b. Trusted CA フィールドで Server CA Certificates を選択します。Server CA Certificates ボックスに、PEM または Base64 形式の証明書を入力します。 - c. mTLS 構成で Enable mTLS を選択し、Client Certificate ボックスに PEM または Base64 形式のクライアント証明書を入力します。 - d. Client Private Key フィールドで Configure を選択し、Type を Text にしたボックスに秘密鍵を入力します。 - e. Blindfold を選択し、オペレーションが完了するのを待ち、Apply をクリックします。 + a. TLS フィールドの Use TLS を選択します。 + b. Trusted CA フィールドで Server CA Certificates を選択します。Server CA Certificates ボックスに、PEM または Base64 形式の証明書を入力します。 + c. mTLS 構成で Enable mTLS を選択し、Client Certificate ボックスに PEM または Base64 形式のクライアント証明書を入力します。 + d. Client Private Key フィールドで Configure を選択し、Type を Text にしたボックスに秘密鍵を入力します。 + e. Blindfold を選択し、オペレーションが完了するのを待ち、Apply をクリックします。 **ステップ 4: F5XC のセットアップを終了する* @@ -159,4 +183,4 @@ Global Log Receiver セクションで以下を実行します。 [6]: https://docs.datadoghq.com/ja/logs/explorer/facets/#create-facets [7]: http://docs.datadoghq.com/help/ [8]: https://docs.cloud.f5.com/docs/support/support -[9]: https://www.f5.com/cloud +[9]: https://www.f5.com/cloud \ No newline at end of file diff --git a/content/ja/service_management/on-call/guides/migrating-from-your-current-providers.md b/content/ja/service_management/on-call/guides/migrating-from-your-current-providers.md new file mode 100644 index 0000000000000..60079cb31330e --- /dev/null +++ b/content/ja/service_management/on-call/guides/migrating-from-your-current-providers.md @@ -0,0 +1,154 @@ +--- +further_reading: +- link: /service_management/on-call/ + tag: ドキュメント + text: On-Call +- link: /service_management/incident_management/ + tag: ドキュメント + text: Incident Management +title: 現在のオンコール プロバイダーからの移行 +--- + +現在のオンコール プロバイダーから [Datadog On-Call][1] へ移行すると、監視とインシデント レスポンスを一元化し、アラートの複雑さを低減し、監視とインシデント レスポンスを統合できます。このガイドは、移行を計画・テストし、成功裏に完了させるための段階的なアプローチを提供します。 + +多くの組織は、機能の検証と運用上の適合性の評価のために、少数のチームで Datadog On-Call のパイロットから開始します。その基盤を踏まえ、本ガイドは評価段階から本番での全面採用へ移行するための主要ステップを順に説明します。 + +このガイドで学べること: + +- 現在のオンコール セットアップの棚卸しと評価を行う方法 +- チーム構成とエスカレーション パスに基づいて Datadog On-Call を構成する方法 +- アラート ルーティングとエスカレーション ワークフローを検証する方法 +- 既存のレガシー プロバイダーから安全に切り替える方法 +- 新しいオンコール プロセスを監視・運用・拡張する方法 + +また、本ガイドには、移行の信頼性を高めリスクを抑えるための検証チェックリスト、ロールバック ストラテジー、セーフガードも含まれます。 + +**本ガイドの対象者** + +本ガイドは、オンコール移行に関与するエンジニアおよびステークホルダーを対象としています。サイト リライアビリティ エンジニア (SRE)、DevOps エンジニア、チーム リード、その他、インシデント レスポンスのワークフローを構成または管理する責任を持つ方を含みます。 + +## 現在のセットアップの棚卸しとマッピング + +まず、現在オンコール チームをページングしているすべてのツールのインベントリを作成します。これには次が含まれます: + +- 監視プラットフォーム (Datadog、CloudWatch、Prometheus など) +- チケット システム (Jira や Zendesk など) +- カスタム アラーティング ツールやワークフロー ツール + +各ツールについて、現在の連携方法を記録します。ネイティブ連携、ウェブフック、メール取り込み、カスタム スクリプトなどです。 + +現行のオンコール セットアップを評価する中で、その構成要素 (スケジュール、エスカレーション パス、オーバーライド、レスポンダー グループなど) が Datadog On-Call の構成モデルにどのように対応づけられるかを明らかにし始めてください。また、複雑または古いエスカレーション ロジックを簡素化し、チーム横断でポリシーを標準化する良い機会でもあります。明確な運用上の必要性がない限り、未使用またはレガシー構成は移行しないでください。 + +円滑な構成フェーズを支えるため、次の情報も必ず把握します: + +- チームのアクセス コントロールと権限 +- フォールバック レスポンダーの割り当てと通知設定 +- オーバーライド ウィンドウとハンドオフの取り決め + +Datadog における統一されたアラーティング モデルは運用のオーバーヘッドを削減し、可視性を高めるのに役立ちますが、その効果は、入力が最初から明確に定義され、慎重にマッピングされている場合に限られます。 + +## 移行戦略を設計する + +移行を成功させるには、ステークホルダーの足並みを揃え、リスクを低減し、オープンなコミュニケーションを維持する、明確で段階的な計画が不可欠です。移行を次のような扱いやすいステージに分割します: + +1. **Discovery**: 現行のワークフロー、連携、アラート ルール、チーム要件を文書化します。 +2. **Configuration**: 既存のセットアップと望む改善点に基づいて Datadog On-Call をセットアップします。 +3. **Validation and testing**: アラートが正しくルーティングされ、エスカレーション ロジックが期待どおりに動作することを確認します。 +4. **Cutover**: 通常はデュアル ルーティング ウィンドウを用いて、アラート対応の責務を Datadog On-Call へ移行します。 +5. **Cleanup**: レガシー システムを廃止し、安定性を検証し、ドキュメントとランブックを更新します。 + +各フェーズに明確なオーナーを割り当て、タイムラインを早期に周知します。タスクの調整、更新の共有、ブロッカーの即時可視化には、Slack や Microsoft Teams といった共有チャンネルを活用します。 + +## Datadog On-Call を構成する + +Datadog On-Call の構成を始める前に、[Teams][4] の概念を確認してください。Teams は On-Call 体制の基盤であり、次の定義に用いられます: + +- Schedules +- Escalation policies +- Notification rules +- Incident ownership + +チーム モデルを確認し既存アセットをマッピングしたら、望む体制を反映するよう Datadog On-Call を構成する準備が整います。 + +
PagerDuty から移行する場合、Datadog は 専用の移行ツール を提供しており、Schedules と Escalation policies を選択的にインポートするのに役立ちます。未使用の構成を移行してしまうことを避け、手作業を減らすため、セットアップ時に活用してください。
+ +セットアップ中は次の点も忘れずに行います: + +- チームのアクセス コントロールと権限の見直し +- フォールバック レスポンダーと通知設定の定義 +- オーバーライド ウィンドウとオンコールのハンドオフの取り決めの設定 + +丁寧な構成はスムーズなカットオーバーを保証し、初日からチームが効果的に対応できるようにします。 + +## 移行を検証し、監視する + +レガシー システムを廃止する前に、すべてのチームおよびあらゆるアラート シナリオにおいて、Datadog On-Call が適切にルーティング、エスカレーション、通知していることを確認するための包括的なテストを実施します。 + +### 検証チェックリスト + +- **クリティカルな Monitors からアラートをルーティング**: 最高重大度の Monitors を特定し、テスト アラートをトリガーして、適切な Datadog On-Call チームにルーティングされることを確認します。迅速な配信とメタデータの正確性をチェックします。 +- **エスカレーション チェーンを検証**: 未 Acknowledge のアラートをシミュレートして、エスカレーションが意図した順序に従うことを確認します。時間ベースとフォールバックの両方のエスカレーションを含めます。想定されたすべてのレスポンダーで受信を検証します。 +- **通知 チャンネルを確認**: メール、SMS、プッシュ 通知、音声など、設定済みのすべての方法でチーム メンバーがアラートを受信できることを確認します。受信者に配信の有無と内容の明確さを確認してもらいます。 +- **オーバーライド と ハンドオフをテスト**: チーム メンバーに一時的なオーバーライドを設定し、その期間中にアラートが正しくルーティングされることを検証します。シフト間のハンドオフでも繰り返し、エッジ ケースを洗い出します。 +- **Slack または Teams の可視性を検証**: テスト アラートをトリガーし、正しい Slack または Teams のインシデント チャンネルに、正確な tags、オーナーシップ、Acknowledge または Resolve へのリンク付きで表示されることを確認します。 +- **シンセティック インシデントをシミュレート**: 手動でシンセティックなアラートをトリガーするか、ダミー モニターを使用して、Acknowledge、エスカレーション、解決までのインシデント ワークフロー全体をテストします。 +- **スケジュール カバレッジを監査**: 休日や週末を含め、チームの Schedules に未カバーの時間がないかクロスチェックします。 +- **レガシー プロバイダーと比較**: デュアル ルーティングを使用している場合、両方のシステムがアラートを受信し、類似のエスカレーション動作を取ることを検証します。カットオーバー前に差分を記録し、解消します。 + +### デュアル ルーティングの実践 + +多くの組織は検証中にデュアル ルーティングを実施し、アラートをレガシー プロバイダーと Datadog On-Call の両方に並行送信します。これにより、チームは次のことが可能になります: + +- アラート ルーティングとエスカレーション動作をリアルタイムで比較する +- システム間のギャップが存在しないことを確認する +- 切り替え期間のリスクを低減する + +Datadog の [Monitor Bulk Editor][3] を使用して、既存の送信先に加えて Datadog On-Call のハンドルを追加します。パフォーマンスとカバレッジを検証したら、レガシーのアラート ルートを削除し、カットオーバーを確定できます。 + +### 移行をモニタリング + +Datadog Dashboards を使用して、移行のパフォーマンスをリアルタイムに観測します。次の指標に注目します: + +- プロバイダー別のアラート ボリューム +- Acknowledge およびエスカレーションの遅延 +- チームのオーナーシップが欠けているインシデント + +これらのシグナルは、準備状況の検証、誤構成の検出、フル カットオーバー前の早期課題の顕在化に役立ちます。 + +## カットオーバーしてレガシー システムを廃止 + +検証が完了し、すべてのチームが Datadog On-Call を積極的に使用していることを確認したら、レガシー プロバイダーの段階的な廃止を開始します。多くのチームは次のように段階的に進めます: + +- 低重大度または発生頻度の低いアラート パスから先に廃止する +- 廃止予定の Schedules、Escalation policies、routing keys を削除する +- レガシー 構成をアーカイブするか、参照用にドキュメントとしてエクスポートする + +すべての Monitors が Datadog On-Call のみに送信するよう設定され、レガシー連携がもはや使用されていないことをダブルチェックします。デュアル ルーティング期間に不整合やギャップが判明した場合は、カットオーバーを確定する前に対処します。 + +これを完了することで、クリーンな移行が保証され、インシデント レスポンス中の混乱やアラートの取りこぼしのリスクが排除されます。 + +## オンコール 運用を維持・拡張 + +Datadog On-Call への中核的な移行が完了したら、長期運用と継続的改善にフォーカスを移します。以下のプラクティスを用いて、オンコール プロセスの健全性を保ち、チームの備えを維持し、ニーズの成長に合わせてセットアップを進化させましょう。 + +- **継続的なオーナーシップを確立**: チーム内で Datadog On-Call の明確なオーナーシップを割り当てます。Schedules の維持、新規 responders のオンボーディング、時間の経過に伴う機能変更への適応を含みます。 +- **ポスト モーテムを取り入れる**: 移行中または移行後に発生したインシデントを振り返り、見落とされたエスカレーションやアラート上の問題を特定します。得られた学びをテスト計画やランブックのドキュメントに反映します。 +- **オンコールの健全性をトラッキング**: [On-Call Analytics][8] を使用して、レスポンダーごとのアラート ボリューム、MTTA/MTTR の傾向、通知 疲労、再発するエスカレーションを監視します。 +- **最新情報を把握**: [Incident Response product updates][9] を購読して、新機能、改善点、非推奨事項をフォローします。 +- **プロダクト知識を深める**: Datadog のドキュメント [Incident Management][6]、[Schedules][7]、[Integrations][2] を参照し、プラットフォームの活用範囲を広げます。 +- **コミュニティに参加**: [Datadog Slack Community][10] で同業者や Datadog エンジニアと交流し、ベスト プラクティスの共有、アドバイスの取得、フィードバックの提供を行います。 +- **レトロスペクティブをスケジュール**: 移行後 30~60 日以内にレトロスペクティブを実施し、得られた教訓を記録して、ドキュメント、社内ガイド、テスト プランを更新します。 + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/on-call/ +[2]: /ja/integrations/ +[3]: /ja/monitors/notify/#bulk-editing-monitor--handles +[4]: /ja/service_management/on-call/teams/ +[6]: /ja/service_management/incident_management +[7]: /ja/service_management/on-call/schedules/ +[8]: https://app.datadoghq.com/on-call/analytics +[9]: https://app.datadoghq.com/release-notes?category=Incident%20Response +[10]: https://chat.datadoghq.com/ \ No newline at end of file diff --git a/content/ko/api/latest/reference-tables/_index.md b/content/ko/api/latest/reference-tables/_index.md new file mode 100644 index 0000000000000..24164a4d22887 --- /dev/null +++ b/content/ko/api/latest/reference-tables/_index.md @@ -0,0 +1,3 @@ +--- +title: 참조표 +--- From 4a18897fd1cdba9046211e975b1ba63d0662b311 Mon Sep 17 00:00:00 2001 From: Rosa Trieu Date: Tue, 14 Oct 2025 12:46:34 -0700 Subject: [PATCH 7/8] pestana and other fixes --- config/development/config.yaml | 8 ++++---- content/es/continuous_delivery/explorer/saved_views.md | 2 +- content/es/integrations/snmp.md | 2 +- .../set_up_pipelines/archive_logs/splunk_tcp.md | 4 ++-- .../set_up_pipelines/generate_metrics/google_pubsub.md | 4 ++-- .../set_up_pipelines/log_volume_control/http_client.md | 4 ++-- .../set_up_pipelines/log_volume_control/syslog.md | 4 ++-- .../sensitive_data_redaction/amazon_s3.md | 4 ++-- .../sensitive_data_redaction/splunk_hec.md | 4 ++-- .../split_logs/sumo_logic_hosted_collector.md | 4 ++-- 10 files changed, 20 insertions(+), 20 deletions(-) diff --git a/config/development/config.yaml b/config/development/config.yaml index c3be5b5f20833..b35572319abfc 100644 --- a/config/development/config.yaml +++ b/config/development/config.yaml @@ -4,7 +4,7 @@ enableGitInfo: true # default to just building english on local dev for a faster build disableLanguages: - - fr - - ja - - ko - - es + # - fr + # - ja + # - ko + # - es diff --git a/content/es/continuous_delivery/explorer/saved_views.md b/content/es/continuous_delivery/explorer/saved_views.md index f7a00940a5372..df99342bc8028 100644 --- a/content/es/continuous_delivery/explorer/saved_views.md +++ b/content/es/continuous_delivery/explorer/saved_views.md @@ -1,5 +1,5 @@ --- -descriptions: Aprende a crear y compartir vistas guardadas en el CD Visibility Explorer. +description: Aprende a crear y compartir vistas guardadas en el CD Visibility Explorer. further_reading: - link: /continuous_delivery/explorer/search_syntax/ tag: Documentación diff --git a/content/es/integrations/snmp.md b/content/es/integrations/snmp.md index e424bf577f347..d4acf1ebcc93a 100644 --- a/content/es/integrations/snmp.md +++ b/content/es/integrations/snmp.md @@ -70,7 +70,7 @@ - "Supported OS::macOS" - "Offering::Integration" "configuration": "README.md#Setup" - "description": "Recopila métricas de SNMP de tus dispositivos de red". + "description": "Recopila métricas de SNMP de tus dispositivos de red." "media": [] "overview": "README.md#Información general" "resources": diff --git a/content/es/observability_pipelines/set_up_pipelines/archive_logs/splunk_tcp.md b/content/es/observability_pipelines/set_up_pipelines/archive_logs/splunk_tcp.md index ba365369072ff..097fb94b00b5e 100644 --- a/content/es/observability_pipelines/set_up_pipelines/archive_logs/splunk_tcp.md +++ b/content/es/observability_pipelines/set_up_pipelines/archive_logs/splunk_tcp.md @@ -218,8 +218,8 @@ Sigue las instrucciones del proveedor de nube que usas para archivar tus logs. {{% observability_pipelines/processors/dedupe %}} -{{% /pestaña %}} -{{% pestaña "Editar campos" %}} +{{% /tab %}} +{{% tab "Editar campos" %}} {{% observability_pipelines/processors/remap %}} diff --git a/content/es/observability_pipelines/set_up_pipelines/generate_metrics/google_pubsub.md b/content/es/observability_pipelines/set_up_pipelines/generate_metrics/google_pubsub.md index 0becb620eca4d..51d9dd57a8b6a 100644 --- a/content/es/observability_pipelines/set_up_pipelines/generate_metrics/google_pubsub.md +++ b/content/es/observability_pipelines/set_up_pipelines/generate_metrics/google_pubsub.md @@ -167,8 +167,8 @@ Para configurar el destino, sigue las instrucciones del proveedor de nube que ut {{% observability_pipelines/processors/dedupe %}} -{{% /pestaña %}} -{{% pestaña "Editar campos" %}} +{{% /tab %}} +{{% tab "Editar campos" %}} {{% observability_pipelines/processors/remap %}} diff --git a/content/es/observability_pipelines/set_up_pipelines/log_volume_control/http_client.md b/content/es/observability_pipelines/set_up_pipelines/log_volume_control/http_client.md index b7502a8676745..ca0df83fa4c46 100644 --- a/content/es/observability_pipelines/set_up_pipelines/log_volume_control/http_client.md +++ b/content/es/observability_pipelines/set_up_pipelines/log_volume_control/http_client.md @@ -169,8 +169,8 @@ Para configurar el destino, sigue las instrucciones del proveedor de nube que ut {{% observability_pipelines/processors/dedupe %}} -{{% /pestaña %}} -{{% pestaña "Editar campos" %}} +{{% /tab %}} +{{% tab "Editar campos" %}} {{% observability_pipelines/processors/remap %}} diff --git a/content/es/observability_pipelines/set_up_pipelines/log_volume_control/syslog.md b/content/es/observability_pipelines/set_up_pipelines/log_volume_control/syslog.md index ede0996297b13..ab394f257feea 100644 --- a/content/es/observability_pipelines/set_up_pipelines/log_volume_control/syslog.md +++ b/content/es/observability_pipelines/set_up_pipelines/log_volume_control/syslog.md @@ -170,8 +170,8 @@ Para configurar el destino, sigue las instrucciones del proveedor de nube que ut {{% observability_pipelines/processors/dedupe %}} -{{% /pestaña %}} -{{% pestaña "Editar campos" %}} +{{% /tab %}} +{{% tab "Editar campos" %}} {{% observability_pipelines/processors/remap %}} diff --git a/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/amazon_s3.md b/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/amazon_s3.md index 3edfeeb0ed8d8..4f357a27ce37f 100644 --- a/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/amazon_s3.md +++ b/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/amazon_s3.md @@ -169,8 +169,8 @@ Para configurar el destino, sigue las instrucciones del proveedor de nube que ut {{% observability_pipelines/processors/dedupe %}} -{{% /pestaña %}} -{{% pestaña "Editar campos" %}} +{{% /tab %}} +{{% tab "Editar campos" %}} {{% observability_pipelines/processors/remap %}} diff --git a/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/splunk_hec.md b/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/splunk_hec.md index d6fa59e0593b6..2ddc97a63d582 100644 --- a/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/splunk_hec.md +++ b/content/es/observability_pipelines/set_up_pipelines/sensitive_data_redaction/splunk_hec.md @@ -172,8 +172,8 @@ Para configurar el destino, sigue las instrucciones del proveedor de nube que ut {{% observability_pipelines/processors/dedupe %}} -{{% /pestaña %}} -{{% pestaña "Editar campos" %}} +{{% /tab %}} +{{% tab "Editar campos" %}} {{% observability_pipelines/processors/remap %}} diff --git a/content/es/observability_pipelines/set_up_pipelines/split_logs/sumo_logic_hosted_collector.md b/content/es/observability_pipelines/set_up_pipelines/split_logs/sumo_logic_hosted_collector.md index 21a9c34f001fa..c66cad397def2 100644 --- a/content/es/observability_pipelines/set_up_pipelines/split_logs/sumo_logic_hosted_collector.md +++ b/content/es/observability_pipelines/set_up_pipelines/split_logs/sumo_logic_hosted_collector.md @@ -176,8 +176,8 @@ Para configurar el destino, sigue las instrucciones del proveedor de nube que ut {{% observability_pipelines/processors/dedupe %}} -{{% /pestaña %}} -{{% pestaña "Editar campos" %}} +{{% /tab %}} +{{% tab "Editar campos" %}} {{% observability_pipelines/processors/remap %}} From e5f9505fc93a502dfe03adbb23c9166bc9c62202 Mon Sep 17 00:00:00 2001 From: Rosa Trieu Date: Tue, 14 Oct 2025 12:48:14 -0700 Subject: [PATCH 8/8] hide languages --- config/development/config.yaml | 8 ++++---- 1 file changed, 4 insertions(+), 4 deletions(-) diff --git a/config/development/config.yaml b/config/development/config.yaml index b35572319abfc..c3be5b5f20833 100644 --- a/config/development/config.yaml +++ b/config/development/config.yaml @@ -4,7 +4,7 @@ enableGitInfo: true # default to just building english on local dev for a faster build disableLanguages: - # - fr - # - ja - # - ko - # - es + - fr + - ja + - ko + - es