From 16b56cf25422619271772d57644be638fc7b4a07 Mon Sep 17 00:00:00 2001 From: guacbot Date: Thu, 13 Feb 2025 05:16:34 +0000 Subject: [PATCH] Translated file updates --- .../es/cloudcraft/components-aws/ecs-task.md | 100 +++ content/es/integrations/crio.md | 8 +- content/es/integrations/jenkins.md | 161 +++-- content/es/integrations/microsoft_teams.md | 617 ++++++++++++++++++ .../guide/delete_logs_with_sensitive_data.md | 77 +++ .../devices/guide/device_profiles.md | 144 ++++ content/es/opentelemetry/agent/migration.md | 402 ++++++++++++ content/es/synthetics/api_tests/grpc_tests.md | 116 ++-- .../tracing/metrics/runtime_metrics/python.md | 62 ++ content/fr/integrations/external_dns.md | 2 +- content/ja/integrations/airflow.md | 5 +- content/ja/integrations/mcache.md | 2 +- .../integrations/nginx_ingress_controller.md | 2 +- .../setup/agentless_scanning/_index.md | 195 ++---- content/ja/synthetics/api_tests/icmp_tests.md | 42 +- content/ko/data_streams/java.md | 36 +- content/ko/integrations/exchange_server.md | 142 ++++ content/ko/integrations/hazelcast.md | 2 +- content/ko/integrations/mongodb_atlas.md | 139 ++++ content/ko/logs/log_configuration/archives.md | 8 +- .../ko/serverless/custom_metrics/_index.md | 6 +- .../product/data-jobs-monitoring/pricing.yaml | 68 ++ 22 files changed, 2045 insertions(+), 291 deletions(-) create mode 100644 content/es/cloudcraft/components-aws/ecs-task.md create mode 100644 content/es/integrations/microsoft_teams.md create mode 100644 content/es/logs/guide/delete_logs_with_sensitive_data.md create mode 100644 content/es/network_monitoring/devices/guide/device_profiles.md create mode 100644 content/es/opentelemetry/agent/migration.md create mode 100644 content/es/tracing/metrics/runtime_metrics/python.md create mode 100644 content/ko/integrations/exchange_server.md create mode 100644 content/ko/integrations/mongodb_atlas.md create mode 100644 site/content/ja/product/data-jobs-monitoring/pricing.yaml diff --git a/content/es/cloudcraft/components-aws/ecs-task.md b/content/es/cloudcraft/components-aws/ecs-task.md new file mode 100644 index 0000000000000..e74323c8addac --- /dev/null +++ b/content/es/cloudcraft/components-aws/ecs-task.md @@ -0,0 +1,100 @@ +--- +title: Componente Tarea de ECS +--- +## Información general + +Utiliza el componente Tarea de ECS para visualizar tareas de Amazon ECS en tu arquitectura de Amazon Web Services. + +{{< img src="cloudcraft/components-aws/ecs-task/component-ecs-task-diagram.png" alt="Captura de pantalla de un diagrama isométrico de Cloudcraft que muestra componentes interconectados de AWS." responsive="true" style="width:60%;">}} + +## Barra de herramientas + +Utiliza la barra de herramientas para configurar y personalizar el componente. Dispones de las siguientes opciones: + +- **Color**: selecciona un color de relleno para el cuerpo del componente. Puedes utilizar los mismos colores para las vistas 2D y 3D o colores diferentes para cada una. +- **Launch type** (Tipo de lanzamiento): selecciona el tipo de lanzamiento para tu tarea independiente. Las opciones admitidas son Fargate y EC2. +- **CPU**: selecciona la CPU a nivel de tarea. Esta opción no está disponible para EC2. +- **Memory (GB)** (Memoria (GB)): selecciona la cantidad de memoria disponible a nivel de tarea. Esta opción no está disponible para EC2. +- **Storage (GiB)** (Almacenamiento (GiB)): ingresa la cantidad de almacenamiento aprovisionado para la tarea, en gibibytes. Esta opción no está disponible para EC2. + +## API + +Utiliza la [API de Cloudcraft][1] para acceder mediante programación y renderizar tus diagramas de arquitectura como objetos JSON. + +### Esquema + +A continuación, se muestra un ejemplo de objeto JSON de un componente Tarea de ECS: + +```json +{ + "type": "ecstask", + "id": "d76098b3-0d07-4362-80c9-018e474bb910", + "arn": "arn:aws:ecs:us-east-1:746399320916:task/ecs-cluster/9790893504785954834", + "region": "us-west-2", + "mapPos": [7.5,3], + "launchType": "fargate", + "cpu": "256", + "memoryGB": "0.5", + "storageGB": 20, + "color": { + "isometric": "#ffeb3b", + "2d": "#ffeb3b" + }, + "link": "https://aws.amazon.com/ecs/", + "locked": true +} +``` + +- **type: string**: el tipo de componente. Debe ser una cadena con el valor `ecstask` para este componente. +- **id: string, uuid**: el identificador único para el componente. La API utiliza un UUID v4 internamente, pero acepta cualquier cadena única. +- **arn: string**: el identificador único global para el componente dentro de AWS, conocido como los [Nombres de recursos de Amazon][2]. +- **region: string**: la región de AWS para el componente. La API admite todas las regiones del mundo, [excepto AWS China][3]. +- **mapPos: array**: la posición del componente en el proyecto, expresada como un par de coordenadas x e y. +- **launchType: string**: el tipo de lanzamiento para la tarea independiente. Acepta uno de los siguientes valores: `fargate` o `ec2`. Por defecto es `ec2`. +- **cpu: number**: el número de vCPUs a nivel de tarea. Consulta [Valores aceptados para cpu](#accepted-values-for-cpu) para obtener más información. Por defecto es `256`. +- **memoryGB: number**: la cantidad de memoria a nivel de tarea. Consulta [Valores aceptados para memoryGB](#accepted-values-for-memorygb) para obtener más información. Por defecto es `0.5`. +- **storageGB: numbe**: la cantidad de almacenamiento provisionado para la tarea, en gibibytes. Acepta un valor entre `20` y `200`. Por defecto es `20`. +- **color: object**: el color de relleno para el cuerpo del componente. + - **isometric: string**: un color hexadecimal para el cuerpo del componente en la vista 3D. Por defecto es `#ececed` para EC2 y `#3c3c3c` para Fargate. + - **2d: string**: un color hexadecimal para el cuerpo del componente en la vista 2D. Por defecto es `#d86613`. +- **link: string, uri**: URI que enlaza el componente a otro diagrama o a un sitio web externo. Acepta uno de los siguientes formatos: `blueprint://` o `https://`. +- **locked: boolean**: si se permite cambiar la posición del componente a través de la interfaz web. Por defecto es `false`. + +## Valores aceptados para `cpu` + +La clave `cpu` acepta los siguientes valores: + +``` +256, 512, 1024, 2048, 4096 +``` + +**Nota**: Esta clave no hace nada si se configura `launchType` en `ec2`. + +## Valores aceptados para `memoryGB` + +La clave `memoryGB` acepta los siguientes valores: + +``` +0.5, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, +20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30 +``` + +**Nota**: Esta clave no hace nada si se configura `launchType` en `ec2`. + +## Combinaciones válidas para `cpu` y `memoryGB` + +Las claves `cpu` y `memoryGB` juntas determinan el tamaño de tu tarea, pero debes proporcionar una combinación válida de valores. + +En la tabla siguiente, se indican las combinaciones válidas. + +CPU | memoryGB +---- | --------- +256 | 0.5, 1, 2 +512 | {1..4} +1024 | {2..8} +2048 | {4..16} +4096 | {8..30} + +[1]: https://developers.cloudcraft.co/ +[2]: https://docs.aws.amazon.com/general/latest/gr/aws-arns-and-namespaces.html +[3]: /es/cloudcraft/faq/scan-error-aws-china-region/ \ No newline at end of file diff --git a/content/es/integrations/crio.md b/content/es/integrations/crio.md index ef971c3b8b50e..4c2d022159e84 100644 --- a/content/es/integrations/crio.md +++ b/content/es/integrations/crio.md @@ -25,7 +25,7 @@ author: support_email: help@datadoghq.com categories: - contenedores -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-core/blob/master/crio/README.md display_on_public_website: true @@ -33,7 +33,7 @@ draft: false git_integration_title: crio integration_id: cri-o integration_title: CRI-O -integration_version: 4.0.0 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: crio @@ -70,7 +70,7 @@ Este check monitoriza [CRI-O][1]. ### Instalación -La integración se basa en la opción `--enable-metrics` de CRI-O desactivada por defecto, cuando se exponen métricas activadas en`127.0.0.1:9090/métricas`. +La integración se basa en la opción `--enable-metrics` de CRI-O desactivada por defecto, cuando se exponen métricas activadas en`127.0.0.1:9090/metrics`. ### Configuración @@ -80,7 +80,7 @@ La integración se basa en la opción `--enable-metrics` de CRI-O desactivada po ### Validación -[Ejecuta el subcomando de estado del Agent][4] y busca en la sección **Checks**. +[Ejecuta el subcomando de estado del Agent][4] y busca `crio` en la sección **Checks**. ## Datos recopilados diff --git a/content/es/integrations/jenkins.md b/content/es/integrations/jenkins.md index 5afd766e499e5..27753bf7ad23a 100644 --- a/content/es/integrations/jenkins.md +++ b/content/es/integrations/jenkins.md @@ -1,7 +1,7 @@ --- categories: - configuration & deployment -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/jenkinsci/datadog-plugin/blob/master/README.md description: Reenvía automáticamente tus métricas, eventos y checks de servicio de @@ -58,22 +58,25 @@ Para configurar tu complemento de Datadog, navega a la página `Manage Jenkins - ##### Reenvío HTTP -1. Selecciona el botón de opción situado junto a **Use Datadog API URL and Key to report to Datadog** (Utilizar la URL y la clave de la API de Datadog para informar a Datadog) (seleccionado por defecto). -2. Pega tu [clave de API de Datadog][4] en el cuadro de texto `API Key` de la pantalla de configuración de Jenkins. Si deseas almacenar tu clave de API con el [Gestor de credenciales][18], crea una credencial para la clave de API y selecciona esa credencial en el menú desplegable `Datadog API Key (Select from Credentials)`. -3. Prueba tu clave de API de Datadog utilizando el botón `Test Key` en la pantalla de configuración de Jenkins justo debajo del cuadro de texto de la clave de API. -4. (Opcional) Introduce el nombre de host del servidor Jenkins en la pestaña Advanced (Avanzado) para incluirlo con los eventos. -5. (Opcional) Introduce tu [URL de entrada de log de Datadog][15] y selecciona "Enable Log Collection" (Activar recopilación de logs) en la pestaña Advanced (Avanzado). -6. (Opcional) Selecciona "Enable CI Visibility" (Activar CI Visibility), configurando opcionalmente el nombre de tu instancia de CI. -7. Guarda tu configuración. +1. Selecciona el botón de opción situado junto a **Utilizar el sitio Datadog y la clave de API para informar a Datadog** (seleccionado por defecto). +2. Selecciona tu [sitio Datadog][21] en el desplegable **Elegir un sitio**. +3. Pega tu [clave de API Datadog][4] en el cuadro de texto `API Key` de la pantalla de configuración de Jenkins. Si quieres almacenar tu clave de API utilizando el [Gestor de credenciales][18], crea una credencial para la clave de API y luego selecciónala en el desplegable `Select from credentials`. +4. Prueba tu clave de API Datadog utilizando el botón `Test Key` de la pantalla de configuración de Jenkins, justo debajo del cuadro de texto de la clave API. +5. (Opcional) Introduce el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog (por ejemplo, `app.datadoghq.com`) en el campo `Datadog App hostname`. +6. (Opcional) Introduce el nombre de host del servidor Jenkins en la pestaña Advanced (Avanzado) para incluirlo con el eventos. +7. (Opcional) Introduce tu [URL de entrada de log de Datadog][15] y selecciona "Enable Log Collection" (Activar recopilación de logs) en la pestaña Advanced (Avanzado). +8. (Opcional) Selecciona "Enable CI Visibility" (Activar CI Visibility), configurando opcionalmente el nombre de tu instancia de CI. +9. Guarda tu configuración. ##### Reenvío de Datadog Agent 1. Selecciona el botón de opción situado junto a **Use the Datadog Agent to report to Datadog** (Utilizar Datadog Agent para informar a Datadog). 2. Especifica tu Datadog Agent `hostname` y `port`. -3. (Opcional) Introduce el nombre de host del servidor Jenkins en la pestaña Advanced (Avanzado) para incluirlo con el eventos. -4. (Opcional) Introduce tu puerto de recopilación de logs, configurar la [recopilación de logs](#log-collection-for-agents) en el Datadog Agent y selecciona "Enable Log Collection" (Activar la recopilación de log). -5. (Opcional) Introduce tu puerto de recopilación de trazas (traces) y selecciona "Enable CI Visibility" (Activar CI Visibility), configurando opcionalmente el nombre de tu instancia de CI. -6. Guarda tu configuración. +3. (Opcional) Introduce el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog (por ejemplo, `app.datadoghq.com`) en el campo `Datadog App hostname`. +4. (Opcional) Introduce el nombre de host del servidor Jenkins en la pestaña Advanced (Avanzado) para incluirlo con el eventos. +5. (Opcional) Introduce tu puerto de recopilación de logs, configurar la [recopilación de logs](#log-collection-for-agents) en el Datadog Agent y selecciona "Enable Log Collection" (Activar la recopilación de log). +6. (Opcional) Introduce tu puerto de recopilación de trazas (traces) y selecciona "Enable CI Visibility" (Activar CI Visibility), configurando opcionalmente el nombre de tu instancia de CI. +7. Guarda tu configuración. #### Script Groovy @@ -82,54 +85,57 @@ Configura tu complemento de Datadog para reenviar datos a través de HTTP o DogS ##### Reenvío HTTP usando Groovy ```groovy -import jenkins.model.* +import hudson.util.Secret +import jenkins.model.Jenkins import org.datadog.jenkins.plugins.datadog.DatadogGlobalConfiguration +import org.datadog.jenkins.plugins.datadog.configuration.DatadogApiConfiguration +import org.datadog.jenkins.plugins.datadog.configuration.api.intake.DatadogIntakeSite +import org.datadog.jenkins.plugins.datadog.configuration.api.intake.DatadogSite +import org.datadog.jenkins.plugins.datadog.configuration.api.key.DatadogTextApiKey -def j = Jenkins.getInstance() -def d = j.getDescriptor("org.datadog.jenkins.plugins.datadog.DatadogGlobalConfiguration") +def jenkins = Jenkins.getInstance() +def datadog = jenkins.getDescriptorByType(DatadogGlobalConfiguration) -// Si deseas utilizar la URL y clave de la API de Datadog para informar a Datadog -d.setReportWith('HTTP') -d.setTargetApiURL('https://api.datadoghq.com/api/') -d.setTargetApiKey('') +def site = new DatadogIntakeSite(DatadogSite.US1) // pick your Datadog site +def apiKey = new DatadogTextApiKey(Secret.fromString('')) // or `new DatadogCredentialsApiKey('')` +datadog.datadogClientConfiguration = new DatadogApiConfiguration(site, apiKey) -// Personalización, consulta la sección específica a continuación -d.setExcluded('job1,job2') +datadog.datadogAppHostname = 'app.datadoghq.com' // the name of the host that you use to access Datadog UI +datadog.collectBuildLogs = true // if you want to collect logs +datadog.enableCiVisibility = true // if you want to enable CI Visibility -// Si deseas recopilar logs -d.setLogIntakeUrl('https://http-intake.logs.datadoghq.com/v1/input/') +// Customization, see dedicated section below +datadog.excluded = 'job1,job2' -// Guardar configuración -d.save() +// Save config +datadog.save() ``` ##### Reenvío de Datadog Agent utilizando Groovy ```groovy -import jenkins.model.* +import jenkins.model.Jenkins import org.datadog.jenkins.plugins.datadog.DatadogGlobalConfiguration +import org.datadog.jenkins.plugins.datadog.configuration.DatadogAgentConfiguration -def j = Jenkins.getInstance() -def d = j.getDescriptor("org.datadog.jenkins.plugins.datadog.DatadogGlobalConfiguration") +def jenkins = Jenkins.getInstance() +def datadog = jenkins.getDescriptorByType(DatadogGlobalConfiguration) -d.setReportWith('DSD') -d.setTargetHost('localhost') -d.setTargetPort(8125) +def agentHost = 'localhost' +def agentPort = 8125 +def agentLogCollectionPort = 10518 +def agentTraceCollectionPort = 8126 +datadog.datadogClientConfiguration = new DatadogAgentConfiguration(agentHost, agentPort, agentLogCollectionPort, agentTraceCollectionPort) -// Si deseas recopilar logs -d.setTargetLogCollectionPort(10518) -d.setCollectBuildLogs(true) +datadog.datadogAppHostname = 'app.datadoghq.com' // the name of the host that you use to access Datadog UI +datadog.collectBuildLogs = true // if you want to collect logs +datadog.enableCiVisibility = true // if you want to enable CI Visibility -// Si deseas activar CI Visibility -d.setTargetTraceCollectionPort(8126) -d.setEnableCiVisibility(true) -d.setCiInstanceName("jenkins") +// Customization, see dedicated section below +datadog.excluded = 'job1,job2' -// Personalización, consulta la sección específica a continuación -d.setExcluded('job1,job2') - -// Guardar configuración -d.save() +// Save config +datadog.save() ``` #### Variables de entorno @@ -139,14 +145,13 @@ Configura tu complemento de Datadog utilizando las variables de entorno con la v ##### Reenvío HTTP mediante variables de entorno 1. Establece la variable `DATADOG_JENKINS_PLUGIN_REPORT_WITH` en `HTTP`. -2. Establece la variable `DATADOG_JENKINS_PLUGIN_TARGET_API_URL`, que especifica el endpoint de la API de Datadog (por defecto es `https://api.datadoghq.com/api/`). +2. Define la variable `DATADOG_JENKINS_PLUGIN_DATADOG_SITE`, que especifica el [sitio Datadog][21] (por defecto es US1). 3. Establece la variable `DATADOG_JENKINS_PLUGIN_TARGET_API_KEY`, que especifica tu [clave de API de Datadog][4]. -4. (Opcional) Recopilación de logs +4. (Opcional) Define la variable `DATADOG_JENKINS_PLUGIN_DATADOG_APP_HOSTNAME` con el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog (por ejemplo `app.datadoghq.com`) +5. (Opcional) Recopilación de logs - Establece la variable `DATADOG_JENKINS_PLUGIN_COLLECT_BUILD_LOGS` en `true` para activar la recopilación de logs (desactivada por defecto). - - Establece la variable `DATADOG_JENKINS_PLUGIN_TARGET_LOG_INTAKE_URL`, que especifica la URL de entrada de logs de Datadog (por defecto `https://http-intake.logs.datadoghq.com/v1/input/`). -5. (Opcional) CI Visibility (recopilación de trazas): +6. (Opcional) CI Visibility (recopilación de trazas): - Establece la variable `DATADOG_JENKINS_PLUGIN_ENABLE_CI_VISIBILITY` en `true` para activar la CI Visibility (desactivada por defecto). - - Establece la variable `DATADOG_JENKINS_TARGET_WEBHOOK_INTAKE_URL`, que especifica la URL de entrada del Webhook de Datadog (por defecto es `https://webhook-intake.datadoghq.com/api/v2/webhook/`). - Establece la variable `DATADOG_JENKINS_PLUGIN_CI_VISIBILITY_CI_INSTANCE_NAME`, que especifica el nombre de la instancia de Jenkins para CI Visibility (por defecto es `jenkins`). ##### Reenvío de Datadog Agent mediante variables de entorno @@ -154,11 +159,12 @@ Configura tu complemento de Datadog utilizando las variables de entorno con la v 1. Establece la variable `DATADOG_JENKINS_PLUGIN_REPORT_WITH` en `DSD`. 2. Establece la variable `DATADOG_JENKINS_PLUGIN_TARGET_HOST`, que especifica el host de servidor de DogStatsD (por defecto `localhost`). 3. Establece la variable `DATADOG_JENKINS_PLUGIN_TARGET_PORT`, que especifica el puerto del servidor de DogStatsD (por defecto es `8125`). -4. (Opcional) Recopilación de logs +4. (Opcional) Define la variable `DATADOG_JENKINS_PLUGIN_DATADOG_APP_HOSTNAME` con el nombre del host que utilizas para acceder a la interfaz de usuario de Datadog (por ejemplo `app.datadoghq.com`) +5. (Opcional) Recopilación de logs - Habilita [recopilación de logs](#log-collection-for-agents) en el Datadog Agent. - Establece la variable `DATADOG_JENKINS_PLUGIN_COLLECT_BUILD_LOGS` en `true` para activar la recopilación de logs (desactivada por defecto). - Establece la variable `DATADOG_JENKINS_PLUGIN_TARGET_LOG_COLLECTION_PORT`, que especifica el puerto de recopilación de logs de Datadog Agent. -5. (Opcional) CI Visibility (recopilación de trazas): +6. (Opcional) CI Visibility (recopilación de trazas): - Establece la variable `DATADOG_JENKINS_PLUGIN_ENABLE_CI_VISIBILITY` en `true` para activar la CI Visibility (desactivada por defecto). - Establece la variable `DATADOG_JENKINS_PLUGIN_TARGET_TRACE_COLLECTION_PORT`, que especifica el puerto de recopilación de trazas de Datadog Agent (por defecto `8126`). - Establece la variable `DATADOG_JENKINS_PLUGIN_CI_VISIBILITY_CI_INSTANCE_NAME`, que especifica el nombre de la instancia de Jenkins para CI Visibility (por defecto es `jenkins`). @@ -173,7 +179,11 @@ Las variables de entorno con el espacio de nombres `DATADOG_JENKINS_PLUGIN` tien #### Registro -El registro se realiza utilizando `java.util.Logger`, que sigue las [prácticas recomendadas de registro para Jenkins][6]. Para obtener logs, sigue las instrucciones de la [documentación de registro de Jenkins][6]. Cuando agregues un registrador, todas las funciones del complemento de Datadog comienzan con `org.datadog.jenkins.plugins.datadog.` y el nombre de la función que estás buscando debería autocompletarse. En el momento de escribir esto, la única función disponible era `org.datadog.jenkins.plugins.datadog.listeners.DatadogBuildListener`. +La generación de logs se realiza utilizando `java.util.Logger`, que sigue las [prácticas recomendadas de Jenkins para la generación de logs][6]. + +El complemento registra automáticamente un generador de logs personalizado llamado "Datadog Plugin Logs" que escribe logs de complementos con un nivel `INFO` o superior. +El generador de logs personalizado puede desactivarse definiendo la variable de entorno `DD_JENKINS_PLUGIN_LOG_RECORDER_ENABLED` en `false`. +Si quieres ver logs de complementos con el máximo detalle, cambia manualmente el nivel del generador de logs personalizado a `ALL`. ## Personalización @@ -244,15 +254,15 @@ Desde una página de configuración específica del trabajo: | Etiquetas personalizadas | Establecido desde un `File` en el espacio de trabajo (no compatible con trabajos de pipeline) o como texto `Properties` directamente desde la página de configuración. Si se establece, anula la configuración `Global Job Tags`. | | Enviar eventos de gestión de control de fuente | Presenta el `Source Control Management Events Type` de eventos y métricas (activado por defecto). | -### Configuración de Test Visibility +### Configuración de Test Optimization -El complemento puede automáticamente configurar Datadog [Test Visibility][19] para un trabajo o un pipeline (ve la [documentación para tu lenguaje][20] de Test Visibility para asegurarte de que el marco de tests que utilizas es compatible; también ten en cuenta que la configuración automática no es compatible para tests que se ejecutan dentro de contenedores; sigue los [pasos de instrumentación manual][20] para habilitar Test Visibility para ejecuciones de tests en contenedores). +El complemento puede configurar automáticamente Datadog [Test Optimization[19] para un trabajo o un pipeline. Consulta la [documentación de Test Optimization para tu lenguaje][20] para asegurarte de que el marco de tests que utilizas es compatible. También ten en cuenta que la configuración automática no es compatible con tests que se ejecutan en contenedores. Para habilitar Test Optimization para ejecuciones de tests en contenedores, sigue los [pasos de instrumentación manual][20]. -Antes de activar Test Visibility, asegúrate de configurar el complemento para enviar datos a Datadog. +Antes de activar Test Optimization, asegúrate de configurar correctamente el complemento para enviar datos a Datadog. -Hay dos opciones para activar la configuración automática de Test Visibility: +Existen dos opciones para activar la configuración automática de Test Optimization: -1. Con la interfaz de usuario de Jenkins (disponible en el complemento v5.6.0 o más reciente): ve a la página **Configure** (Configurar) del trabajo o pipeline cuyos tests necesitan ser rastreados, marca la casilla **Enable Datadog Test Visibility** (Activar Datadog Test Visibility) en la sección **General**, y guarda los cambios. Esta opción no está disponible si estás utilizando pipelines de múltiples ramas, carpetas de organización u otros tipos de pipelines que se configuran completamente con `Jenkinsfile`. +1. Utilizando la interfaz de usuario de Jenkins (disponible en el complemento v5.6.0 o más reciente): ve a la página **Configurar** del trabajo o pipeline cuyos tests necesitan ser rastreados, marca la casilla **Habilitar Datadog Test Optimization** en la sección **General** y guarda tus cambios. Esta opción no está disponible si se utilizan pipelines de varias bifurcaciones, carpetas de organización u otros tipos de pipelines que se configuran completamente con `Jenkinsfile`. 2. Con el paso de pipeline de `datadog` (disponible en el complemento v5.6.2 o posterior): En los pipelines declarativos, añade el paso a un bloque de nivel superior de `options` del siguiente modo: @@ -261,11 +271,11 @@ En los pipelines declarativos, añade el paso a un bloque de nivel superior de ` pipeline { agent any options { - datadog(testVisibility: [ + datadog(testOptimization: [ enabled: true, - serviceName: "my-service", // el nombre de servicio o biblioteca que se está probando - languages: ["JAVA"], // lenguajes que deben ser instrumentados (las opciones disponibles son "JAVA", "JAVASCRIPT", "PYTHON", "DOTNET") - additionalVariables: ["my-var": "value"] // configuración adicional del rastreador (opcional) + serviceName: "my-service", // the name of service or library being tested + languages: ["JAVA"], // languages that should be instrumented (available options are "JAVA", "JAVASCRIPT", "PYTHON", "DOTNET", "RUBY") + additionalVariables: ["my-var": "value"] // additional tracer configuration settings (optional) ]) } stages { @@ -281,7 +291,7 @@ pipeline { En los pipelines con script, envuelve la sección correspondiente con el paso `datadog` de la siguiente manera: ```groovy -datadog(testVisibility: [ enabled: true, serviceName: "my-service", languages: ["JAVA"], additionalVariables: [:] ]) { +datadog(testOptimization: [ enabled: true, serviceName: "my-service", languages: ["JAVA"], additionalVariables: [:] ]) { node { stage('Example') { echo "Hello world." @@ -290,9 +300,9 @@ datadog(testVisibility: [ enabled: true, serviceName: "my-service", languages: [ } ``` -Los demás ajustes de `datadog`, como `collectLogs` o `tags`, pueden añadirse junto al bloque `testVisibility`. +Los demás parámetros de `datadog`, como `collectLogs` o `tags`, pueden añadirse junto al bloque `testOptimization`. -Ten en cuenta que Test Visibility es un producto independiente de Datadog que se factura por separado. +Ten en cuenta que Test Optimization es un producto independiente de Datadog y se factura por separado. ## Datos recopilados @@ -344,7 +354,7 @@ Este complemento permite filtrar eventos por el tipo de evento así como por los arriba. Para incluir/excluir todos los eventos del tipo de sistema o de seguridad: - **En la interfaz de usuario**: desactiva las casillas de verificación de estos eventos. - **En un script groovy**: obtén el descriptor global de Datadog y llama a `d.setEmitSystemEvents()` o `d.setEmitSecurityEvents()`. -- **En la sección [variables de entorno](#environment-variables)**: establece las variables de entorno para los eventos de seguridad y de sistema emitidos. +- **En la sección de [variables de entorno](#environment-variables)**: define las variables de entorno para los eventos de seguridad y de sistema emitidos. Para obtener un control más específico sobre qué eventos se envían, se proporcionan tres opciones de configuración para permitir una lista de include/exclude (incluir/excluir) separada por comas de cadenas de nombres de evento. La lista include/exclude (incluir/excluir) tiene prioridad sobre el filtrado por tipo de evento. Por ejemplo, los eventos de `security` pueden desactivarse, pero la inclusión de `UserAuthenticated` tiene prioridad, por lo que sólo se enviarán eventos de `UserAuthenticated` del tipo `security`. En la interfaz de usuario, se proporcionan cuadros de texto para las listas incluir/excluir. En un script groovy, los métodos `d.setIncludeEvents()` y `d.setExcludeEvents()` aceptan como entrada una lista de nombres de evento separada por comas, que es otro método válido de configuración. Por último, se proporcionan [variables de entorno](#environment-variables) para configurar manualmente las listas de incluir/excluir. @@ -394,6 +404,7 @@ NOTA: Como se menciona en la sección [personalización del trabajo](#job-custom | `jenkins.plugin.failed` | Complementos fallidos. | `jenkins_url` | | `jenkins.plugin.inactivate` | Complementos inactivos. | `jenkins_url` | | `jenkins.plugin.withUpdate` | Complementos con actualización. | `jenkins_url` | +| `jenkins.plugin.withWarning` | Plugins con aviso. | `jenkins_url` | | `jenkins.project.count` | Recuento de proyectos. | `jenkins_url` | | `jenkins.queue.size` | Tamaño de la cola. | `jenkins_url` | | `jenkins.queue.buildable` | Número de elementos compilables en cola. | `jenkins_url` | @@ -414,7 +425,7 @@ NOTA: Como se menciona en la sección [personalización del trabajo](#job-custom **Nota**: Esta configuración sólo se aplica a aquellos que utilizan la [configuración del Datadog Agent](#plugin-user-interface). -1. La recopilación de logs está desactivada por defecto en el Datadog Agent , actívala en tu archivo `datadog.yaml`: +1. La recopilación de logs está deshabilitada por defecto en el Datadog Agent; habilítala en tu archivo `datadog.yaml`: ```yaml logs_enabled: true @@ -438,6 +449,23 @@ NOTA: Como se menciona en la sección [personalización del trabajo](#job-custom Crea el estado `jenkins.job.status` con las siguientes etiquetas predeterminadas: `jenkins_url`, `job`, `node`, `user_id` +## Resolución de problemas + +### Generación de un flare de diagnóstico. + +El flare de diagnóstico del complemento contiene datos que pueden utilizarse para diagnosticar problemas con el complemento. +En el momento en que se escribió esta guía, el flare incluía lo siguiente: +- configuración de complementos en formato XML +- resultados de verificaciones de la conectividad del complemento +- datos de tiempo de ejecución (versiones actuales de JVM, Jenkins Core, complemento) +- excepciones recientes ocurridas dentro del código del complemento +- logs de complementos con un nivel `INFO` y superior, y logs recientes del controlador Jenkins +- stacks tecnológicos actuales de los subprocesos del proceso del controlador Jenkins +- variables de entorno que empiezan por `DD_` o `DATADOG_` (excepto claves de API o de aplicación) + +Para generar un flare, ve a la página `Manage Jenkins`, busca la sección `Troubleshooting` y selecciona `Datadog`. +Haz clic en `Download Diagnostic Flare` (requiere permisos de "ADMINISTRADOR") para generar el flare. + ## Rastreo de problemas El sistema de rastreo de problemas integrado en GitHub se utiliza para realizar un rastreo de todos los problemas relacionados con este complemento: [jenkinsci/datadog-plugin/issues][7]. @@ -475,4 +503,5 @@ Consulta el [documento de desarrollo][12] para obtener consejos sobre cómo pone [17]: https://docs.datadoghq.com/es/developers/dogstatsd/?tab=containeragent# [18]: https://www.jenkins.io/doc/book/using/using-credentials/ [19]: https://docs.datadoghq.com/es/tests/ -[20]: https://docs.datadoghq.com/es/tests/setup/ \ No newline at end of file +[20]: https://docs.datadoghq.com/es/tests/setup/ +[21]: https://docs.datadoghq.com/es/getting_started/site/#access-the-datadog-site \ No newline at end of file diff --git a/content/es/integrations/microsoft_teams.md b/content/es/integrations/microsoft_teams.md new file mode 100644 index 0000000000000..2e71a23b074bf --- /dev/null +++ b/content/es/integrations/microsoft_teams.md @@ -0,0 +1,617 @@ +--- +app_id: microsoft-teams +app_uuid: b37c5433-6bdd-4f37-9f7e-a60d61032c33 +assets: + integration: + auto_install: false + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 203 + source_type_name: Microsoft Teams +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- colaboración +- network +- notificaciones +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: microsoft_teams +integration_id: microsoft-teams +integration_title: Microsoft Teams +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: microsoft_teams +public_title: Microsoft Teams +short_description: Microsoft Teams es el espacio de trabajo de Office 365 basado en + chat que integra personas, contenidos y herramientas. +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Collaboration + - Category::Network + - Category::Notifications + - Offering::Integration + configuration: README.md#Configuración + description: Microsoft Teams es el espacio de trabajo de Office 365 basado en chat + que integra personas, contenidos y herramientas. + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: Microsoft Teams +--- + + +## Información general + +Integrarse con Microsoft Teams para: +{{< site-region region="us,us3,us5,eu,ap1" >}} +- Recibir notificaciones de alertas en Datadog y eventos en Microsoft Teams. +- Gestionar las incidencias desde Microsoft Teams. +- Silenciar los monitores activados directamente desde Microsoft Teams. + {{< /site-region >}} + {{< site-region region="gov" >}} +- Recibir notificaciones de alertas en Datadog y eventos en Microsoft Teams. +- Silenciar los monitores activados directamente desde Microsoft Teams. + {{< /site-region >}} + +## Configuración + +{{< pestañas >}} + +{{% tab "Aplicación Datadog (recomendado)" %}} + +### Enviar notificaciones de monitor a un canal de Microsoft Teams + +Conecta tu inquilino de Microsoft a Datadog. + +1. En Datadog, ve a [**Integrations > Microsoft Teams** (Integraciones > Microsoft Teams)][1]. +2. Haz clic en **Add Tenant** (Agregar inquilino), que te redirigirá a Microsoft. +3. Sigue las instrucciones y haz clic en **OK** (Aceptar). + +{{< site-region region="us,us3,us5,eu,ap1" >}} +Asegúrate de haber añadido la aplicación Datadog a todos los equipos en los que quieras recibir notificaciones de Datadog . +{{< /site-region >}} +{{< site-region region="gov" >}} +Asegúrate de haber añadido la aplicación Datadog para el Gobierno a todos los equipos en los que quieras recibir notificaciones de Datadog . +{{< /site-region >}} + +{{< site-region region="us,us3,us5,eu,ap1" >}} +1. Abre Microsoft Teams. +2. En la barra de herramientas vertical, haz clic en **Apps** (Aplicaciones). +3. Busca "Datadog" y haz clic en **Open** (Abrir). +4. En el modal que se abre, selecciona el canal principal del equipo donde debe añadirse la aplicación. Haz clic en **Go** (Listo) para completar la instalación. + {{< /site-region >}} + +{{< site-region region="gov" >}} +1. Abre Microsoft Teams. +2. En la barra de herramientas vertical, haz clic en **Apps** (Aplicaciones). +3. Busca "Datadog para el Gobierno" y haz clic en **Open** (Abrir). +4. En el modal que se abre, selecciona el canal principal del equipo donde debe añadirse la aplicación. Haz clic en **Go** (Listo) para completar la instalación. + {{< /site-region >}} + +{{< site-region region="us,us3,us5,eu,ap1" >}} +{{< img src="integrations/microsoft_teams/microsoft_teams_add_app_to_team.png" alt="Microsoft Teams Añadir aplicación al equipo" >}} +{{< /site-region >}} +{{< site-region region="gov" >}} +{{< img src="integrations/microsoft_teams/microsoft_teams_add_gov_app_to_team.png" alt="Microsoft Teams Añadir aplicación al equipo" >}} +{{< /site-region >}} + +Una vez que el bot se haya añadido al equipo, configura el gestor de notificaciones en Datadog. + +1. En un inquilino configurado, haz clic en **Add Handle** (Añadir gestor). Asigna un nombre al gestor, selecciona el equipo y el canal en los menús desplegables y haz clic en **Save** (Guardar). + +### Migrar los conectores de legacy a la integración basada en inquilinos + +Microsoft ha anunciado que los conectores de Office 365 para Microsoft Teams quedan obsoletos. Esto tiene los siguientes efectos: + +* Todos los conectores de Datadog dejarán de funcionar el 31 de enero de 2025. +* Los conectores de webhooks entrantes sin [URL actualizadas][2] dejarán de funcionar el 31 de enero de 2025. +* Todos los conectores dejarán de funcionar el 31 de diciembre de 2025 (previamente era el 1 de octubre de 2024). + +Para obtener más información, consulta la [entrada de blog][3] de Microsoft. + +Para migrar todos los gestores de notificaciones que utilizan actualmente los conectores de Office 365 legacy a integraciones Datadog basadas en inquilinos: + +{{< site-region region="us,us3,us5,eu,ap1" >}} +1. Sigue los [pasos de configuración](#setup) para conectar tu inquilino de Microsoft a Datadog. +2. Añade la aplicación Datadog a todos los equipos en los que tengas configurado un conector legacy de Office 365. +3. Para cada gestor de un conector de notificaciones legacy en el [cuadro de la integración Microsoft Teams][1]: + 1. En el inquilino configurado, haz clic en **Add Handle** (Añadir gestor). + 2. Asigna al nuevo gestor el mismo nombre que el gestor del conector. Por ejemplo, si el gestor del conector legacy se llama `channel-123`, crea un nuevo gestor en la configuración del inquilino con el nombre `channel-123`. + 3. Selecciona el equipo y el canal elegidos en los menús desplegables a los que el gestor del conector legacy enviaba el mensaje y haz clic en **Save** (Guardar). Este nuevo gestor anula el gestor del conector legacy existente. + +[1]: https://app.datadoghq.com/integrations/microsoft-teams + +{{< /site-region >}} + +{{< site-region region="gov" >}} +1. Sigue los [pasos de configuración](#setup) para conectar tu inquilino de Microsoft a Datadog. +2. Añade la aplicación Datadog para el Gobierno a todos los equipos en los que tengas configurado un conector legacy de Office 365. +3. Para cada gestor de un conector de notificaciones legacy en el [cuadro de la integración Microsoft Teams][1]: + 1. En el inquilino configurado, haz clic en **Add Handle** (Añadir gestor). + 2. Asigna al nuevo gestor el mismo nombre que el gestor del conector. Por ejemplo, si el gestor del conector legacy se llama `channel-123`, crea un nuevo gestor en la configuración del inquilino con el nombre `channel-123`. + 3. Selecciona el equipo y el canal elegidos en los menús desplegables a los que el gestor del conector legacy enviaba el mensaje y haz clic en **Save** (Guardar). Este nuevo gestor anula el gestor del conector legacy existente. + +[1]: https://app.datadoghq.com/integrations/microsoft-teams + +{{< /site-region >}} + +### Utilización + +Desde un monitor Datadog, envía una notificación a Microsoft Teams utilizando la [función `@-notification`][1]. Envía la notificación a la dirección `@teams-`, sustituyendo `` por el nombre de tu gestor de Microsoft Teams. Para silenciar un monitor activado desde Microsoft Teams, haz clic en **Mute Monitor** (Silenciar Monitor), selecciona la **Duración del silencio** y haz clic en **Mute** (Silenciar). + +#### Dashboards + +Puedes publicar snapshots de widgets de dashboard en cualquier equipo o chat. Para consultar la lista de los widgets admitidos, consulta [Informes programados][7]. + +Para compartir un widget de dashboard en Teams: + +1. En Datadog, pasa el ratón por encima del widget de dashboard y pulsa `CMD + C` o `CTRL + C`, o haz clic en el botón **Copy** (Copiar) del menú compartir. +2. Pega el enlace en Teams. + +{{< site-region region="us,us3,us5,eu,ap1" >}} +{{< img src="integrations/microsoft_teams/dashboard_share.png" alt="Compartir un widget de dashboard en Microsoft Teams">}} +{{< /site-region >}} + +{{< site-region region="gov" >}} +{{< img src="integrations/microsoft_teams/dashboard_share_gov.png" alt="Compartir un widget de dashboard en Microsoft Teams">}} +{{< /site-region >}} + + +[1]: https://app.datadoghq.com/integrations/microsoft-teams +[2]: https://learn.microsoft.com/en-us/microsoftteams/m365-custom-connectors#update-connectors-url +[3]: https://devblogs.microsoft.com/microsoft365dev/retirement-of-office-365-connectors-within-microsoft-teams/ +{{% /tab %}} + +{{% tab "Webhooks de Microsoft Workflows" %}} +### ¿Qué son los webhooks de Microsoft Workflows? + +Workflows / Power Automate es un producto de Microsoft para crear flujos de trabajo automatizados. Microsoft Workflows puede utilizarse para enviar notificaciones con webhooks entrantes. Si no puedes instalar la aplicación Datadog en tu inquilino de Microsoft Teams (recomendado) o si quieres enviar notificaciones a canales privados, puedes configurar gestores Datadog para enviar notificaciones a canales de Microsoft Teams a través de Microsoft Workflows. Esta integración está pensada para su uso con la siguiente plantilla de Microsoft Workflows: [Publicar en un canal cuando se recibe una solicitud de webhook][1] + +{{< img src="integrations/microsoft_teams/microsoft_teams_workflows_template.png" alt="Plantilla: Publicar en un canal cuando se recibe una solicitud de webhook" style="width:30%;" >}} + +### ¿Estás migrando conectores legacy a la integración de webhooks de Microsoft Workflows? + +Microsoft [ha anunciado][2] que los conectores de Office 365 para Microsoft Teams quedan obsoletos y las URL de los conectores existentes dejarán de funcionar el 31 de enero de 2025. Microsoft promueve el uso de webhooks entrantes de Microsoft Workflows como sustituto de los conectores legacy. Sigue los pasos que se indican a continuación para migrar todos los gestores de notificaciones que utilizan actualmente conectores de Office 365 legacy a la integración de webhooks de Microsoft Workflows de Datadog. + +Para cada gestor de un conector de notificaciones legacy en el cuadro de la integración Microsoft Teams: +1. Sigue los [pasos de configuración](#create-a-microsoft-workflows-webhook) para crear un gestor de webhook de flujo de trabajo para el canal de Microsoft Teams elegido. +2. En la sección Webhooks de Microsoft Workflows, asigna al nuevo gestor el mismo nombre que el gestor del conector al que debe sustituir. Por ejemplo, si el gestor del conector legacy se denomina `channel-123`, asigna el nombre `channel-123` a su nuevo gestor en la sección Webhooks de Microsoft Workflows. Este nuevo gestor sustituye al gestor de conector legacy existente. + +### Crear un webhook de Microsoft Workflows + +#### Requisitos previos +- Para crear un nuevo flujo de trabajo, se requiere una cuenta Microsoft, tanto para la propiedad del flujo de trabajo como para enviar notificaciones a los canales (no es necesario que sean de la misma cuenta Microsoft). +- La cuenta propietaria del flujo de trabajo (configurada en el paso 2 a continuación) es la cuenta que puede editar y renovar el flujo de trabajo. Para facilitar el acceso compartido, utiliza una cuenta de servicio. +- La cuenta que envía notificaciones a los canales (configurada en el paso 8 a continuación) realiza publicaciones como usuario de la cuenta. Esta cuenta debe formar parte del equipo al que quieres enviar notificaciones. Si envías notificaciones a un canal privado, esta cuenta también debe ser añadida al canal. Si quieres darle a esta cuenta un nombre como "Notificaciones Datadog" utiliza una cuenta de servicio. + +#### Instrucciones + +**Nota:** La mayoría de estos pasos están en Microsoft Workflows. Dado que Microsoft realiza cambios en Workflows, es posible que los siguientes pasos no reflejen los cambios más recientes. + +1. En Microsoft Teams, añade la [aplicación Workflows][3] a todos los equipos a los que quieres enviar notificaciones. Si no puedes añadir la aplicación a tu equipo, sigue las instrucciones de la sección "Canales privados". + {{< img src="integrations/microsoft_teams/microsoft_teams_workflows_step_1.png" alt="Instrucciones, paso 1" style="width:90%;" >}} +2. Crea un nuevo flujo de trabajo en Power Automate a partir de la plantilla [Publicar en un canal cuando se reciba una solicitud de webhook][1] de Microsoft. +3. Elige la cuenta Microsoft que quieres utilizar para ser propietario del flujo de trabajo (utiliza una cuenta de servicio para facilitar el acceso compartido) y luego haz clic en **Continue** (Continuar). + {{< img src="integrations/microsoft_teams/microsoft_teams_workflows_step_3.png" alt="Instrucciones, paso 3" style="width:90%;" >}} +4. Haz clic en **Edit in advanced mode** (Editar en modo avanzado). + {{< img src="integrations/microsoft_teams/microsoft_teams_workflows_step_4.png" alt="Instrucciones, paso 4" style="width:90%;" >}} +5. Amplía **Enviar cada tarjeta adaptable** y luego haz clic en **Post card in a chat or channel** (Publicar tarjeta en un chat o canal). + {{< img src="integrations/microsoft_teams/microsoft_teams_workflows_template_dropdown_step_5.png" alt="Instrucciones, paso 5" style="width:90%;" >}} +6. Utiliza el desplegable **Post As** (Publicar como) para definir **Post as** (Publicar como) en **Flow bot** (Bot de flujo). Las notificaciones aparecerán como enviadas por "`` vía Workflows". Para recibir estas notificaciones, la aplicación Workflows debe añadirse al equipo elegido. Si se envían notificaciones a un canal privado, **Post As** (Publicar como) debe definirse en un usuario del canal. Para obtener más información, consulta la sección "Canales privados" a continuación. **Nota:** Al cambiar **Post as** (Publicar como) se restablecerá el campo **Post in** (Publicar en). + {{< img src="integrations/microsoft_teams/microsoft_teams_workflows_step_6.png" alt="Instrucciones, paso 6" style="width:90%;" >}} +7. Para acceder a los desplegables de equipos y canales, elimina los símbolos @ borrándolos o haciendo clic en los iconos **X**. + {{< img src="integrations/microsoft_teams/microsoft_teams_workflows_step_7.png" alt="Instrucciones, paso 7" style="width:90%;" >}} +8. Utiliza los desplegables para seleccionar el equipo y el canal. + {{< img src="integrations/microsoft_teams/microsoft_teams_workflows_step_8.png" alt="Instrucciones, paso 8" style="width:90%;" >}} +9. Asegúrate de que el flujo de trabajo está conectado a la cuenta Microsoft elegida para enviar notificaciones (por ejemplo, una cuenta de servicio denominada "Notificaciones Datadog"). Las notificaciones aparecerán como enviadas por "`` vía Workflows". Esta cuenta debe tener acceso al canal de Microsoft Teams configurado. Para cambiar la cuenta, haz clic en **Change connection** (Cambiar conexión) y sigue las instrucciones para configurar otra cuenta Microsoft. + {{< img src="integrations/microsoft_teams/microsoft_teams_workflows_step_9.png" alt="Instrucciones, paso 9" style="width:90%;" >}} +10. Pulsa el botón **Save** (Guardar). + {{< img src="integrations/microsoft_teams/microsoft_teams_workflows_step_10.png" alt="Instrucciones, paso 10" style="width:90%;" >}} +11. Para encontrar el enlace de tu webhook, haz clic en el primer bloque del flujo de trabajo. + {{< img src="integrations/microsoft_teams/microsoft_teams_workflows_step_11.png" alt="Instrucciones, paso 11" style="width:50%;" >}} +12. Asegúrate de que **cualquiera** pueda activar el flujo y luego copia el enlace. + {{< img src="integrations/microsoft_teams/microsoft_teams_workflows_step_12.png" alt="Instrucciones, paso 12" style="width:90%;" >}} +13. Haz clic en el botón **Back** (Volver) para ir al dashboard del flujo de trabajo. + {{< img src="integrations/microsoft_teams/microsoft_teams_workflows_step_13.png" alt="Instrucciones, paso 13" style="width:90%;" >}} +14. Comprueba que el flujo de trabajo está activado en el dashboard. Si está desactivado, haz clic en el botón "Turn on" (Activar). + {{< img src="integrations/microsoft_teams/microsoft_teams_workflows_step_14.png" alt="Instrucciones, paso 14" style="width:90%;" >}} +15. En Datadog, ve a [**Integrations > Microsoft Teams** (Integraciones > Microsoft Teams)][4]. +16. En la pestaña Configuración, ve a la sección Webhooks de Microsoft Workflows y haz clic en **Add Handle** (Añadir gestor). Colócale un nombre al gestor (si estás migrando desde un gestor de conector legacy, utiliza el mismo nombre del gestor de conector correspondiente) y pega la URL del webhook. +17. Haz clic en **Save** (Guardar). + +### Canales privados +Para enviar notificaciones a canales privados, la cuenta configurada dentro del bloque **Publicar tarjeta en chat o canal** debe tener acceso al canal. Esto permite que el flujo de trabajo envíe notificaciones en nombre de esa cuenta de usuario. +1. Dentro del bloque **Publicar tarjeta en chat o canal**, cambia **Post as** (Publicar como) a **User** (Usuario). + {{< img src="integrations/microsoft_teams/microsoft_teams_workflows_private_channels_step_1.png" alt="Instrucciones para canales privados, paso 1" style="width:30%;" >}} +2. A continuación, para elegir la cuenta, haz clic en **Change connection** (Cambiar conexión) y sigue las instrucciones para cambiar la cuenta. + {{< img src="integrations/microsoft_teams/microsoft_teams_workflows_private_channels_step_2.png" alt="Instrucciones para canales privados, paso 2" style="width:90%;" >}} + +### Limitaciones +- Si eres cliente de Microsoft 365, los flujos de trabajo se desactivarán automáticamente después de 90 días sin activaciones exitosas. Cuando un flujo de trabajo está a punto de caducar, Microsoft envía un correo electrónico a la cuenta a la que pertenece el flujo de trabajo. Este temporizador de 90 días se puede restablecer ejecutando un test dentro de Microsoft Workflows. +- Cuando se utiliza la plantilla, todos los mensajes se adjuntan con una línea de texto que indica quién ha creado el flujo de trabajo junto con un enlace a la plantilla. + {{< img src="integrations/microsoft_teams/microsoft_teams_workflows_used_a_template.png" alt="Usuario utilizado como plantilla" style="width:90%;" >}} + + Para eliminar esto, ve a tu flujo de trabajo y haz clic en **Save As** (Guardar como) para hacer una copia, ve hasta la copia buscándola dentro de **Mis Flujos** y utiliza el nuevo webhook del flujo de trabajo copiado en lugar del flujo de trabajo original. +- Microsoft Workflows no admite funciones interactivas para los mensajes que publica (como silenciar monitores directamente desde Microsoft Teams). +- Microsoft Workflows no admite canales compartidos. + +### Utilización + +Desde un monitor Datadog, envía una notificación a Microsoft Teams utilizando la [función `@-notification` ][1]. Envía la notificación a la dirección `@teams-`, sustituyendo `` por el nombre de tu gestor de Microsoft Teams. + + +[1]: https://make.preview.powerautomate.com/galleries/public/templates/d271a6f01c2545a28348d8f2cddf4c8f/post-to-a-channel-when-a-webhook-request-is-received +[2]: https://devblogs.microsoft.com/microsoft365dev/retirement-of-office-365-connectors-within-microsoft-teams/ +[3]: https://teams.microsoft.com/l/app/c3a1996d-db0f-4857-a6ea-7aabf0266b00?source=app-details-dialog +[4]: https://app.datadoghq.com/integrations/microsoft-teams +{{% /tab %}} + +{{% tab "Conectores (obsoletos)" %}} +### Migrar los conectores de legacy a la integración basada en inquilinos + +Microsoft ha anunciado que los conectores de Office 365 para Microsoft Teams quedan obsoletos. Esto tiene los siguientes efectos: + +* Todos los conectores de Datadog dejarán de funcionar el 31 de enero de 2025. +* Los conectores de webhooks entrantes sin [URL actualizadas][1] dejarán de funcionar el 31 de enero de 2025. +* Todos los conectores dejarán de funcionar el 31 de diciembre de 2025 (previamente era el 1 de octubre de 2024). + +Para obtener más información, consulta la [entrada de blog][2] de Microsoft. + +Para migrar todos los gestores de notificaciones que utilizan actualmente los conectores de Office 365 legacy a la integración de Datadog basada en inquilinos: + +{{< site-region region="us,us3,us5,eu,ap1" >}} +1. Sigue los [pasos de configuración][2] para conectar tu inquilino de Microsoft a Datadog. +2. Añade la aplicación Datadog a todos los equipos en los que tengas configurado un conector legacy de Office 365. +3. Para cada gestor de un conector de notificaciones legacy en el [cuadro de la integración Microsoft Teams][1]: + 1. En el inquilino configurado, haz clic en **Add Handle** (Añadir gestor). + 2. Asigna al nuevo gestor el mismo nombre que el gestor del conector. Por ejemplo, si el gestor del conector legacy se llama `channel-123`, crea un nuevo gestor en la configuración del inquilino con el nombre `channel-123`. + 3. Selecciona el equipo y el canal elegidos en los menús desplegables a los que el gestor del conector legacy enviaba el mensaje y haz clic en **Save** (Guardar). Este nuevo gestor anula el gestor del conector legacy existente. + +[1]: https://app.datadoghq.com/integrations/microsoft-teams +[2]: https://docs.datadoghq.com/es/integrations/microsoft_teams/?tab=datadogapprecommended#setup + +{{< /site-region >}} + +{{< site-region region="gov" >}} +1. Sigue los [pasos de configuración][2] para conectar tu inquilino de Microsoft a Datadog. +2. Añade la aplicación Datadog para el Gobierno a todos los equipos en los que tengas configurado un conector legacy de Office 365. +3. Para cada gestor de un conector de notificaciones legacy en el [cuadro de la integración Microsoft Teams][1]: + 1. En el inquilino configurado, haz clic en **Add Handle** (Añadir gestor). + 2. Asigna al nuevo gestor el mismo nombre que el gestor del conector. Por ejemplo, si el gestor del conector legacy se llama `channel-123`, crea un nuevo gestor en la configuración del inquilino con el nombre `channel-123`. + 3. Selecciona el equipo y el canal elegidos en los menús desplegables a los que el gestor del conector legacy enviaba el mensaje y haz clic en **Save** (Guardar). Este nuevo gestor anula el gestor del conector legacy existente. + +[1]: https://app.datadoghq.com/integrations/microsoft-teams +[2]: https://docs.datadoghq.com/es/integrations/microsoft_teams/?tab=datadogapprecommended#setup +{{< /site-region >}} + +### Migrar conectores legacy a la integración de webhooks de Microsoft Workflows + +Microsoft ha anunciado que los conectores de Office 365 para Microsoft Teams quedan obsoletos. Esto tiene los siguientes efectos: + +* Todos los conectores de Datadog dejarán de funcionar el 31 de enero de 2025. +* Los conectores de webhooks entrantes sin [URL actualizadas][1] dejarán de funcionar el 31 de enero de 2025. +* Todos los conectores dejarán de funcionar el 31 de diciembre de 2025 (previamente era el 1 de octubre de 2024). + +Para obtener más información, consulta la [entrada de blog][2] de Microsoft. + +Para migrar todos los gestores de notificaciones que utilizan actualmente los conectores de Office 365 legacy a la integración de webhooks de Microsoft Workflows de Datadog, consulta [Webhooks de Microsoft Workflows][3]. + +### Configuración del conector (obsoleto) +
+Los gestores de notificaciones legacy no se ven afectados por la nueva configuración, a menos que utilices el mismo @teams-HANDLE_NAME, en cuyo caso la nueva configuración anula la configuración legacy. +
+ +1. Selecciona el botón `...` situado junto al nombre del canal en lista de canales y, a continuación, elige **Connectors** (Conectores). + + {{< img src="integrations/microsoft_teams/microsoft_team_step_1_v2.png" alt="Microsoft Teams, paso 1" >}} + +2. Busca Datadog y haz clic en **Configure** (Configurar). + + {{< img src="integrations/microsoft_teams/microsoft_team_step_2_v2.png" alt="Microsoft Teams, paso 2" >}} + +3. En el modal de configuración del conector, copia la URL del webhook. +4. En Datadog, ve a [**Integrations > Microsoft Teams** (Integraciones > Microsoft Teams)][4]. +5. En la pestaña Configuration (Configuración), haz clic en **Add Handle** (Añadir gestor), dale un nombre y pega la URL del webhook. +6. En el modal de configuración del conector, haz clic en **Save** (Guardar). + + +[1]: https://learn.microsoft.com/en-us/microsoftteams/m365-custom-connectors#update-connectors-url +[2]: https://devblogs.microsoft.com/microsoft365dev/retirement-of-office-365-connectors-within-microsoft-teams/ +[3]: https://docs.datadoghq.com/es/integrations/microsoft_teams/?tab=microsoftworkflowswebhooks#what-are-microsoft-workflows-webhooks +[4]: https://app.datadoghq.com/integrations/microsoft-teams +{{% /tab %}} +{{< /tabs >}} + +{{< site-region region="us,us3,us5,eu,ap1" >}} +## Datadog Incident Management en Microsoft Teams + +### Configuración de la cuenta + +En primer lugar, instala la aplicación Datadog en Microsoft Teams: + +1. Abre Microsoft Teams. +2. En la barra de herramientas vertical, haz clic en **Apps** (Aplicaciones). +3. Busca "Datadog" y haz clic en **Open** (Abrir). +4. En el modal que se abre, selecciona el canal principal del equipo donde debe añadirse la aplicación. Haz clic en **Go** (Listo) para completar la instalación. + {{< img src="integrations/microsoft_teams/microsoft_teams_add_app_to_team.png" alt="Microsoft Teams Añadir aplicación al equipo" >}} + +A continuación, conecta tu inquilino de Microsoft a Datadog: + +1. En Datadog, ve al [cuadro de la integración Microsoft Teams][1]. +2. Haz clic en **Add Tenant** (Agregar inquilino), que te redirigirá a Microsoft. +3. Sigue las instrucciones y haz clic en **OK** (Aceptar). + +Algunas funciones de Datadog Incident Management necesitan permiso para realizar acciones en tu inquilino, por ejemplo, crear un nuevo +equipo para un incidente. Se requiere una persona autorizada para conceder el permiso de administrador de todo el inquilino en nombre de la organización Microsoft, +como por ejemplo un usuario que tenga asignado el rol de *Administrador global*. Consulta la [documentación de Microsoft Entra ID][5] para obtener más +información sobre quién puede conceder el permiso de administrador de todo el inquilino a la aplicación Datadog. + +Para conceder el consentimiento: + +1. Ve al [cuadro de la integración Microsoft Teams][3] en Datadog. +2. Para el inquilino en el que quieres utilizar Incident Management, haz clic en el icono del engranaje situado a la derecha. +3. Haz clic en **Authorize Tenant** (Autorizar inquilino) y se te redirigirá a Microsoft. Este paso debe realizarlo un usuario que pueda conceder el permiso de administrador de todo el inquilino. Este usuario debe tener una cuenta Datadog, pero no es necesario que el correo electrónico utilizado para su cuenta Datadog coincida con el correo electrónico de su cuenta Microsoft. +4. Sigue las instrucciones y haz clic en **OK** (Aceptar). + +### Configuración del usuario + +Para realizar acciones en Datadog desde Microsoft Teams es necesario conectar las cuentas Datadog y Microsoft Team. + +Para conectar tu cuenta desde Microsoft Teams: + +1. Abre Microsoft Teams. +2. Inicia un chat con el bot de Datadog al hacer clic en el botón `...` de la barra de herramientas vertical y seleccionar Datadog. +3. Escribe "cuentas" y pulsa intro. + {{< img src="integrations/microsoft_teams/microsoft_teams_connect_account_from_teams.png" alt="Conectar cuentas desde Microsoft Teams" >}} + +4. El bot de Datadog responderá con instrucciones sobre cómo conectar tus cuentas. Haz clic en **Connect Datadog Account** (Conectar cuenta Datadog). +5. El bot de Datadog te enviará un mensaje con un enlace para conectar tus cuentas. Haz clic en el enlace y sigue las instrucciones. +6. Se te redirigirá de nuevo al [cuadro de la integración Microsoft Teams][3]. +7. Crea una clave de aplicación haciendo clic en **Create** (Crear) en el mensaje del [cuadro de la integración Microsoft Teams][3]. + + +También puedes conectar tus cuentas desde Datadog: + +1. En Datadog, ve al [cuadro de la integración Microsoft Teams][3]. +2. Haz clic en **Connect** (Conectar) en el inquilino que aparece en la lista. +3. Sigue las instrucciones y haz clic en **OK** (Aceptar). +5. En el [cuadro de la integración Microsoft Teams][3], crea una clave de aplicación haciendo clic en **Create** (Crear) en el mensaje anterior. + +{{< img src="integrations/microsoft_teams/microsoft_teams_connect_account_from_datadog_v2.png" alt="Conectar cuentas desde el cuadro de la integración Microsoft Teams" >}} + +### Uso del incidente + +#### Incidencias + +Para declarar una nueva incidencia desde Microsoft Teams: + +1. Inicia una conversación en cualquier equipo. +2. Escribe `@Datadog` o utiliza el botón `...` para abrir el menú **Connect Datadog Account**. (Extensiones de mensajería) y selecciona la aplicación **Datadog**. +3. Selecciona **Create an Incident** (Crear una incidencia). +4. Rellena el formulario con la información pertinente. +5. Haz clic en **Create** (Crear). + +Cualquiera en tu inquilino de Microsoft Teams puede declarar una incidencia, independientemente de si tiene acceso a Datadog. + +Cuando se crea una nueva incidencia, se crea un equipo correspondiente denominado `incident-(unique number ID)`. + +Para actualizar una incidencia, sigue un procedimiento similar al de creación en proceso: + +1. Inicia una conversación en un equipo de incidencias. +2. Escribe `@Datadog` o utiliza el botón `...` para abrir el menú **Connect Datadog Account**. (Extensiones de mensajería) y selecciona la aplicación **Datadog**. +3. Selecciona **Update Incident** (Actualizar incidencia). +4. Rellena el formulario con la información pertinente. +5. Haz clic en **Update** (Actualizar). + +Haz una lista de todas las incidencias abiertas (activas y estables) con: + +``` +@Datadog list incidents +``` + +Utiliza el menú "More actions" (Más acciones) en cualquier mensaje dentro de un equipo de incidencias en el extremo derecho para enviar ese mensaje a la Línea de tiempo de la incidencia. + +#### Canal de actualización de incidencias +El uso de un canal de actualizaciones de incidencias proporciona a las partes interesadas visibilidad en toda la organización del estado de todas las incidencias directamente desde Microsoft Teams. Selecciona en qué equipo y canal de tu cuenta deseas publicar estas actualizaciones y el canal recibirá las siguientes publicaciones: + +- Nuevas incidencias declaradas. +- Cambios de gravedad, transición de estado y encargado de la incidencia. +- Enlaces a la página de información general del incidente en la aplicación. +- Enlace para unirse al equipo especializado en incidencias. + +Una vez instalada la aplicación de Microsoft Teams, puedes ir a la página **Incident Settings** (Configuración de incidencias). Desde aquí, puedes desplazarte hasta la sección **Incident Updates** (Actualizaciones de incidencias) y comenzar el flujo de configuración. + +#### Cómo crear un canal de incidencias: + +1. Ve a [Configuración de incidentes][4]. +2. En la sección Microsoft Teams, selecciona tu inquilino de Microsoft Teams conectado. +3. Activa **Automatically create a Microsoft Teams channel for every incident** (Crear automáticamente un canal de Microsoft Teams para cada incidencia). +4. Selecciona el equipo en el que deseas crear automáticamente nuevos canales. +5. Guarda la configuración. + +{{< img src="integrations/microsoft_teams/ms_teams_incident_updates_v2.png" alt="Configuración del canal de actualización de incidentes de Microsoft Teams." >}} + +[1]: https://docs.datadoghq.com/es/monitors/notifications/#notification +[2]: https://docs.datadoghq.com/es/help/ +[3]: https://app.datadoghq.com/integrations/microsoft-teams +[4]: https://app.datadoghq.com/incidents/settings#Integrations +[5]: https://learn.microsoft.com/en-us/azure/active-directory/manage-apps/grant-admin-consent?pivots=ms-graph#prerequisites +[6]: https://learn.microsoft.com/en-us/graph/permissions-reference +[7]: https://docs.datadoghq.com/es/dashboards/scheduled_reports/ +[8]: https://learn.microsoft.com/en-us/microsoftteams/app-permissions#what-can-apps-do-in-teams +[9]: https://learn.microsoft.com/en-us/microsoftteams/private-channels#private-channel-limitations +[10]: https://devblogs.microsoft.com/microsoft365dev/retirement-of-office-365-connectors-within-microsoft-teams/ +{{< /site-region >}} + +## Datos recopilados + +### Métricas + +La integración Microsoft Teams no proporciona métricas. + +### Eventos + +La integración Microsoft Teams no incluye eventos. + +### Checks de servicio + +La integración Microsoft Teams no incluye checks de servicios. + +## Permisos + +La integración Microsoft Teams recibe los siguientes permisos para los equipos a los que se ha añadido. Para obtener más información, consulta la [referencia de los permisos de Microsoft App][1]. + +| Descripción del permiso | Motivo de la solicitud | +|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|------------------------------------------------------------------------------------------| +| Recibir mensajes y datos que yo le facilite. | Los usuarios pueden interactuar con la aplicación Datadog en un chat personal. | +| Enviarme mensajes y notificaciones. | Los usuarios pueden interactuar con la aplicación Datadog en un chat personal. | +| Acceder a la información de mi perfil, como mi nombre, dirección de correo electrónico, nombre de la empresa e idioma preferido. | Permitir a los usuarios configurar notificaciones de Microsoft Teams y flujos de trabajo dentro de la interfaz de usuario de Datadog. | +| Recibir mensajes y datos que los miembros de un equipo o chat le proporcionan en un canal o chat. | Los usuarios pueden interactuar con Datadog a través de los comandos @Datadog. | +| Enviar mensajes y notificaciones en un canal o chat. | Enviar notificaciones de Datadog a los objetivos configurados. | +| Acceder a la información de este equipo o chat, como el nombre del equipo o chat, la lista de canales, y la nómina (incluidos los nombres y direcciones de correo electrónico de los miembros del equipo o chat), y utilizarlos para ponerte en contacto con ellos. | Permitir a los usuarios configurar las notificaciones de Microsoft Teams y flujos de trabajo dentro de Datadog. | + +{{< site-region region="us,us3,us5,eu,ap1" >}} + +Se necesitan permisos adicionales para utilizar las funciones de Incident Management en la integración Microsoft Teams. Esto debe ser autorizado por un usuario con permisos para todo el inquilino (consulta [Datadog Incident Management in Microsoft Teams:: configuración de la cuenta](#account-setup) para obtener instrucciones detalladas). +Para obtener más información sobre estos permisos, consulta la [referencia de los permisos de Microsoft Graph][6]. + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
API / Nombre de los permisosTipoMotivo de la solicitud
Channel.CreateAplicaciónCrear canales para gestionar y corregir incidentes utilizando Datadog Incident Management.
Channel.DeleteAplicaciónArchivar automáticamente canales de incidentes luego de un periodo especificado.
ChannelMessage.Read.AllAplicaciónSincronizar automáticamente mensajes de líneas de tiempo con la línea de tiempo del incidente desde un canal de incidentes.
ChannelSettings.ReadWrite.AllAplicaciónCrear y modificar canales para corregir incidentes utilizando Datadog Incident Management.
GroupMember.Read.AllAplicaciónSugiere opciones de rellenado automático de nombres de equipos y canales para la configuración de Datadog Incident Management.
Team.Create*AplicaciónCrear equipos para gestionar y corregir incidentes utilizando Datadog Incident Management.
TeamMember.ReadWrite.All*AplicaciónAñadir usuarios a equipos para gestionar incidentes utilizando Datadog Incident Management.
TeamsAppInstallation.ReadWrite.All*AplicaciónAñade la aplicación Datadog a los equipos creados por Datadog Incident Management.
TeamSettings.ReadWrite.All*AplicaciónMantiene Datadog Incident Management actualizado con el estado de los equipos de incidentes.
+* Estos permisos son para funciones obsoletas que ya no utiliza la aplicación Datadog Incident Management +y pronto se eliminarán. Pueden revocarse en el portal de Microsoft Azure sin que ello afecte a la funcionalidad. + +[1]: https://docs.datadoghq.com/es/monitors/notifications/#notification +[2]: https://docs.datadoghq.com/es/help/ +[3]: https://app.datadoghq.com/integrations/microsoft-teams +[4]: https://app.datadoghq.com/incidents/settings#Integrations +[5]: https://learn.microsoft.com/en-us/azure/active-directory/manage-apps/grant-admin-consent?pivots=ms-graph#prerequisites +[6]: https://learn.microsoft.com/en-us/graph/permissions-reference +[7]: https://docs.datadoghq.com/es/dashboards/scheduled_reports/ +[8]: https://learn.microsoft.com/en-us/microsoftteams/app-permissions#what-can-apps-do-in-teams +[9]: https://learn.microsoft.com/en-us/microsoftteams/private-channels#private-channel-limitations +[10]: https://devblogs.microsoft.com/microsoft365dev/retirement-of-office-365-connectors-within-microsoft-teams/ + +{{< /site-region >}} + +## Resolución de problemas + +### Uso de SSO + +Sigue los siguientes pasos para configurar nuevos conectores de canal: + +1. Inicia sesión en Datadog y completa los pasos 1 y 2. + +2. Después de que el paso de configuración 3 te redirija a Datadog desde la página de MS Teams, abre una nueva pestaña e inicia sesión en Datadog con tu SSO. A continuación, realiza el paso de configuración 4 por separado. + +### ¿Por qué no aparece mi equipo en el cuadro de la integración? +{{< site-region region="us,us3,us5,eu,ap1" >}} +Si añadieras el bot al equipo antes de añadir el inquilino a Datadog, entonces a Datadog se le pasaría el evento de unirse al equipo al no saber que el equipo existe. +Puedes tratar de: +- Sincroniza los canales estándar de tu equipo con Datadog publicando `@Datadog sync` en cualquier canal estándar de ese equipo: +1. Ve a un canal estándar del equipo que quieres sincronizar. +2. Inicia una publicación en el canal. +3. Publica `@Datadog sync` en el canal y espera un mensaje de confirmación en el subproceso que indique el éxito de la operación. +- Elimina la aplicación Datadog del equipo y luego vuelve a añadirla. **Nota**: Esto elimina los conectores configurados para ese equipo. Realiza esta acción sólo cuando tengas todo listo para migrar todos los conectores de ese equipo a una integración Datadog basada en inquilinos: +1. Haz clic en los tres puntos situados junto al nombre del equipo en la barra lateral izquierda. +2. Haz clic en **Manage Team** (Gestionar equipo). +3. Ve a pestaña con la etiqueta **Apps** (Aplicaciones). +4. Haz clic en los tres puntos situados junto a la aplicación Datadog. +5. Haz clic en **Remove** (Eliminar). +6. Vuelve a añadir la aplicación Datadog siguiendo los [pasos de configuración][1]. + +[1]: https://docs.datadoghq.com/es/integrations/microsoft_teams/?tab=datadogapprecommended#setup +{{< /site-region >}} + +{{< site-region region="gov" >}} +Si añadieras el bot al equipo antes de añadir el inquilino a Datadog, entonces a Datadog se le pasaría el evento de unirse al equipo al no saber que el equipo existe. +Puedes tratar de: +- Sincroniza los canales estándar de tu equipo con Datadog publicando `@Datadog for Government sync` en cualquier canal estándar de ese equipo: +1. Ve a un canal estándar del equipo que quieres sincronizar. +2. Inicia una publicación en el canal. +3. Publica `@Datadog for Government sync` en el canal y espera un mensaje de confirmación en el hilo indicando el éxito de la operación. +- Elimina la aplicación Datadog para el Gobierno del equipo y luego vuelve a añadirla. **Nota**: Esto elimina los conectores configurados para ese equipo. Realiza esta acción sólo cuando tengas todo listo para migrar todos los conectores de ese equipo a una integración Datadog basada en inquilinos. +1. Haz clic en los tres puntos situados junto al nombre del equipo en la barra lateral izquierda. +2. Haz clic en **Manage Team** (Gestionar equipo). +3. Ve a pestaña con la etiqueta **Apps** (Aplicaciones). +4. Haz clic en los tres puntos situados junto a la aplicación Datadog para el Gobierno. +5. Haz clic en **Remove** (Eliminar). +6. Vuelve a añadir la aplicación Datadog para el Gobierno siguiendo los [pasos de configuración][1]. + +[1]: https://docs.datadoghq.com/es/integrations/microsoft_teams/?tab=datadogapprecommended#setup&site=gov +{{< /site-region >}} + +### ¿El bot admite canales privados? +Debido a las limitaciones de los canales privados en [Microsoft Teams][2], los canales privados no son compatibles con el bot. Si quieres enviar notificaciones a canales privados, consulta [Webhooks de Microsoft Workflows][3]. + +{{< site-region region="gov" >}} +### ¿Es compatible la aplicación Datadog para el Gobierno con GCC o GCC High? +Actualmente, la aplicación Datadog para el Gobierno solo es compatible con los clientes de Datadog US1-FED que intentan conectarse a su inquilino `commercial` de Microsoft Teams. Los inquilinos GCC y GCC High no son compatibles con la aplicación. +{{< /site-region >}} + +¿Necesitas ayuda? Ponte en contacto con el [soporte de Datadog][4]. + +[1]: https://learn.microsoft.com/en-us/microsoftteams/app-permissions#what-can-apps-do-in-teams +[2]: https://learn.microsoft.com/en-us/microsoftteams/private-channels#private-channel-limitations +[3]: https://docs.datadoghq.com/es/integrations/microsoft_teams/?tab=microsoftworkflowswebhooks#what-are-microsoft-workflows-webhooks +[4]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/logs/guide/delete_logs_with_sensitive_data.md b/content/es/logs/guide/delete_logs_with_sensitive_data.md new file mode 100644 index 0000000000000..8a3dbc378edc9 --- /dev/null +++ b/content/es/logs/guide/delete_logs_with_sensitive_data.md @@ -0,0 +1,77 @@ +--- +disable_toc: false +further_reading: +- link: logs/guide/control-sensitive-logs-data/ + tag: Documentación + text: Control de datos confidenciales de logs +- link: /sensitive_data_scanner/ + tag: Documentación + text: Sensitive Data Scanner +title: Borrar logs con datos confidenciales +--- + +## Información general + +Es importante eliminar logs con datos confidenciales para garantizar la seguridad de tus datos. En esta guía se proporciona información sobre cómo: + +- Check si los logs con datos confidenciales deben eliminarse por encontrarse dentro del periodo de retención. +- Hacer que logs con datos confidenciales no se puedan consultar. +- Editar datos confidenciales con Sensitive Data Scanner. +- Solicitar la eliminación de logs a soporte técnico de Datadog. + +## Check tu periodo de retención de logs + +Datadog elimina automáticamente los logs que superen el periodo de retención más prolongado de tu organización. + +Para check o cambiar el periodo de retención de logs: + +1. Ve a la página [Índices de logs][1]. +1. Consulta el periodo de retención de logs para cada índice en la columna **Retención**. +1. Si deseas que los logs expiren más rápido, haz clic en el ícono **Editar** situado a la derecha del índice. +1. Actualiza el menú desplegable **Configurar retención de índices** a un nuevo periodo de retención. + +## Hacer que los logs con datos confidenciales no se puedan consultar + +Si Logs contiene datos confidenciales dentro del periodo de conservación de loguear, puede hacer que no se puedan consultar en Datadog's loguear Explorer, dashboards, y Live Tail hasta que caduquen. Logs que no se puedan consultar no están disponibles para su consulta o visualización. Siga estas [instrucciones][2] para desactivar la consulta de Logs con datos confidenciales en Datadog. + +## Borrar un índice completo + +Para borrar un índice completo: + +1. Ve a la página [Índices de logs][1]. +1. Haz clic en el ícono **Borrar** situado a la derecha del índice que deseas eliminar. +1. Haz clic en **Confirmar** para eliminar el índice. + +**Nota**: El índice se muestra como pendiente de borrado hasta que los logs expiren, tras lo cual el índice se borra por completo y se elimina de la interfaz de usuario. + +## Editar datos confidenciales con Sensitive Data Scanner + +Utiliza [Sensitive Data Scanner][5] para limitar el riesgo de almacenar datos confidenciales en Datadog. Sensitive Data Scanner es un servicio de concordancia de patrones basado en el flujo (stream) utilizado para identificar, etiquetar y, opcionalmente, editar o convertir los datos confidenciales en hash. Los equipos de seguridad y cumplimiento pueden implementar Sensitive Data Scanner para evitar fugas de datos confidenciales y limitar los riesgos de incumplimiento. + +## Enviar una solicitud de eliminación a logs + +
+Sólo un administrador de Datadog puede solicitar la eliminación de logs. Si no eres administrador, asegúrate de incluir a un administrador en la solicitud de manera que pueda confirmar la solicitud de eliminación. +
+ +Si las opciones para cambiar el periodo de retención, hacer que los logs no se puedan consultar y editar los datos confidenciales mediante Sensitive Data Scanner no son suficientes para garantizar la seguridad de tus datos, envía una solicitud a [soporte técnico de Datadog][3] para que se eliminen los logs indexados con datos confidenciales. Tu solicitud debe incluir la siguiente información: + +1. Confirmación de que los logs con datos confidenciales ya no se envían a Datadog. +1. Si se trata de una solicitud de eliminación selectiva por intervalo de tiempo o de una solicitud de [eliminación de un índice completo](#delete-an-entire-index). +1. El nombre exacto de la organización y el [sitio][4] (por ejemplo, US1) al que se enviaron los datos confidenciales. +1. Si se trata de una solicitud de eliminación selectiva por intervalo de tiempo, el intervalo de tiempo exacto, en formato Epoch o UTC, de los logs que contenían datos confidenciales. +1. El nombre de los índices donde están los datos confidenciales. +1. Confirmación de que comprendes el siguiente requisito: +
+ Datadog deletes logs by time buckets, not by query scope or precise time frame. Therefore, Datadog might have to delete a larger amount of data than your exposed logs. For example. if you need to delete all error logs from service:x that came in between 10:00 a.m. to 12:00 p.m. from index:main, Datadog might have to delete all logs in that index from 1:00 a.m. to 5:00 p.m. Datadog support will work with you to ensure that only the necessary data is deleted. +
+ +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/logs/pipelines/indexes +[2]: /es/logs/guide/control-sensitive-logs-data/#make-sensitive-logs-un-queryable-in-datadog-until-they-age-out +[3]: /es/help/ +[4]: /es/getting_started/site/ +[5]: https://www.datadoghq.com/product/sensitive-data-scanner/ \ No newline at end of file diff --git a/content/es/network_monitoring/devices/guide/device_profiles.md b/content/es/network_monitoring/devices/guide/device_profiles.md new file mode 100644 index 0000000000000..1f63f5818b894 --- /dev/null +++ b/content/es/network_monitoring/devices/guide/device_profiles.md @@ -0,0 +1,144 @@ +--- +further_reading: +- link: /network_monitoring/devices/guide/build-ndm-profile/ + tag: Documentación + text: Crear un perfil NDM (Avanzado) +- link: /network_monitoring/devices/profiles + tag: Documentación + text: Más información sobre los perfiles NDM +is_beta: true +title: Empezando con perfiles de dispositivos +--- + +{{< site-region region="gov" >}} +
La experiencia de incorporación de dispositivos no es compatible con este sitio.
+{{< /site-region >}} + +{{< callout url="https://www.datadoghq.com/product-preview/easily-onboard-and-start-monitoring-network-devices-to-datadog/" >}} +La incorporación de dispositivos está en Vista previa. Utiliza este formulario para solicitar acceso +{{< /callout >}} + +## Información general + +Los perfiles de los dispositivos definen qué métricas recopilar y cómo transformarlas en métricas de Datadog. Se espera que cada [perfil][2] monitorice una clase de dispositivos similares del mismo proveedor. + +La experiencia de incorporación de dispositivos ofrece una experiencia guiada basada en GUI para: +- Crear y gestionar sin problemas perfiles de dispositivos +- Especificar etiquetas (tags) y métricas que se recopilarán de tus dispositivos de red +- Verificar los dispositivos coincidentes con cada perfil + +Para obtener más información sobre los detalles avanzados del perfil, consulta la página [Referencia de formatos de perfiles][3]. + +## Requisitos previos + +La versión mínima requerida del Agent es `7.50` o posterior. + +## Incorporación de perfiles de dispositivos + +### Página de inicio del perfil + +La página de [inicio del perfil][4] es donde puedes ver un snapshot de los perfiles de dispositivos que creaste utilizando la [Experiencia de incorporación de dispositivos](#profile-details). + +{{< img src="/network_device_monitoring/profile_onboarding/profile_home_page_2.png" alt="Página de inicio del perfil del dispositivo de red" style="width:100%;">}} + +### Detalles del perfil + +1. Crea tu propio perfil NDM yendo a [infraestructura > Dispositivos de red > Configuración][1]. +2. Haz clic en SNMP Profiles > **Create New Profile** (Perfiles SNMP > Crear nuevo perfil). + {{< img src="/network_device_monitoring/profile_onboarding/create_profile_2.png" alt="Página de creación del perfil del dispositivo de red" style="width:100%;">}} +3. Proporciona a tu perfil de dispositivo un nombre, información sobre el proveedor (opcional) y una descripción (opcional). +4. Selecciona el `SysObjectID`. Esto es lo que se utiliza para emparejar los dispositivos de red con los perfiles de dispositivo que definen lo que se recopila y monitoriza de cada dispositivo. + {{< img src="/network_device_monitoring/profile_onboarding/Sys_object_ID_Field.png" alt="Página de creación del perfil del dispositivo de red que muestra el desplegable ID del objeto del sistema" style="width:100%;">}} + +### Etiquetas globales + +Añade etiquetas globales para opciones más avanzadas y granulares, lo que te permite asignar un peso a una métrica específica. + +{{< img src="/network_device_monitoring/profile_onboarding/Add_global_tags.png" alt="Página de creación del perfil del dispositivo de red que muestra el desplegable Añadir etiquetas globales" style="width:100%;">}} + +#### Opciones avanzadas + +| Modificación | Descripción | +| ------------- | ------------- | +| Sin modificación | El valor devuelto por el dispositivo se utilizará directamente como valor de etiqueta. | +| Formato | Puede ser [mac_address][5] o [ip_address][6]. | +| Valor de extracción | Expresión regular utilizada para [extraer][7] el valor de la etiqueta del valor SNMP proporcionado por el dispositivo. | +| Asignación | Esto se describe [aquí][8]. | + + +### Métricas escalares + +Consulta [Opciones avanzadas para métricas](#metrics-advanced-options). + +### Métricas tabulares + +Consulta [Opciones avanzadas para métricas](#metrics-advanced-options). + +### Añadir etiquetas tabulares + +Añadir etiquetas a métricas tabulares es similar a añadir etiquetas globales, con dos opciones adicionales: + +1. Selecciona si el valor de etiqueta tiene su origen en un valor `OID` o en un segmento del índice de la tabla. Si se elige `Index` como origen, debe especificarse una posición de índice, que luego se convierte en la etiqueta. + +
+ Example of using an Index position
+ + Consider a table at `OID 1.2.3.1.1` with two indices. Each row in this table includes a two-number index. Suppose column 3 of a row has `OID 1.2.3.1.1.3.55.12` - here, `1.2.3.1.1` represents the table, `.3` is the column number within the table, and `.55.12` is the index of this specific row (all other columns for this row will also end with `.55.12`). If you establish a tag with the Source set to `Index` and `Index Position` set to 1, the tag's value for metrics from this table row will be `55`; if you set the index position to 2, it will be 12. If you use an index less than 1 or more than the number of indices in the table, the tag will not be populated. + + See [Using an Index][9] for more information. + +
+ +2. Utiliza la transformación de índices cuando necesites etiquetar un valor de métrica de la tabla con un valor de una tabla _diferente_ que emplee un subconjunto de índices de esta tabla. Esto **no** es un escenario típico. Se configura añadiendo uno o varios segmentos de transformación, cada uno con un número inicial y final. Estos números se indexan en el índice de la tabla original para crear un nuevo valor de índice para la nueva tabla. + +
+ Example of using Index Transformation
+ + Consider the `CPI-UNITY-MIB` module. It has a `table`, `cpiPduTable`, with details about a specific PDU, and another table, `cpiPduBranchTable`, with information about specific PDU branches. The index of the main table is the PDU's MAC address, such as `6.0.36.155.53.3.246`. The branch table's index is a `branch ID` followed by the `PDU MAC`, therefore a branch table row index might be `1.6.0.36.155.53.3.246`. + If you want to report the current on a PDU branch, you could add `cpiPduBranchCurrent` (`OID 1.3.6.1.4.1.30932.1.10.1.3.110.1.3`, from the branch table) as a tabular metric. To tag this metric with the PDU name, add `cpiPduName` as a tag (`OID 1.3.6.1.4.1.30932.1.10.1.2.10.1.3`, from the main table), then add an index transform with `start:1` and `end:7`. This means the branch current metric from the branch table indexed with `1.6.0.36.155.53.3.246` would be tagged using the name from the main table indexed with `6.0.36.155.53.3.246`. + + For more information see [Using a column from a different table with different indexes][10]. + +
+ + +### Opciones avanzadas para métricas + +Las opciones avanzadas para métricas escalares y tabulares son las mismas: + +[Tipo de métrica][11] +: Uno de `gauge`, `rate`, `monotonic_count` o `monotonic_count_and_rate`. + +[Factor escalar][12] +: Antes de ser transmitido a Datadog, el valor extraído se multiplica por este factor. + +[Valor de extracción][7] +: Igual a las [opciones avanzadas](#advanced-options) para etiquetas globales. + +### Aplicar un perfil a los dispositivos creados + +1. Después de guardar un perfil, vuelve a la [página de inicio del perfil][4] y selecciona la opción **Descargar todos los perfiles**. Esto te permitirá descargar el paquete `.zip` que contiene los archivos `yaml` para los perfiles que creaste. +2. Coloca los archivos `yaml` en el [directorio de perfiles][13] en cada uno de los Agents correspondientes instalados. +3. Reinicia el Datadog Agent. +4. Para asegurarte de que los perfiles que creaste son correctos, confirma que NDM está recibiendo métricas de los dispositivos emparejados según lo esperado. + + +{{< img src="/network_device_monitoring/profile_onboarding/download_all_profiles_2.png" alt="Página del perfil del dispositivo de red que muestra la opción Descargar todos los perfiles" style="width:100%;">}} + +## Leer más + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/devices +[2]: /es/network_monitoring/devices/profiles/ +[3]: https://datadoghq.dev/integrations-core/tutorials/snmp/profile-format/ +[4]: https://app.datadoghq.com/devices/profiles +[5]: https://datadoghq.dev/integrations-core/tutorials/snmp/profile-format/#format-mac_address +[6]: https://datadoghq.dev/integrations-core/tutorials/snmp/profile-format/#format-ip_address +[7]: https://datadoghq.dev/integrations-core/tutorials/snmp/profile-format/#extract_value +[8]: https://datadoghq.dev/integrations-core/tutorials/snmp/profile-format/#mapping-index-to-tag-string-value +[9]: https://datadoghq.dev/integrations-core/tutorials/snmp/profile-format/#using-an-index +[10]: https://datadoghq.dev/integrations-core/tutorials/snmp/profile-format/#using-a-column-from-a-different-table-with-different-indexes +[11]: https://datadoghq.dev/integrations-core/tutorials/snmp/profile-format/#forced-metric-types +[12]: https://datadoghq.dev/integrations-core/tutorials/snmp/profile-format/#scale_factor +[13]: https://github.com/DataDog/integrations-core/tree/master/snmp/datadog_checks/snmp/data/profiles \ No newline at end of file diff --git a/content/es/opentelemetry/agent/migration.md b/content/es/opentelemetry/agent/migration.md new file mode 100644 index 0000000000000..1eb5bf16dece8 --- /dev/null +++ b/content/es/opentelemetry/agent/migration.md @@ -0,0 +1,402 @@ +--- +further_reading: +- link: /opentelemetry/agent/agent_with_custom_components + tag: Documentation + text: Uso de componentes personalizados de OpenTelemetry con Datadog Agent +- link: /opentelemetry/agent/install_agent_with_collector + tag: Documentation + text: Instala el Datadog Agent con el recopilador integrado de OpenTelemetry +private: true +title: Migración a Datadog Agent con el recopilador integrado de OpenTelemetry +--- + +{{< callout url="https://www.datadoghq.com/private-beta/agent-with-embedded-opentelemetry-collector/" btn_hidden="false" header="Join the Preview!">}} + El Datadog Agent con el recopilador integrado de OpenTelemetry está en vista previa. Para solicitar acceso, completa este formulario. +{{< /callout >}} + +Si ya utilizas un recopilador independiente de OpenTelemetry (OTel) para tus aplicaciones instrumentadas por OTel, puedes migrar al Datadog Agent con el recopilador integrado de OpenTelemetry. El recopilador integrado de OTel te permite aprovechar las capacidades mejoradas de Datadog, incluidas configuraciones optimizadas, integraciones sin fisuras y funciones adicionales adaptadas al ecosistema de Datadog. + +Para migrar al Datadog Agent con el recopilador integrado de OpenTelemetry, debes instalar el Datadog Agent y configurar tus aplicaciones para informar de los datos de telemetría. + +
Esta guía aborda la migración del recopilador de OpenTelemetry desplegado como un Agent. El patrón de despliegue de la puerta de enlace no es compatible.
+ +## Requisitos previos + +Antes de iniciar el proceso de migración, asegúrate de que tienes: + +- Una cuenta válida en Datadog +- Una aplicación instrumentada con OpenTelemetry lista para enviar datos telemétricos +- Acceso a tus configuraciones actuales del recopilador de OpenTelemetry +- Acceso administrativo a tu clúster de Kubernetes (se requiere Kubernetes v1.29+) +- Helm v3+ + +## Revisar la configuración existente + +Antes de empezar, revisa tu configuración para ver si tu configuración existente es compatible por defecto: + +1. Examina tu archivo de configuración existente del recopilador de OpenTelemetry (`otel-config.yaml`). +1. Compáralo con la [lista de componentes][1] incluido por defecto en el Datadog Agent. +1. Si tu configuración utiliza componentes no incluidos por defecto en el Agent, sigue las instrucciones de [Uso de componentes personalizados de OpenTelemetry con el Datadog Agent][4]. + +### Ejemplo de configuración + +Aquí tienes dos archivos de ejemplo de configuración del recopilador: + +{{< tabs >}} +{{% tab "Componentes personalizados del recopilador " %}} + +Este ejemplo utiliza un componente `metricstransform` personalizado: + +{{< code-block lang="yaml" filename="collector-config.yaml" disable_copy="true" collapsible="true" >}} +receivers: + otlp: + protocols: + grpc: + endpoint: 0.0.0.0:4317 + http: + endpoint: 0.0.0.0:4318 +exporters: + datadog: + api: + key: ${env:DD_API_KEY} +processors: + infraattributes: + cardinality: 2 + batch: + timeout: 10s + metricstransform: + transforms: + - include: system.cpu.usage + action: insert + new_name: host.cpu.utilization +connectors: + datadog/connector: + traces: + compute_top_level_by_span_kind: true + peer_tags_aggregation: true + compute_stats_by_span_kind: true +service: + pipelines: + traces: + receivers: [otlp] + processors: [infraattributes, batch] + exporters: [datadog/connector, datadog] + metrics: + receivers: [otlp, datadog/connector] + processors: [metricstransform, infraattributes, batch] + exporters: [datadog] + logs: + receivers: [otlp] + processors: [infraattributes, batch] + exporters: [datadog] +{{< /code-block >}} + +En este caso, es necesario seguir las instrucciones de [Uso de componentes personalizados de OpenTelemetry con Datadog Agent][4]. + +[4]: /es/opentelemetry/agent/agent_with_custom_components +{{% /tab %}} + +{{% tab "Componentes predeterminados del Agent" %}} + +Este ejemplo sólo utiliza componentes incluidos por defecto en el Datadog Agent: + +{{< code-block lang="yaml" filename="collector-config.yaml" disable_copy="true" collapsible="true" >}} +receivers: + otlp: + protocols: + grpc: + endpoint: 0.0.0.0:4317 + http: + endpoint: 0.0.0.0:4318 +exporters: + datadog: + api: + key: ${env:DD_API_KEY} +processors: + infraattributes: + cardinality: 2 + batch: + timeout: 10s +connectors: + datadog/connector: + traces: + compute_top_level_by_span_kind: true + peer_tags_aggregation: true + compute_stats_by_span_kind: true +service: + pipelines: + traces: + receivers: [otlp] + processors: [infraattributes, batch] + exporters: [datadog/connector, datadog] + metrics: + receivers: [otlp, datadog/connector] + processors: [infraattributes, batch] + exporters: [datadog] + logs: + receivers: [otlp] + processors: [infraattributes, batch] + exporters: [datadog] +{{< /code-block >}} + +En este caso, puedes proceder a la instalación del Agent con el recopilador integrado de OpenTelemetry. + +{{% /tab %}} +{{< /tabs >}} + +## Instalar el Agent con el recopilador de OpenTelemetry + +Sigue estos pasos para instalar el Agent con el recopilador integrado de OpenTelemetry. + +### Añadir el repositorio de Datadog Helm + +Para añadir el repositorio de Datadog a tus repositorios de Helm: + +```shell +helm repo add datadog https://helm.datadoghq.com +helm repo update +``` + +### Configurar la API de Datadog y las claves de aplicación + +1. Obtén la [API][8] de Datadog y las [claves de aplicación][9]. +1. Almacena las claves como un secreto en Kubernetes: + ```shell + kubectl create secret generic datadog-secret \ + --from-literal api-key= \ + --from-literal app-key= + ``` + Sustituye `` y `` por tus claves de aplicación y la API de Datadog reales. + +### Configurar el Datadog Agent + +Utiliza un archivo YAML para especificar los parámetros del Helm chart para la [tabla del Datadog Agent][4]. + +1. Crea un archivo `datadog-values.yaml` vacío: + ```shell + touch datadog-values.yaml + ``` +
Los parámetros no especificados utilizan los valores por defecto del values.yaml.
+1. Configura la API de Datadog y los secretos de las claves de aplicación: + {{< code-block lang="yaml" filename="datadog-values.yaml" collapsible="true" >}} +datadog: + site: datadoghq.com + apiKeyExistingSecret: datadog-secret + appKeyExistingSecret: datadog-secret + logLevel: info + {{< /code-block >}} + Establezca `datadog.site` como su [ sitioDatadog ][10]. De lo contrario, por defecto es `datadoghq.com`, el sitio US1. +
El valor del parámetro loguear level Datadog.logLevel debe estar en minúsculas. Los niveles válidos de loguear son: rastreardebug, info, warn, error, critical, off.
+1. Cambie la imagen Datadog Agent etiquetar para utilizar compilaciones con OpenTelemetry integrado Collector: + {{< code-block lang="yaml" filename="datadog-values.yaml" collapsible="true" >}} +agents: + image: + repository: gcr.io/datadoghq/agent + etiquetar: 7.62.2-ot-beta-jmx + doNotCheckTag: true +... + {{< /code-block >}} +
Esta guía utiliza un ejemplo de aplicación Java. El sufijo -jmx en la etiqueta image habilita las utilidades JMX. Para aplicaciones que no sean Java, utiliza nightly-ot-beta-main en su lugar.
Para más detalles, consulta la guía de Autodiscovery e integración de JMX.
+1. Habilita el recopilador de OpenTelemetry y configura los puertos esenciales: + {{< code-block lang="yaml" filename="datadog-values.yaml" collapsible="true" >}} +datadog: + ... + otelCollector: + enabled: true + ports: + - containerPort: "4317" # default port for OpenTelemetry gRPC receiver. + hostPort: "4317" + name: otel-grpc + - containerPort: "4318" # default port for OpenTelemetry HTTP receiver + hostPort: "4318" + name: otel-http + {{< /code-block >}} + Debes configurar el `hostPort` para que el puerto del contenedor sea expuesto a la red externa. Esto permite configurar el exportador OTLP para que apunte a la dirección IP del nodo al que está asignado el Datadog Agent. + + Si no deseas exponer el puerto, puedes utilizar en su lugar el servicio del Agent: + 1. Elimina las entradas hostPort de tu archivo datadog-values.yaml. + 1. En el archivo de despliegue de tu aplicación (`deployment.yaml`), configura el exportador OTLP para utilizar el servicio del Agent: + ```sh + env: + - name: OTEL_EXPORTER_OTLP_ENDPOINT + value: 'http://..svc.cluster.local' + - name: OTEL_EXPORTER_OTLP_PROTOCOL + value: 'grpc' + ``` + +1. (Opcional) Habilita las funciones adicionales de Datadog: +
La activación de estas funciones puede conllevar gastos adicionales. Consulta la página de precios y habla con tu CSM antes de continuar.
+ {{< code-block lang="yaml" filename="datadog-values.yaml" collapsible="true" >}} +datadog: + ... + apm: + portEnabled: true + peer_tags_aggregation: true + compute_stats_by_span_kind: true + peer_service_aggregation: true + orchestratorExplorer: + enabled: true + processAgent: + enabled: true + processCollection: true + {{< /code-block >}} +1. (Opcional) Reúne las etiquetas (labels) de los pods y utilízalas como etiquetas (tags) para fijarlas a métricas, trazas (traces) y logs: +
Las métricas personalizadas pueden afectar a la facturación. Consulta la página de facturación de métricas personalizadas para obtener más información.
+ {{< code-block lang="yaml" filename="datadog-values.yaml" collapsible="true" >}} +datadog: + ... + podLabelsAsTags: + app: kube_app + release: helm_release +{{< /code-block >}} + +{{% collapse-content title="Completado Datadog-values.yaml file" level="p" %}} +Su `datadog-values.yaml` archivo debe ser algo como esto: +{{< code-block lang="yaml" filename="Datadog-values.yaml" collapsible="false" >}} +agentes: + image: + repository: gcr.io/datadoghq/Agent + etiquetar: 7.62.2-ot-beta-jmx + doNotCheckTag: true + +Datadog: + sitio: datadoghq.com + apiKeyExistingSecret: Datadog-secret + appKeyExistingSecret: Datadog-secret + logLevel: info + + otelCollector: + enabled: true + ports: + - containerPort: "4317" + hostPort: "4317" + name: otel-grpc + - containerPort: "4318" + hostPort: "4318" + name: otel-http + apm: + portEnabled: true + peer_tags_aggregation: true + compute_stats_by_span_kind: true + peer_service_aggregation: true + orchestratorExplorer: + enabled: true + processAgent: + enabled: true + processCollection: true + + podLabelsAsTags: + app: kube_app + release: helm_release + {{< /code-block >}} + +{{% /collapse-content %}} + +## Despliegue del Agent con el recopilador de OpenTelemetry + +1. Instala o actualiza el Datadog Agent con el recopilador de OpenTelemetry en tu entorno de Kubernetes: + ```sh + helm upgrade -i datadog/datadog \ + -f datadog-values.yaml \ + --set-file datadog.otelCollector.config=collector-config.yaml + ``` +1. Navega a **Integrations** > **Fleet Automation** (Integraciones > Automatización de flotas). +1. Selecciona la faceta **OTel Collector Version** (Versión del recopilador OTel). +1. Selecciona un Agent e inspecciona su configuración para comprobar que el nuevo Agent con el recopilador de OpenTelemetry se ha instalado correctamente. + +## Configurar la aplicación + +Para configurar tu aplicación existente para que utilice Datadog Agent en lugar del recopilador independiente, asegúrate de que se utiliza el nombre de host correcto del endpoint OTLP. El Datadog Agent con el recopilador integrado se despliega como un DaemonSet, por lo que el host actual necesita ser dirigido. + +1. Ve al archivo de manifiesto de despliegue de tu aplicación (`deployment.yaml`). +1. Añade las siguientes variables de entorno para configurar el endpoint OTLP: + {{< code-block lang="yaml" filename="deployment.yaml" disable_copy="true" collapsible="true" >}} +env: + ... + - name: HOST_IP + valueFrom: + fieldRef: + fieldPath: status.hostIP + - name: OTLP_GRPC_PORT + value: "4317" + - name: OTEL_EXPORTER_OTLP_ENDPOINT + value: 'http://$(HOST_IP):$(OTLP_GRPC_PORT)' + - name: OTEL_EXPORTER_OTLP_PROTOCOL + value: 'grpc' +{{< /code-block >}} + +## Correlacionar los datos de observabilidad + +[El etiquetado unificado de servicios][3] unifica los datos de observabilidad en Datadog para que puedas navegar por métricas, trazas y logs con etiquetas coherentes. + +Para configurar tu aplicación con el etiquetado unificado de servicios, establece la variable de entorno `OTEL_RESOURCE_ATTRIBUTES`: + +1. Ve al archivo de manifiesto de despliegue de tu aplicación. +1. Añade las siguientes líneas para permitir la correlación entre las trazas de aplicación y otros datos de observabilidad: + {{< code-block lang="yaml" filename="deployment.yaml" disable_copy="true" collapsible="true" >}} +env: + ... + - name: OTEL_SERVICE_NAME + value: {{ include "calendar.fullname" . }} + - name: OTEL_K8S_NAMESPACE + valueFrom: + fieldRef: + apiVersion: v1 + fieldPath: metadata.namespace + - name: OTEL_K8S_NODE_NAME + valueFrom: + fieldRef: + apiVersion: v1 + fieldPath: spec.nodeName + - name: OTEL_K8S_POD_NAME + valueFrom: + fieldRef: + apiVersion: v1 + fieldPath: metadata.name + - name: OTEL_EXPORTER_OTLP_PROTOCOL + value: 'grpc' + - name: OTEL_RESOURCE_ATTRIBUTES + value: >- + service.name=$(OTEL_SERVICE_NAME), + k8s.namespace.name=$(OTEL_K8S_NAMESPACE), + k8s.node.name=$(OTEL_K8S_NODE_NAME), + k8s.pod.name=$(OTEL_K8S_POD_NAME), + k8s.container.name={{ .Chart.Name }}, + host.name=$(OTEL_K8S_NODE_NAME), + deployment.environment=$(OTEL_K8S_NAMESPACE) +{{< /code-block >}} + +## Verificar el flujo de datos + +Después de configurar tu aplicación, comprueba que los datos fluyen correctamente a Datadog: + +1. Aplica los cambios de configuración volviendo a desplegar tus aplicaciones. + ```sh + kubectl apply -f deployment.yaml + ``` +1. Confirma que los datos de telemetría se están recibiendo en tu cuenta de Datadog. Comprueba los logs, trazas y métricas para asegurar la correcta recopilación y correlación de los datos. + +## Desinstalar el recopilador independiente + +Una vez que hayas confirmado que todos los datos se están recopilando correctamente en Datadog, puedes eliminar la versión independiente del recopilador de OpenTelemetry: + +1. Asegúrate de que todos los datos necesarios se recopilan y se muestran en Datadog. +1. Desinstala el recopilador de código abierto de OpenTelemetry de tu entorno: + ```sh + kubectl delete deployment old-otel-collector + ``` + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/opentelemetry/agent/install_agent_with_collector#included-components +[2]: /es/opentelemetry/agent/install_agent_with_collector#install-the-datadog-agent-with-opentelemetry-collector +[3]: /es/getting_started/tagging/unified_service_tagging +[4]: /es/opentelemetry/agent/agent_with_custom_components +[5]: /es/opentelemetry/agent/install_agent_with_collector#add-the-datadog-helm-repository +[6]: /es/opentelemetry/agent/install_agent_with_collector#set-up-the-api-and-application-keys +[7]: /es/opentelemetry/agent/install_agent_with_collector#configure-the-datadog-agent +[8]: https://app.datadoghq.com/organization-settings/api-keys/ +[9]: https://app.datadoghq.com/organization-settings/application-keys +[10]: /es/getting_started/site/ \ No newline at end of file diff --git a/content/es/synthetics/api_tests/grpc_tests.md b/content/es/synthetics/api_tests/grpc_tests.md index 3840f266de2f3..2113295a44093 100644 --- a/content/es/synthetics/api_tests/grpc_tests.md +++ b/content/es/synthetics/api_tests/grpc_tests.md @@ -42,70 +42,81 @@ Los checks de estado de gRPC son un estándar para informar sobre el estado de s Los tests gRPC pueden ejecutarse tanto desde [localizaciones gestionadas](#select-locations) como de [localizaciones privadas][2] dependiendo de tu preferencia de ejecución de tests desde fuera o dentro de tu red. Los tests gRPC pueden ejecutarse de forma programada, bajo demanda o directamente dentro de tus [pipelines CI/CD][3]. -## Configuración +## Configuración -Cuando decidas crear un test `gRPC`, define la solicitud de tu test. +Puedes crear un test utilizando una de las siguientes opciones: -### Definición de la solicitud + - **Crea un test a partir de una plantilla**: -1. Especifica el **Host** y el **Puerto** donde se ejecutará el test. De forma predeterminada, el puerto gRPC es `50051`. -2. Selecciona **Check de comportamiento** para realizar una llamada unaria o **Check de estado** para realizar un check de estado. + 1. Pasa el ratón por encima de una de las plantillas ya rellenadas y haz clic en **View Template** (Ver plantilla). Se abrirá un panel lateral en el que se mostrará la información de configuración rellenada previamente, que incluye: detalles de tests, detalles de solicitudes, aserciones, condiciones de alerta y parámetros de monitor. + 2. Haz clic en **+Create Test** (+Crear test) para abrir la página **Definir solicitud**, en la que podrás revisar y editar las opciones de configuración rellenadas previamente. Los campos presentados son idénticos a aquellos disponibles cuando se crea un test desde cero. + 3. Haz clic en **Save Details** (Guardar detalles) para enviar tu test de API.

+ {{< img src="getting_started/synthetics/synthetics_templates_api_video.mp4" alt="Vídeo de la página de inicio del test de la API Synthetics" video="true" >}} - {{< tabs >}} - {{% tab "Check de comportamiento" %}} + - **Crea un test desde cero**: - Para un check de comportamiento, especifica la **Reflexión del servidor** o [carga un **Archivo Proto**][101] que define tu servidor gRPC. Selecciona un método e incluye un mensaje de solicitud. Datadog no admite métodos de streaming. + 1. Para crear un test desde cero, haz clic en la plantilla **+ Start from scratch** (+ Empezar desde cero) y selecciona el tipo de solicitud `gRPC`. + 2. Especifica el **Host** y el **Puerto** donde se ejecutará el test. De forma predeterminada, el puerto gRPC es `50051`. + 3. Selecciona **Check de comportamiento** para realizar una llamada unaria o **Check de estado** para realizar un check de estado.

- {{< img src="synthetics/api_tests/grpc_behavior_check_test.png" alt="Definir la solicitud gRPC" style="width:90%;" >}} + {{< pestañas >}} + {{% tab "Check de comportamiento" %}} + +Para un check de comportamiento, especifica la **Reflexión del servidor** o [carga un **Archivo Proto**][101] que define tu servidor gRPC. Selecciona un método e incluye un mensaje de solicitud. Datadog no admite métodos de streaming.

+ +{{< img src="synthetics/api_tests/grpc_behavior_check_test_2.png" alt="Definir la solicitud gRPC" style="width:90%;" >}} [101]: https://grpc.io/docs/what-is-grpc/introduction/#working-with-protocol-buffers -{{% /tab %}} -{{% tab "Check de estado" %}} + {{% /tab %}} + {{% tab "Check de estado" %}} -Para un check de estado, introduce el nombre del servicio. Deja este campo vacío, si quieres enviar un check de estado del servidor gRPC. +Para un check de estado, introduce el nombre del servicio. Deja este campo vacío, si quieres enviar un check de estado del servidor gRPC.

-{{< img src="synthetics/api_tests/grpc_health_check_test.png" alt="Definir la solicitud gRPC" style="width:90%;" >}} +{{< img src="synthetics/api_tests/grpc_health_check_test_2.png" alt="Definir la solicitud gRPC" style="width:90%;" >}} -{{% /tab %}} -{{< /tabs >}} + {{% /tab %}} + {{< /tabs >}} -3. Añade **Opciones avanzadas** (opcional) a tu test: + 4. Añade **Opciones avanzadas** (opcional) a tu test: - {{< tabs >}} + {{< pestañas >}} + {{% tab "Opciones de solicitud" %}} - {{% tab "Opciones de solicitud" %}} +- **Tiempo de espera**: Especifica la cantidad de tiempo en segundos antes de que se inicie un tiempo de espera en el test. +- **Ignorar error de certificado del servidor**: Selecciona esta opción para que tu test gRPC continúe con la conexión, aunque se produzcan errores al validar el certificado SSL. +- **Metadatos gRPC**: Añade y define metadatos para tu solicitud gRPC, para pasar metadatos entre servicios. - * **Tiempo de espera**: Especifica la cantidad de tiempo en segundos antes de que se inicie un tiempo de espera en el test. - * **Ignorar error de certificado del servidor**: Selecciona esta opción para que tu test gRPC continúe con la conexión, aunque se produzcan errores al validar el certificado SSL. - * **Metadatos gRPC**: Añade y define metadatos para tu solicitud gRPC, para pasar metadatos entre servicios. + {{% /tab %}} + {{% tab "Autenticación" %}} - {{% /tab %}} +- **Certificado de cliente**: Autentícate a través de mTLS cargando tu certificado de cliente (`.crt`) y la clave privada asociada (`.key`) en formato `PEM`. - {{% tab "Autenticación" %}} +
- * **Certificado de cliente**: Autentícate a través de mTLS cargando tu certificado de cliente (`.crt`) y la clave privada asociada (`.key`) en formato `PEM`. +Puedes utilizar la biblioteca `openssl` para convertir tus certificados. Por ejemplo, puedes convertir un certificado `PKCS12` en certificados y claves privadas en formato `PEM`. -
+```bash + openssl pkcs12 -in .p12 -out .key -nodes -nocerts + openssl pkcs12 -in .p12 -out .cert -nokeys +``` - Puedes utilizar la biblioteca `openssl` para convertir tus certificados. Por ejemplo, puedes convertir un certificado `PKCS12` en certificados y claves privadas en formato `PEM`. + {{% /tab %}} + {{< /tabs >}} - ``` - openssl pkcs12 -in .p12 -out .key -nodes -nocerts - openssl pkcs12 -in .p12 -out .cert -nokeys - ``` + 5. **Pon un nombre** a tu test gRPC. - {{% /tab %}} + 6. Añade **etiquetas** (tags) de entorno así como cualquier otra etiqueta a tu test gRPC. A continuación, puedes utilizar estas etiquetas para filtrar tus tests Synthetic en la [página de monitorización Synthetic y tests continuos][4]. - {{< /tabs >}} + 7. Haz clic en **Invoke** (Invocar) para probar la configuración de la solicitud. Aparecerá una vista previa de la respuesta en la parte derecha de la pantalla. -3. **Pon un nombre** a tu test gRPC. + 8. Haz clic en **Create Test** (Crear test) para enviar tu test de API. -4. Añade **Etiquetas** (tags) `env` así como cualquier otra etiqueta a tu test gRPC. Luego, puedes utilizar estas etiquetas para filtrar tus tests Synthetic en la [página de monitorización y tests continuos Synthetic][4]. +### Fragmentos -Haz clic en **Enviar** para probar la configuración de la solicitud. Aparecerá una vista previa de la respuesta en la parte derecha de la pantalla. +{{% synthetics-api-tests-snippets %}} -### Definir aserciones +### Definición de aserciones Las aserciones definen cuál es el resultado esperado de un test. Después de hacer clic en **Enviar**, se añade una aserción `response time` basada en la respuesta obtenida. Debes definir al menos una aserción para que sea monitorizada por tu test. @@ -114,9 +125,9 @@ Las aserciones definen cuál es el resultado esperado de un test. Después de ha | Tipo | Operador | Tipo de valor | |---|---|---| -| tiempo de respuesta | `is less than` | _Integer (ms)_ | -| Respuesta gRPC | `contains`, `does not contain`, `is`, `is not`,
`matches`, `does not match`,
[`jsonpath`][1], [`xpath`][2] | _String_
_[Regex][3]_ | -| Metadatos gRPC | `is`, `is not`, `contains`, `does not contain`, `matches regex`, `does not match regex`, `does not exist` | _Integer (ms)_
_[Regex][3]_ | +| tiempo de respuesta | `is less than` | _Entero (ms)_ | +| Respuesta gRPC | `contains`, `does not contain`, `is`, `is not`,
`matches`, `does not match`,
[`jsonpath`][1], [`xpath`][2] | Cadena
[Expresión regular][3] | +| Metadatos gRPC | `is`, `is not`, `contains`, `does not contain`, `matches regex`, `does not match regex`, `does not exist` | Entero
[Expresión regular][3] | Puedes crear hasta 20 aserciones por test de API haciendo clic en **Nueva aserción** o haciendo clic directamente en la vista previa de la respuesta: @@ -131,26 +142,25 @@ Puedes crear hasta 20 aserciones por test de API haciendo clic en **Nueva aserci | Tipo | Operador | Tipo de valor | |---|---|---| -| tiempo de respuesta | `is less than` | _Integer (ms)_ | -| estado del check de estado | `is`, `is not` | _Integer (ms)_ | -| Metadatos gRPC | `is`, `is not`, `contains`, `does not contain`, `matches regex`, `does not match regex`, `does not exist` | _Integer (ms)_ | +| tiempo de respuesta | `is less than` | _Entero (ms)_ | +| estado del check de estado | `is`, `is not` | _Entero (ms)_ | +| Metadatos gRPC | `is`, `is not`, `contains`, `does not contain`, `matches regex`, `does not match regex`, `does not exist` | _Entero (ms)_ | Puedes crear hasta 20 aserciones por test de API haciendo clic en **Nueva aserción** o haciendo clic directamente en la vista previa de la respuesta: {{< img src="synthetics/api_tests/assertions_grpc_health_check.png" alt="Definir aserciones en las que tu test gRPC tenga éxito o falle" style="width:90%;" >}} -{{% /tab %}} -{{< /tabs >}} +{{% /tab %}}{{< /tabs >}} -Si un test no contiene una aserción en el cuerpo de la respuesta, la carga útil del cuerpo cae y devuelve un tiempo de respuesta asociado para la solicitud, dentro del límite de tiempo de espera establecido por el worker de Synthetics. +Si un test no contiene una aserción en el cuerpo de la respuesta, la carga útil del cuerpo cae y devuelve un tiempo de respuesta asociado para la solicitud dentro del límite de tiempo de espera establecido por el worker de Synthetics. -Si un test contiene una aserción en el cuerpo de la respuesta y se alcanza el límite de tiempo de espera, aparece un error `Assertions on the body/response cannot be run beyond this limit`. +Si un test contiene una aserción en el cuerpo de la respuesta y se alcanza el límite de tiempo de espera, aparecerá el error `Assertions on the body/response cannot be run beyond this limit`. ### Seleccionar localizaciones Selecciona las **Localizaciones** desde donde ejecutar tu test gRPC. Los tests gRPC pueden ejecutarse desde localizaciones gestionadas y también [privadas][2], en función de si prefieres ejecutar el test desde fuera o desde dentro de tu red. -{{% managed-locations %}} +{{% managed-locations %}} ### Indicar la frecuencia del test @@ -164,7 +174,7 @@ Los tests gRPC se pueden ejecutar: {{% synthetics-variables %}} -### Uso de variables +### Usar variables Puedes utilizar las [variables globales definidas en la página **Parámetros**][9] en la URL, las opciones avanzadas y las aserciones de tus tests gRPC. @@ -205,12 +215,7 @@ Si utilizas la función [rol personalizado][13], añade tu usuario a cualquier r ## Restringir el acceso -La restricción del acceso está disponible para clientes que utilizan [roles personalizados][14] en sus cuentas. - -Puedes restringir el acceso a un test de navegador en función de los roles de tu organización. Al crear un test de navegador, elige qué roles (además de tu usuario) pueden leer y escribir tu test. - -{{< img src="synthetics/settings/restrict_access_1.png" alt="Definir permisos para tu test" style="width:70%;" >}} - +{{% synthetics_grace_permissions %}} ## Referencias adicionales @@ -229,5 +234,4 @@ Puedes restringir el acceso a un test de navegador en función de los roles de t [10]: https://grpc.github.io/grpc/core/md_doc_statuscodes.html [11]: /es/synthetics/api_tests/errors/#ssl-errors [12]: /es/account_management/rbac/ -[13]: /es/account_management/rbac#custom-roles -[14]: /es/account_management/rbac/#create-a-custom-role \ No newline at end of file +[13]: /es/account_management/rbac#custom-roles \ No newline at end of file diff --git a/content/es/tracing/metrics/runtime_metrics/python.md b/content/es/tracing/metrics/runtime_metrics/python.md new file mode 100644 index 0000000000000..7e52bb7b4b677 --- /dev/null +++ b/content/es/tracing/metrics/runtime_metrics/python.md @@ -0,0 +1,62 @@ +--- +aliases: +- /es/tracing/runtime_metrics/python +code_lang: python +code_lang_weight: 20 +description: Obtén información adicional sobre el rendimiento de tu aplicación Python + con las métricas de tiempo de ejecución asociadas a tus trazas (traces). +further_reading: +- link: tracing/other_telemetry/connect_logs_and_traces + tag: Documentación + text: Conecta tus logs y trazas +- link: tracing/trace_collection/custom_instrumentation + tag: Documentación + text: Instrumenta tu aplicación de forma manual para crear trazas. +- link: tracing/glossary/ + tag: Documentación + text: Explora tus servicios, recursos y trazas +title: Métricas de tiempo de ejecución de Python +type: multi-code-lang +--- + +## Configuración automática + +La recopilación de métricas de tiempo de ejecución puede activarse con el parámetro de entorno `DD_RUNTIME_METRICS_ENABLED=true` cuando se ejecuta con `ddtrace-run`. + +Si no utilizas `ddtrace-run`, puedes activar la recopilación de métricas de tiempo de ejecución en el código: + +```python +from ddtrace.runtime import RuntimeMetrics +RuntimeMetrics.enable() +``` + +Las métricas de tiempo de ejecución se pueden ver en correlación con tus servicios de Python. Consulta el [Catálogo de servicios][1] en Datadog. + +**Nota**: Para la interfaz de usuario de tiempo de ejecución, se admite `ddtrace` >= [`0.24.0`][2]. + +Por defecto, las métricas de tiempo de ejecución de tu aplicación se envían al Datadog Agent con DogStatsD en el puerto `8125`. Asegúrate de que [DogStatsD está habilitado para el Agent][3]. +Si estás ejecutando el Agent como un contenedor, asegúrate de que `DD_DOGSTATSD_NON_LOCAL_TRAFFIC` [está configurado como true][4] y que el puerto `8125` está abierto en el Agent. +En Kubernetes, [vincula el puerto de DogStatsD a un puerto host][5]; en ECS, [establece los indicadores apropiados en tu definición de tarea][6]. + +Alternativamente, el Agent puede ingerir métricas con un Unix Domain Socket (UDS) como alternativa al transporte UDP. Para más información, lee [DogStatsD en Unix Domain Socket][8]. + +## Datos recopilados + +Las siguientes métricas se recopilan por defecto después de activar las métricas de tiempo de ejecución: + +{{< get-metrics-from-git "python" >}} + +Además de mostrar estas métricas en tu Página de servicios de APM, Datadog proporciona un [dashboard de métricas de tiempo de ejecución de Python predeterminado][7]. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/services +[2]: https://github.com/DataDog/dd-trace-py/releases/tag/v0.24.0 +[3]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/#setup +[4]: /es/agent/docker/#dogstatsd-custom-metrics +[5]: /es/developers/dogstatsd/?tab=kubernetes#agent +[6]: /es/agent/amazon_ecs/#create-an-ecs-task +[7]: https://app.datadoghq.com/dash/integration/30267/python-runtime-metrics +[8]: /es/developers/dogstatsd/unix_socket/ \ No newline at end of file diff --git a/content/fr/integrations/external_dns.md b/content/fr/integrations/external_dns.md index b25796955263f..6067f2a2ca8f9 100644 --- a/content/fr/integrations/external_dns.md +++ b/content/fr/integrations/external_dns.md @@ -31,7 +31,7 @@ draft: false git_integration_title: external_dns integration_id: external-dns integration_title: ExternalDNS -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: external_dns diff --git a/content/ja/integrations/airflow.md b/content/ja/integrations/airflow.md index 1fc9c9cc66eb5..04677ecb91bf3 100644 --- a/content/ja/integrations/airflow.md +++ b/content/ja/integrations/airflow.md @@ -41,7 +41,7 @@ draft: false git_integration_title: airflow integration_id: airflow integration_title: Airflow -integration_version: 6.1.0 +integration_version: 6.3.0 is_public: true manifest_version: 2.0.0 name: airflow @@ -197,7 +197,6 @@ Airflow の `statsd` 機能を使用してメトリクスを収集すること tags: dag_id: "$1" task_id: "$2" - - match: "airflow.pool.open_slots.*" - match: "airflow.dagrun.*.first_task_scheduling_delay" name: "airflow.dagrun.first_task_scheduling_delay" tags: @@ -463,7 +462,7 @@ Datadog Agent で、ログの収集はデフォルトで無効になっていま [5]: https://airflow.apache.org/docs/apache-airflow/stable/configurations-ref.html#metrics [6]: https://airflow.apache.org/docs/apache-airflow/stable/executor/kubernetes.html [7]: https://docs.datadoghq.com/ja/developers/dogstatsd/?tab=kubernetes#setup -[8]: /ja/integrations/airflow/?tab=host#connect-airflow-to-dogstatsd +[8]: https://docs.datadoghq.com/ja/integrations/airflow/?tab=host#connect-airflow-to-dogstatsd [9]: http://docs.datadoghq.com/resources/json/airflow_ust.json [10]: https://docs.datadoghq.com/ja/agent/kubernetes/integrations/?tab=kubernetes#configuration {{% /tab %}} diff --git a/content/ja/integrations/mcache.md b/content/ja/integrations/mcache.md index 75e5e55ee6d78..3ecd10484d9eb 100644 --- a/content/ja/integrations/mcache.md +++ b/content/ja/integrations/mcache.md @@ -40,7 +40,7 @@ draft: false git_integration_title: mcache integration_id: memcached integration_title: Memcache -integration_version: 6.0.0 +integration_version: 6.1.0 is_public: true manifest_version: 2.0.0 name: mcache diff --git a/content/ja/integrations/nginx_ingress_controller.md b/content/ja/integrations/nginx_ingress_controller.md index 3f60148a2512d..22db8fcec7af9 100644 --- a/content/ja/integrations/nginx_ingress_controller.md +++ b/content/ja/integrations/nginx_ingress_controller.md @@ -42,7 +42,7 @@ draft: false git_integration_title: nginx_ingress_controller integration_id: nginx-ingress-controller integration_title: nginx-ingress-controller -integration_version: 4.0.0 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: nginx_ingress_controller diff --git a/content/ja/security/cloud_security_management/setup/agentless_scanning/_index.md b/content/ja/security/cloud_security_management/setup/agentless_scanning/_index.md index f940bf1636763..0ba13274bb65b 100644 --- a/content/ja/security/cloud_security_management/setup/agentless_scanning/_index.md +++ b/content/ja/security/cloud_security_management/setup/agentless_scanning/_index.md @@ -1,157 +1,94 @@ --- -title: Setting up Agentless Scanning for Cloud Security Management +further_reading: +- link: /security/cloud_security_management/setup + tag: ドキュメント + text: Cloud Security Management の設定 +- link: /security/cloud_security_management/agentless_scanning + tag: ドキュメント + text: Cloud Security Management Agentless Scanning +title: Agentless Scanning の有効化 --- {{< site-region region="gov" >}} -
Agentless Scanning for Cloud Security Management is not supported for your selected Datadog site ({{< region-param key="dd_site_name" >}}).
+
選択した Datadog サイト ({{< region-param key="dd_site_name" >}}) では、Cloud Security Management 向けの Agentless Scanning はサポートされていません。
{{< /site-region >}} -エージェントレススキャンは、Datadog Agent をインストールすることなく、AWS ホスト、実行中のコンテナ、Lambda 関数、Amazon Machine Images (AMI) 内に存在する脆弱性を視覚化します。 +Agentless Scanning を使用すると、Datadog Agent をインストールする必要なくクラウドインフラに存在する脆弱性を可視化できます。Agentless Scanning の機能と仕組みについて詳しくは、[Agentless Scanning][12] のドキュメントを参照してください。 +## 前提条件 -{{% csm-agentless-prereqs %}} +Agentless Scanning をセットアップする前に、以下の前提条件が満たされていることを確認してください。 -## デプロイ方法 +- **Remote Configuration**: [Remote Configuration][3] が必要です。これは Datadog がスキャン対象のクラウドリソースなどの情報を Agentless スキャナーへ送信するために必須となります。 +- **クラウドの権限**: Agentless Scanning インスタンスがホスト、コンテナ、および関数をスキャンするためには特定の権限が必要です。これらの権限はインストールプロセスの一部として自動的に適用されます。

+{{< collapse-content title="AWS ホストおよびコンテナのスキャン権限" level="h5" >}} +
    +
  • ec2:DescribeVolumes
  • +
  • ec2:CreateTags
  • +
  • ec2:CreateSnapshot
  • +
  • ec2:DeleteSnapshot
  • +
  • ec2:DescribeSnapshots
  • +
  • ec2:DescribeSnapshotAttribute
  • +
  • ebs:ListSnapshotBlocks
  • +
  • ebs:ListChangedBlocks
  • +
  • ebs:GetSnapshotBlock
  • +
+{{< /collapse-content >}} -エージェントレススキャナを環境にデプロイするには、クロスアカウントスキャンまたは同一アカウントスキャンの 2 つの方法が推奨されます。 +{{< collapse-content title="AWS Lambda のスキャン権限" level="h5" >}} +
  • lambda:GetFunction
+{{< /collapse-content >}} -**注**: エージェントレススキャンを使用する場合、クラウド環境でスキャナを実行するための追加コストが発生します。12 時間ごとに確実にスキャンを行いながらコストを最適化するために、Datadog では Terraform をデフォルトテンプレートとしてエージェントレススキャンをセットアップすることを推奨しています。 +{{< collapse-content title="Azure ホストのスキャン権限" level="h5" >}} +
    +
  • Microsoft.Compute/virtualMachines/read
  • +
  • Microsoft.Compute/virtualMachines/instanceView/read
  • +
  • Microsoft.Compute/virtualMachineScaleSets/read
  • +
  • Microsoft.Compute/virtualMachineScaleSets/instanceView/read
  • +
  • Microsoft.Compute/virtualMachineScaleSets/virtualMachines/read
  • +
  • Microsoft.Compute/virtualMachineScaleSets/virtualMachines/instanceView/read
  • +
  • Microsoft.Compute/disks/read
  • +
  • Microsoft.Compute/disks/beginGetAccess/action
  • +
  • Microsoft.Compute/disks/endGetAccess/action
  • +
+{{< /collapse-content >}} -スキャナコストの見積もりについては、[Datadog カスタマーサクセスマネージャー][8]までお問い合わせください。 +## セットアップ -{{< tabs >}} -{{% tab "クロスアカウントスキャン" %}} +
Agentless スキャナーを実行すると追加のコストが発生します。コストを最適化しつつ、12 時間ごとのスキャンを確実に行うために、Datadog ではデフォルトのテンプレートとして Terraform を用いた Agentless Scanning のセットアップを推奨しています。
-クロスアカウントスキャンでは、エージェントレススキャナは単一のクラウドアカウント内の複数のリージョンにデプロイされます。デプロイされたエージェントレススキャナは、実際にコストがかかるクロスリージョンスキャンを実行せずに、複数のアカウントに対する可視性を付与されます。 +Agentless Scanning を有効にするには、以下のいずれかのワークフローを使用してください。 -250 ホスト以上の大規模アカウントの場合、これが最も費用対効果の高いオプションです。クロスリージョンスキャンを回避し、エージェントレススキャナの管理の摩擦を軽減するためです。エージェントレススキャナ専用のアカウントを作成するか、既存のアカウントを選択できます。エージェントレススキャナが配置されているアカウントもスキャンできます。 +### クイックスタート -次の図は、中央のクラウドアカウントにデプロイされた場合のエージェントレススキャンの動作を示しています。 - - -{{< img src="/security/agentless_scanning/agentless_advanced_2.png" alt="中央のクラウドアカウントにデプロイされているエージェントレススキャナを示すエージェントレススキャンの図" width="90%" >}} - -{{% /tab %}} -{{% tab "同一アカウントスキャン" %}} - -同一アカウントスキャンでは、アカウントごとに 1 つのエージェントレススキャナがデプロイされます。この方法は、各エージェントレススキャナがアカウントごとにクロスリージョンスキャンを実行する必要があるため、より多くのコストが発生する可能性がありますが、クロスアカウント権限を付与したくない場合、Datadog はこのオプションを推奨しています。 - -以下の図は、各クラウドアカウント内でデプロイされた場合のエージェントレススキャンの動作を示しています。 - -{{< img src="/security/agentless_scanning/agentless_quickstart_2.png" alt="各クラウドアカウントにデプロイされているエージェントレススキャナを示すエージェントレススキャンの図" width="90%" >}} - -[3]: https://app.datadoghq.com/security/csm/vm -[4]: /ja/agent/remote_config/?tab=configurationyamlfile#setup - -{{% /tab %}} -{{< /tabs >}} - - -**注**: 実際にスキャンされたデータはインフラストラクチャー内に残り、収集されたパッケージのリストと、収集されたホスト (ホスト名/EC2 インスタンス) に関連する情報のみが Datadog に報告されます。 - -## インストール - -クラウド環境にエージェントレススキャンをインストールして構成するには、Terraform を使って手動で行う方法と、AWS インテグレーションで CloudFormation テンプレートを使う方法があります。 +新規ユーザー向けに設計された[クイックスタートワークフロー][5]では、Cloud Security Management の効率的なセットアッププロセスが提供され、AWS リソースの即時モニタリングを可能にします。このワークフローでは AWS CloudFormation を使用して構成を自動化します。 ### Terraform -{{< tabs >}} -{{% tab "エージェントレススキャン (新しい AWS アカウント) " %}} - -1. AWS クラウドアカウントを Cloud Security Management に追加するためのセットアップ手順に従ってください。 -1. [Cloud Security Management Setup][1] ページで、**Cloud accounts > AWS** をクリックします。 -1. エージェントレススキャナをデプロイする AWS アカウントの **Edit scanning** ボタンをクリックします。 -1. **Enable Resource Scanning** は既に有効になっているはずです。**Agentless scanning** セクションで監視したいクラウドリソースのスキャンを有効にします。 -1. [Terraform][4] のセットアップの指示に従ってください。 -1. テンプレートが正常に実行されたことを確認したら、**Done** をクリックしてスキャンを開始します。 - -{{< img src="/security/agentless_scanning/agentless_scanning_setup.png" alt="リソーススキャンのトグルオプションを表示するエージェントレススキャンのセットアップページ" width="90%" >}} - - -[1]: https://app.datadoghq.com/security/configuration/csm/setup -[3]: /ja/security/cloud_security_management/setup/csm_enterprise/cloud_accounts/?tab=aws -[4]: https://github.com/DataDog/terraform-datadog-agentless-scanner/blob/main/README.md - -{{% /tab %}} - -{{% tab "エージェントレススキャン (既存の AWS アカウント) " %}} - -1. [Cloud Security Management Setup][1] ページで、**Cloud accounts > AWS** をクリックします。 -1. エージェントレススキャナをデプロイする AWS アカウントの **Edit scanning** ボタンをクリックします。 -1. **Enable Resource Scanning** は既に有効になっているはずです。**Agentless Scanning** セクションで監視したいクラウドリソースのスキャンを有効にします。 -1. [Terraform][4] のセットアップの指示に従ってください。 -1. テンプレートが正常に実行されたことを確認したら、**Done** をクリックしてスキャンを開始します。 - -{{< img src="/security/agentless_scanning/agentless_scanning_setup.png" alt="リソーススキャンのトグルオプションを表示するエージェントレススキャンのセットアップページ" width="90%" >}} - -[1]: https://app.datadoghq.com/security/configuration/csm/setup -[4]: https://github.com/DataDog/terraform-datadog-agentless-scanner/blob/main/README.md - - -{{% /tab %}} -{{< /tabs >}}
- -### AWS インテグレーション - -{{< tabs >}} -{{% tab "エージェントレススキャン (新しい AWS アカウント) " %}} - -1. [Amazon Web Services][1] インテグレーションをセットアップし、リソース収集に必要な[権限][2]を追加してください。 - - 新しい AWS アカウントを追加すると、以下の画面が表示されます。 - -{{< img src="/security/agentless_scanning/agentless_scanning_aws_2.png" alt="1 つの AWS アカウントを選択した状態で、新しい AWS アカウントを追加するためのエージェントレススキャンのセットアップページ" width="90%" >}} -
- -1. **Cloud Security Management** で **Yes** をクリックし、**Agentless scanning** セクションで監視したいクラウドリソースのスキャンを有効にします。 -1. リモート構成に構成済みの API キーを選択します。リモート構成が有効になっていない API キーを入力すると、選択時に自動的に有効になります。 -1. **Launch CloudFormation Template** をクリックします。テンプレートにはエージェントレススキャナのデプロイと管理に必要なすべての[権限][3]が含まれており、スキャンを受信するにはテンプレートが正常に実行される必要があります。 - -[1]: /ja/integrations/amazon_web_services/ -[2]: /ja/integrations/amazon_web_services/?tab=roledelegation#resource-collection -[3]: /ja/security/cloud_security_management/setup/agentless_scanning/?tab=agentlessscanningnewawsaccount#permissions - -{{% /tab %}} - -{{% tab "エージェントレススキャン (既存の AWS アカウント) " %}} - -1. [Cloud Security Management Setup][1] ページで、**Cloud accounts > AWS** をクリックします。 -1. エージェントレススキャナをデプロイする AWS アカウントの **Edit scanning** ボタンをクリックします。 -1. **Enable Resource Scanning** は既に有効になっているはずです。**Agentless scanning** セクションで監視したいクラウドリソースのスキャンを有効にします。 -1. AWS コンソールに移動し、[このテンプレート][2]を使用して新しい CloudFormation Stack を作成し、それを実行します。 -1. テンプレートが正常に実行されたことを確認したら、**Done** をクリックしてスキャンを開始します。 - -{{< img src="/security/agentless_scanning/agentless_scanning_setup.png" alt="リソーススキャンのトグルオプションを表示するエージェントレススキャンのセットアップページ" width="90%" >}} - -[1]: https://app.datadoghq.com/security/configuration/csm/setup -[2]: https://github.com/DataDog/terraform-module-datadog-agentless-scanner/blob/main/cloudformation/main.yaml - -{{% /tab %}} -{{< /tabs >}} - -## リソースの除外 - -AWS ホスト、コンテナ、Lambda 関数 (該当する場合) に、`DatadogAgentlessScanner:false` タグを設定して、スキャンから除外します。このタグをリソースに追加するには、[AWS ドキュメント][3]に従ってください。 +[Terraform Datadog Agentless Scanner module][6] を使用すると、Datadog Agentless Scanner をインストールするためのシンプルで再利用可能な設定を行うことができます。詳細については、[Terraform を使用した Agentless Scanning のセットアップ][7]を参照してください。 -## エージェントレススキャンの無効化 +### AWS CloudFormation -AWS アカウントでエージェントレススキャンを無効にするには、各クラウドリソースのスキャンを無効にします。 -1. [Cloud Security Management Setup][10] ページで、**Cloud accounts > AWS** をクリックします。 -1. エージェントレススキャナをデプロイした AWS アカウントの **Edit scanning** ボタンをクリックします。 -1. **Agentless Scanning** セクションで、監視を停止したいクラウドリソースのスキャンを無効にします。 -1. **Done** をクリックします。 +AWS CloudFormation テンプレートを使用して、CloudFormation スタックを作成します。このテンプレートには、Agentless Scanner をデプロイおよび管理するために必要な IAM 権限が含まれています。詳細については、[AWS CloudFormation を使用した Agentless Scanning のセットアップ][11]を参照してください。 -### CloudFormation によるアンインストール +### Azure Resource Manager -AWS コンソールにアクセスし、エージェントレススキャン用に作成した CloudFormation スタックを削除します。 +Azure Resource Manager テンプレートを使用して、Agentless Scanner をデプロイします。このテンプレートには、Agentless Scanner をデプロイおよび管理するために必要なロール定義が含まれています。詳細については、[Azure Resource Manager を使用した Agentless Scanning のセットアップ][13]を参照してください。 -### Terraform でのアンインストール +## その他の参考資料 -[Terraform][9] のアンインストールの手順に従ってください。 +{{< partial name="whats-next/whats-next.html" >}} -[1]: /ja/security/vulnerabilities -[3]: https://docs.aws.amazon.com/tag-editor/latest/userguide/tagging.html -[4]: https://github.com/DataDog/terraform-module-datadog-agentless-scanner/blob/main/README.md +[1]: /ja/security/cloud_security_management/agentless_scanning +[2]: /ja/integrations/amazon_web_services/ +[3]: /ja/agent/remote_config/?tab=configurationyamlfile#setup +[4]: https://app.datadoghq.com/security/csm/intro +[5]: /ja/security/cloud_security_management/setup/agentless_scanning/quick_start +[6]: https://github.com/DataDog/terraform-module-datadog-agentless-scanner +[7]: /ja/security/cloud_security_management/setup/agentless_scanning/terraform [8]: mailto:success@datadoghq.com [9]: https://github.com/DataDog/terraform-module-datadog-agentless-scanner/blob/main/README.md#uninstall -[10]: https://app.datadoghq.com/security/configuration/csm/setup \ No newline at end of file +[10]: https://app.datadoghq.com/security/configuration/csm/setup +[11]: /ja/security/cloud_security_management/setup/agentless_scanning/cloudformation +[12]: /ja/security/cloud_security_management/agentless_scanning +[13]: /ja/security/cloud_security_management/setup/agentless_scanning/azure_resource_manager \ No newline at end of file diff --git a/content/ja/synthetics/api_tests/icmp_tests.md b/content/ja/synthetics/api_tests/icmp_tests.md index d7d360f7c4ac5..591ac68a05c2e 100644 --- a/content/ja/synthetics/api_tests/icmp_tests.md +++ b/content/ja/synthetics/api_tests/icmp_tests.md @@ -35,19 +35,30 @@ ICMP テストは、ネットワークの外部または内部のどちらから ## 構成 -`ICMP` テストの作成を選択した後、テストのリクエストを定義します。 +You may create a test using one of the following options: -### リクエストを定義する + - **Create a test from a template**: + + 1. Hover over one of the pre-populated templates and click **View Template**. This opens a side panel displaying pre-populated configuration information, including: Test Details, Request Details, Assertions, Alert Conditions, and Monitor Settings. + 2. Click **+Create Test** to open the **Define Request** page, where you can review and edit the pre-populated configuration options. The fields presented are identical to those available when creating a test from scratch. + 3. Click **Save Details** to submit your API test.

+ {{< img src="getting_started/synthetics/synthetics_templates_api_video.mp4" alt="Video of Synthetics API test landing page with templates" video="true" >}} + + - **Build a test from scratch**: + + 1. テストを一から作成するには、**+ Start from scratch** テンプレートをクリックし、`ICMP` リクエストタイプを選択します。 + 1. テストを実行する**ドメイン名**または **IP アドレス**を指定します。 + 1. **Track number of network hops (TTL)** (ネットワークホップ数 (TTL) の追跡) を選択または選択解除します。このオプションを選択すると、"traceroute" プローブをオンにして、ホストの宛先へのパスに沿ったすべてのゲートウェイを検出します。 + 1. テストセッションごとにトリガーする **Number of Pings** (Ping の数) を選択します。 デフォルトでは、ping の数は 4 に設定されています。この数値は、減らすか最大 10 まで増やすかを選択できます。 + 1. ICMP テストに**名前**を付けます。 + 1. ICMP テストに Environment **タグ**とその他のタグを追加します。次に、これらのタグを使用して、[Synthetic Monitoring & Continuous Testing ページ][3]で Synthetic テストをフィルタリングできます。 + 1. **Test Host** をクリックして、リクエストの構成をテストします。画面の右側に応答プレビューが表示されます。

+ + {{< img src="synthetics/api_tests/icmp_test_config_2.png" alt="ICMP リクエストを定義する" style="width:90%;" >}} + 8. Click **Create Test** to submit your API test. -1. テストを実行する**ドメイン名**または **IP アドレス**を指定します。 -2. **Track number of network hops (TTL)** (ネットワークホップ数 (TTL) の追跡) を選択または選択解除します。このオプションを選択すると、"traceroute" プローブをオンにして、ホストの宛先へのパスに沿ったすべてのゲートウェイを検出します。 -3. テストセッションごとにトリガーする **Number of Pings** (Ping の数) を選択します。 デフォルトでは、ping の数は 4 に設定されています。この数値は、減らすか最大 10 まで増やすかを選択できます。 -4. ICMP テストに**名前**を付けます。 -5. ICMP テストに `env` **タグ**とその他のタグを追加します。次に、これらのタグを使用して、[Synthetic Monitoring & Continuous Testing ページ][3]で Synthetic テストをフィルタリングできます。 -{{< img src="synthetics/api_tests/icmp_test_config.png" alt="ICMP リクエストを定義する" style="width:90%;" >}} -**Test URL** をクリックして、リクエストのコンフィギュレーションをテストします。画面の右側に応答プレビューが表示されます。 ### スニペット @@ -76,7 +87,7 @@ ICMP テストは、ネットワークの外部または内部のどちらから ICMP テストを実行する**ロケーション**を選択します。ICMP テストは、ネットワークの外部または内部のどちらから ICMP ping をトリガーするかの好みによって、管理ロケーションと[プライベートロケーション][1]の両方から実行できます。 -{{% managed-locations %}} +{{% managed-locations %}} ### テストの頻度を指定する @@ -98,7 +109,7 @@ ICMP テストの URL およびアサーションで、[**Settings** ページ ## テストの失敗 -テストが 1 つ以上のアサーションを満たさない場合、またはリクエストが途中で失敗した場合、テストは `FAILED` と見なされます。場合によっては、エンドポイントに対するアサーションをテストせずにテストが実際に失敗することがあります。 +テストが 1 つ以上のアサーションを満たさない場合、またはリクエストが時期尚早に失敗した場合、テストは `FAILED` と見なされます。場合によっては、エンドポイントに対してアサーションをテストすることなくテストが実際に失敗することがあります。 これらの理由には以下が含まれます。 @@ -113,11 +124,7 @@ ICMP テストの URL およびアサーションで、[**Settings** ページ ### アクセス制限 -アカウントに[カスタムロール][11]を使用しているお客様は、アクセス制限が利用可能です。 - -組織内の役割に基づいて、ICMP テストへのアクセスを制限することができます。ICMP テストを作成する際に、ユーザーに加えてどのロールがあなたのテストを読み取りおよび書き込むことができるかを選択します。 - -{{< img src="synthetics/settings/restrict_access_1.png" alt="テストの権限の設定" style="width:70%;" >}} +{{% synthetics_grace_permissions %}} ## その他の参考資料 @@ -132,5 +139,4 @@ ICMP テストの URL およびアサーションで、[**Settings** ページ [7]: /ja/synthetics/guide/synthetic-test-monitors [8]: /ja/synthetics/settings/#global-variables [9]: /ja/account_management/rbac/ -[10]: /ja/account_management/rbac#custom-roles -[11]: /ja/account_management/rbac/#create-a-custom-role \ No newline at end of file +[10]: /ja/account_management/rbac#custom-roles \ No newline at end of file diff --git a/content/ko/data_streams/java.md b/content/ko/data_streams/java.md index ac2d13b8680be..27f3e120ba690 100644 --- a/content/ko/data_streams/java.md +++ b/content/ko/data_streams/java.md @@ -17,7 +17,7 @@ title: Data Streams Monitoring for Java 설정 | 기술 | 라이브러리 | 최소 트레이서 버전 | 권장 트레이서 버전 | |----------------|-------------------------------------------------------------------------------------------------|------------------------|----------------------------- -| Kafka | [kafka-clients](https://mvnrepository.com/artifact/org.apache.kafka/kafka-clients) | 1.9.0 | 1.43.0 이상 | +| Kafka | [kafka-clients](https://mvnrepository.com/artifact/org.apache.kafka/kafka-clients) (v3.7 is not fully supported) | 1.9.0 | 1.43.0 이상 | | RabbitMQ | [amqp-client](https://mvnrepository.com/artifact/com.rabbitmq/amqp-client) | 1.9.0 | 1.42.2 이상 | | Amazon SQS | [aws-java-sdk-sqs (v1)](https://mvnrepository.com/artifact/com.amazonaws/aws-java-sdk-sqs) | 1.27.0 | 1.42.2 이상 | | Amazon SQS | [SQL (V2)](https://mvnrepository.com/artifact/software.amazon.awssdk/sqs) | 1.27.0 | 1.42.2 이상 | @@ -54,6 +54,37 @@ java -javaagent:/path/to/dd-java-agent.jar -Ddd.data.streams.enabled=true -Ddd.t ### SQS 파이프라인 모니터링 데이터 스트림 모니터링은 하나의 [메시지 속성][3]을 사용하여 SQS 큐를 통해 메시지의 경로를 추적합니다. Amazon SQS에는 메시지당 허용되는 메시지 속성이 최대 10개로 제한되어 있으므로 데이터 파이프라인을 통해 스트리밍되는 모든 메시지는 9개 이하의 메시지 속성이 설정되어야 합니다. 나머지 속성은 데이터 스트림 모니터링에 사용됩니다. +### SNS-to-SQS 파이프라인 모니터링 +Amazon SNS와 Amazon SQS가 바로 소통하는 데이터 파이프라인을 모니터링하려면 다음 추가 구성 단계를 실행해야 합니다. + +{{< tabs >}} +{{% tab "SQS v1" %}} +- 환경 변수 `DD_TRACE_SQS_BODY_PROPAGATION_ENABLED`를 `true`로 설정합니다. + + 예: + ```yaml + environment: + - DD_DATA_STREAMS_ENABLED: "true" + - DD_TRACE_REMOVE_INTEGRATION_SERVICE_NAMES_ENABLED: "true" + - DD_TRACE_SQS_BODY_PROPAGATION_ENABLED: "true" + ``` +- [Java 트레이서 v1.44.0+][1]를 사용하는지 확인합니다. + +[1]: https://github.com/DataDog/dd-trace-java/releases +{{% /tab %}} +{{% tab "SQS v2" %}} +[Amazon SNS 원시 메시지 전송][1]을 활성화합니다. + +[1]: https://docs.aws.amazon.com/sns/latest/dg/sns-large-payload-raw-message-delivery.html +{{% /tab %}} +{{< /tabs >}} + +### Kinesis 파이프라인 모니터링 +Kinesis에는 컨텍스트를 전파하고 Kinesis 스트림을 통해 메시지 전체 경로를 추적할 수 있는 메시지 속성이 없습니다. 따라서 데이터 스트림 모니터링의 엔드투엔드 지연 메트릭의 경우, 서비스에서 Kinesis 스트림을 거쳐 소비자 서비스에 이르는 메시지 경로의 세그먼트 지연 시간을 합산하여 근사치를 구합니다. 처리량 메트릭은 생산자 서비스에서 Kinesis 스트림을 거쳐 소비자 서비스까지 세그먼트를 기반으로 합니다. 데이터 스트림 전체 토폴로지는 계측 서비스를 통해 계속 시각화할 수 있습니다. + +### 수동 계측 +데이터 스트림 모니터링은 메시지 헤더를 통해 컨텍스트를 전파합니다. 사용 중인 메시지 대기열 기술이 헤더가 없고 DSM 지원이 불가하거나(Kinesis) Lambdas인 경우, [DSM 설정을 위한 수동 계측][6]을 사용하세요. + ## 참고 자료 {{< partial name="whats-next/whats-next.html" >}} @@ -61,4 +92,5 @@ java -javaagent:/path/to/dd-java-agent.jar -Ddd.data.streams.enabled=true -Ddd.t [1]: /ko/agent [2]: /ko/tracing/trace_collection/dd_libraries/java/ [3]: https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-message-metadata.html -[4]: /ko/agent/remote_config/?tab=configurationyamlfile#enabling-remote-configuration \ No newline at end of file +[4]: /ko/agent/remote_config/?tab=configurationyamlfile#enabling-remote-configuration +[5]: /ko/data_streams/manual_instrumentation/?tab=java \ No newline at end of file diff --git a/content/ko/integrations/exchange_server.md b/content/ko/integrations/exchange_server.md new file mode 100644 index 0000000000000..df5261bff12e0 --- /dev/null +++ b/content/ko/integrations/exchange_server.md @@ -0,0 +1,142 @@ +--- +app_id: exchange-server +app_uuid: e334d30a-a7df-4c06-9d1f-d8b6663df38a +assets: + dashboards: + Exchange Server Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: exchange.processor.cpu_user + metadata_path: metadata.csv + prefix: exchange. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10023 + source_type_name: Exchange Server +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- log collection +- windows +custom_kind: 통합 +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/exchange_server/README.md +display_on_public_website: true +draft: false +git_integration_title: exchange_server +integration_id: exchange-server +integration_title: Microsoft Exchange Server +integration_version: 4.1.0 +is_public: true +manifest_version: 2.0.0 +name: exchange_server +public_title: Microsoft Exchange Server +short_description: Microsoft Exchange Server 메트릭을 수집하고 그래프로 표시하세요 +supported_os: +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Log Collection + - Category::Windows + - Supported OS::Windows + - Offering::통합 + configuration: README.md#Setup + description: Microsoft Exchange Server 메트릭을 수집하고 그래프로 표시하세요 + media: [] + overview: README.md#Overview + support: README.md#Support + title: Microsoft Exchange Server +--- + + + + +## 개요 + +Microsoft Exchange Server에서 메트릭 가져오기 + +- Exchange Server 성능 시각화 및 모니터링 + +## 설정 + +### 설치 + +Exchange 검사는 [Datadog Agent][1] 패키지에 포함되어 있으므로 서버에 다른 것을 설치할 필요가 없습니다. + +### 설정 + +1. [Agent의 구성 디렉터리][2] 루트의 `conf.d/` 폴더에 있는 `exchange_server.d/conf.yaml` 파일을 편집하여 Exchange Server 성능 데이터를 수집합니다. + +2. [에이전트를 다시 시작합니다][3]. + +**참고**: 이 검사의 버전 1.11.0 이상에서는 메트릭 수집을 위한 새로운 구현을 사용하며, Python 3이 필요합니다. Python 3를 사용할 수 없는 호스트의 경우 또는 이 검사의 레거시 버전을 사용하려는 경우 다음 [구성][4]을 참조하세요. + +### 로그 수집 + +1. Datadog 에이전트에서는 로그 수집이 기본적으로 비활성화되어 있습니다. `datadog.yaml` 파일에서 활성화해야 합니다. + + ```yaml + logs_enabled: true + ``` + +2. Exchange Server 로그 수집을 시작하려면 `exchange_server.d/conf.yaml` 파일에 다음 구성 블록을 추가합니다. + + ```yaml + logs: + - type: file + path: "C:\\Program Files\\Microsoft\\Exchange Server\\V15\\TransportRoles\\Logs\\CommonDiagnosticsLog\\*" + source: exchange-server + - type: file + path: "C:\\Program Files\\Microsoft\\Exchange Server\\V15\\TransportRoles\\Logs\\ThrottlingService\\*" + source: exchange-server + - type: file + path: "C:\\Program Files\\Microsoft\\Exchange Server\\V15\\TransportRoles\\Logs\\Hub\\Connectivity\\*" + source: exchange-server + ``` + **참고**: Exchange Server가 다양한 유형의 로그를 출력하며 지원되는 로그는 CommonDiagnosticsLog, ThrottlingService, Connectivity 로그입니다. 다른 로그 형식을 요청하려면 [Datadog 지원팀][5]에 문의하세요. + + `path` 파라미터 값을 변경하고 환경에 맞게 설정합니다. + 사용 가능한 모든 구성 옵션은 [샘플 exchange_server.d/conf.yaml][6]을 참조하세요. + +3. [에이전트를 다시 시작합니다][3]. + + +### 검증 + +[Agent의 상태 하위 명령을 실행][7]하고 Checks 섹션에서 `exchange_server`를 찾습니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "exchange_server" >}} + + +### 이벤트 + +Exchange Server 점검은 이벤트를 포함하지 않습니다. + +### 서비스 점검 + +Exchange Server 점검은 서비스 점검을 포함하지 않습니다. + +## 트러블슈팅 + +도움이 필요하신가요? [Datadog 지원팀][5]에 문의하세요. + +[1]: https://app.datadoghq.com/account/settings/agent/latest +[2]: https://docs.datadoghq.com/ko/agent/guide/agent-configuration-files/#agent-configuration-directory +[3]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[4]: https://github.com/DataDog/integrations-core/blob/7.33.x/exchange_server/datadog_checks/exchange_server/data/conf.yaml.example +[5]: https://docs.datadoghq.com/ko/help/ +[6]: https://github.com/DataDog/integrations-core/blob/master/exchange_server/datadog_checks/exchange_server/data/conf.yaml.example +[7]: https://docs.datadoghq.com/ko/agent/guide/agent-commands/#agent-status-and-information +[8]: https://github.com/DataDog/integrations-core/blob/master/exchange_server/metadata.csv \ No newline at end of file diff --git a/content/ko/integrations/hazelcast.md b/content/ko/integrations/hazelcast.md index 64e06572cee0e..0cec1135558dc 100644 --- a/content/ko/integrations/hazelcast.md +++ b/content/ko/integrations/hazelcast.md @@ -37,7 +37,7 @@ draft: false git_integration_title: Hazelcast integration_id: Hazelcast integration_title: Hazelcast -integration_version: 6.0.0 +integration_version: 6.2.0 is_public: true manifest_version: 2.0.0 name: Hazelcast diff --git a/content/ko/integrations/mongodb_atlas.md b/content/ko/integrations/mongodb_atlas.md new file mode 100644 index 0000000000000..6fcef41ca0c69 --- /dev/null +++ b/content/ko/integrations/mongodb_atlas.md @@ -0,0 +1,139 @@ +--- +app_id: mongodb-atlas +app_uuid: d7f734da-a1f7-4e3f-a590-ea154018a8d8 +assets: + dashboards: + MongoDB-Atlas-Overview: assets/dashboards/MongoDB-Atlas-Overview_dashboard.json + MongoDB-Atlas-Vector-Search-Overview: assets/dashboards/MongoDB-Atlas-Vector-Search-Overview_dashboard.json + MongoDB-dbStats-collStats-Dashboard: assets/dashboards/MongoDB-Atlas-dbStats-collStats_dashboard.json + integration: + auto_install: true + configuration: {} + events: + creates_events: true + metrics: + check: mongodb.atlas.connections.current + metadata_path: metadata.csv + prefix: mongodb.atlas. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 230 + source_type_name: MongoDB Atlas + monitors: + CPU usage is higher than expected: assets/monitors/high_cpu.json + Memory usage is higher than normal: assets/monitors/memory.json + Query efficiency is degrading: assets/monitors/query_efficiency.json + Read latency is higher than expected: assets/monitors/read_latency.json + Write latency is higher than expected: assets/monitors/write_latency.json +author: + homepage: https://www.mongodb.com + name: MongoDB + sales_email: field@mongodb.com + support_email: frank.sun@mongodb.com +categories: +- ai/ml +- 메트릭 +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-extras/blob/master/mongodb_atlas/README.md +display_on_public_website: true +draft: false +git_integration_title: mongodb_atlas +integration_id: mongodb-atlas +integration_title: MongoDB Atlas +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: mongodb_atlas +public_title: MongoDB Atlas +short_description: Atlas 읽기/쓰기 성능, 벡터 검색 메트릭 등을 추적하세요. +supported_os: +- 리눅스 +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::AI/ML + - Category::Metrics + - 제공::통합 + configuration: README.md#Setup + description: Atlas 읽기/쓰기 성능, 벡터 검색 메트릭 등을 추적하세요. + media: + - caption: MongoDB Atlas 개요 대시보드 + image_url: images/mongodb_atlas_dashboard.png + media_type: 이미지 + - caption: MongoDB Atlas Vector 검색 개요 대시보드 + image_url: images/mongodb_atlas_vector_search_dashboard.png + media_type: 이미지 + overview: README.md#Overview + resources: + - resource_type: 블로그 + url: https://www.datadoghq.com/blog/monitor-atlas-performance-metrics-with-datadog/ + - resource_type: 기타 + url: https://www.mongodb.com/products/platform/atlas-for-government + support: README.md#Support + title: MongoDB Atlas +--- + + +## 개요 + +계산된 메트릭을 Datadog로 푸시할 수 있습니다. + +- 핵심 MongoDB Atlas 메트릭을 시각화하세요. +- MongoDB Atlas Vector 검색 메트릭을 시각화하세요. +- 전체 MongoDB Atlas 성능과 나머지 애플리케이션의 상관관계를 파악하세요. + +통합에는 즉시 사용 가능한 모니터와 전용 대시보드가 포함되어 있어 Atlas 상태 및 성능 메트릭을 확인할 수 있습니다. 처리량 메트릭을 모니터링하고 시간 경과에 따른 읽기/쓰기 작업의 평균 지연 시간을 추적하고 현재 연결 수가 최대 한도에 가까워지면 알려주는 모니터를 생성할 수 있습니다. + +MongoDB Atlas Vector 검색 메트릭을 사용하면 Atlas Vector 검색을 사용하여 고성능의 차세대 AI 애플리케이션을 색인, 검색 및 구축할 수 있습니다. + +**참고**: MongoDB Atlas는 M10+ 클러스터에서만 사용할 수 있습니다. + +## 설정 + +### 설치 + +Atlas 포털에 로그인하여 MongoDB Atlas 통합을 설치할 수 있습니다. + +### 설정 + +1. Datadog [API 키][1]를 검색하거나 생성합니다. +2. [Atlas 포털][2]의 **통합** -> **Datadog 설정**에서 Datadog API 키를 입력합니다. + +## 수집한 데이터 + +### 메트릭 +{{< get-metrics-from-git "mongodb_atlas" >}} + + +### 이벤트 + +MongoDB Atlas는 Datadog에 이벤트로 [알림][4]을 푸시할 수 있습니다. + +### 서비스 점검 + +MongoDB Atlas 통합에는 서비스 점검이 포함되어 있지 않습니다. + +## 트러블슈팅 + +도움이 필요하세요? [Datadog 지원팀에 문의][5]하세요. + +## 참고 자료 + +기타 유용한 문서, 링크 및 기사: + +- [Datadog를 사용해 MongoDB Atlas 모니터링][6] +- [정부용 MongoDB Atlas][7] + +[1]: https://app.datadoghq.com/organization-settings/api-keys +[2]: https://docs.atlas.mongodb.com/tutorial/monitoring-integrations/#procedure +[3]: https://github.com/DataDog/integrations-extras/blob/master/mongodb_atlas/metadata.csv +[4]: https://www.mongodb.com/docs/atlas/configure-alerts/#std-label-notification-options +[5]: https://docs.datadoghq.com/ko/help/ +[6]: https://www.datadoghq.com/blog/monitor-atlas-performance-metrics-with-datadog/ +[7]: https://www.mongodb.com/products/platform/atlas-for-government \ No newline at end of file diff --git a/content/ko/logs/log_configuration/archives.md b/content/ko/logs/log_configuration/archives.md index edfadca33edff..fdc9ad6041448 100644 --- a/content/ko/logs/log_configuration/archives.md +++ b/content/ko/logs/log_configuration/archives.md @@ -44,10 +44,6 @@ title: 로그 아카이브 {{< tabs >}} {{% tab "AWS S3" %}} -{{< site-region region="gov" >}} -
Role Delegation을 사용한 S3 Log Archives 설정은 현재 제한적으로 제공됩니다. 정부용 Datadog 계정에서 이 기능을 요청하려면 Datadog 지원팀에 문의하세요.
-{{< /site-region >}} - 아직 설정하지 않은 경우 S3 버킷을 보유한 AWS 계정에 대해 [AWS 통합][1]을 설정합니다. * 일반적인 경우 Datadog이 AWS S3와의 통합에 사용할 수 있는 역할 생성이 포함됩니다. * AWS China 계정인 경우 역할 위임 대신 액세스 키를 사용하세요. @@ -75,7 +71,7 @@ title: 로그 아카이브 ### 스토리지 버킷 생성하기 -{{< site-region region="gov" >}} +{{ < site-region region="gov" > }}
아카이브로 로그를 보내는 것은 Datadog GovCloud 환경 외부에서 일어나며, 이는 Datadog의 통제를 벗어나는 것입니다. Datadog은 FedRAMP, DoD 영향 수준, ITAR, 수출 규정 준수, 데이터 보존 또는 해당 로그에 적용되는 유사 규정과 관련해 사용자가 가질 의무 또는 요구 사항을 포함하되 이에 국한되지 않는 Datadog GovCloud 환경을 떠난 모든 로그에 대해 책임을 지지 않습니다.
{{< /site-region >}} @@ -84,7 +80,7 @@ title: 로그 아카이브 [AWS 콘솔][1]에서 [S3 버킷을 생성하여][2] 아카이브를 보냅니다. -{{< site-region region="gov" >}} +{{ < site-region region="gov" > }}
가상 호스트 스타일 주소를 이용하는 S3 FIPS 엔드포인트와 통합되어 있을 경우 Datadog Archives에서 점(.)이 있는 버킷 이름을 지원하지 않습니다. 자세한 내용은 AWS 설명서를 참고하세요.AWS FIPSAWS Virtual Hosting.
{{< /site-region >}} diff --git a/content/ko/serverless/custom_metrics/_index.md b/content/ko/serverless/custom_metrics/_index.md index 346aabba0ea94..684408b895dde 100644 --- a/content/ko/serverless/custom_metrics/_index.md +++ b/content/ko/serverless/custom_metrics/_index.md @@ -129,13 +129,13 @@ import com.timgroup.statsd.StatsDClient; public class Handler implements RequestHandler { - // statsd 클라이언트의 인스턴스 만들기 + // statsd 클라이언트 시작 private static final StatsDClient Statsd = new NonBlockingStatsDClientBuilder().hostname("localhost").build(); @Override public APIGatewayV2ProxyResponseEvent handleRequest(APIGatewayV2ProxyRequestEvent request, Context context) { - // 분포 메트릭 제출 + // 분배 메트릭 제출 Statsd.recordDistributionValue("my.custom.java.metric", 1, new String[]{"tag:value"}); APIGatewayV2ProxyResponseEvent response = new APIGatewayV2ProxyResponseEvent(); @@ -144,7 +144,7 @@ public class Handler implements RequestHandler例: 以下のような例が考えられます。
+ + 午後 1 時 ~ 1 時 5 分: 100 台の DJM ホスト
+ + 午後 1 時 5 分 ~ 1 時 10 分 : 300 台の DJM ホスト
+ + 午後 1 時 10 分 ~ 1 時 15 分: 150 台の DJM ホスト
+ + 午後 1 時 15 分 ~ 1 時 20 分: 50 台の DJM ホスト
+ + 午後 1 時 20 分 ~ 2 時 (最後の 8 インターバル): 0 台の DJM ホスト + + + 1 時間における各 5 分間隔のユニークホストカウントの合計は、100 + 300 + 150 + 50 = 600 です。1 時間に 5 分間隔のインターバルが + 12 回あるため、この合計を 12 で割って平均を求めると、600 / 12 = 50 となります。 + + + この使用パターンを 1 日 1 回、30 日間続けたとします。この場合、月間の請求可能な DJM ホスト時間は 50 x 30 = 1,500 時間となります。 + + ' + q: DJM の使用量はどのように計算され、どのように請求されますか? +- a: 'DJM ジョブの実行トレースにより、スパンの取り込みとスパンのインデックス化の使用量が発生するため、DJM ホストごとに 1 時間あたり割り当てられた + 0.205 GBの取り込みスパンと 1,370 のインデックス化スパンを超える追加料金が発生する場合があります。 + + + Kubernetes 上の Spark の DJM (K8s) はコンテナ監視の使用量としてカウントされ、ホストあたり DJM コンテナ 10 個が割り当てられます。 + + + DJM 使用時に Spark ログ収集 (オプション) を有効にすると、Datadog Log Management 経由で課金されます。 + + ' + q: DJM を使用すると、他の Datadog 製品を使用することになりますか? +- a: いいえ、DJM が有効なホストはインフラストラクチャーモニタリングを必要とせず、インフラストラクチャーホストとして請求されません。 + q: DJM のホストもインフラストラクチャーのホストに含まれますか? +- a: DJM は AP、EU、米国のデータセンターでご利用いただけます。現在、GovCloud (米国) ではご利用いただけません。 + q: これはすべてのリージョンで利用可能ですか? +features: + main: + - ジョブおよびクラスターの健全性とパフォーマンスの概要 + - 失敗したジョブや長時間稼働しているジョブのアラート + - ジョブの実行パフォーマンス傾向 + - ジョブの実行トレース&メトリクス + - 'リソース使用率メトリクス (例: CPU、メモリ、ディスク)' + - ジョブおよびクラスターの推定コスト + - カスタムダッシュボード + - ユーザー無制限 +name: データジョブのモニタリング +plans: +- key_points: + - データパイプラインの任意の場所で問題のある Spark および Databricks ジョブを検出 + - 失敗したジョブや長時間稼働しているジョブを迅速に修復 + - オーバープロビジョニングされたコンピュートリソースを最適化してコストを削減 + price_helper1: / ホスト、1 時間* + pricing_data_key: DJM-HOST-HR +pricing_nav_categories: +- Application