diff --git a/content/es/logs/log_configuration/archive_search.md b/content/es/logs/log_configuration/archive_search.md new file mode 100644 index 00000000000..57b2e204b89 --- /dev/null +++ b/content/es/logs/log_configuration/archive_search.md @@ -0,0 +1,196 @@ +--- +description: Busca y analiza al instante logs de archivos de larga duración sin tener + que volver a indexarlos. +further_reading: +- link: /logs/explorer/ + tag: Documentación + text: Explorar logs en Datadog +- link: /logs/log_configuration/archives/ + tag: Documentación + text: Configurar archivos de logs +- link: /logs/indexes/ + tag: Documentación + text: Gestionar la retención y la indexación de logs +title: Archive Search +--- + +{{< callout url="https://www.datadoghq.com/product-preview/flex-frozen-archive-search/" btn_hidden="false" >}} +Archive Search está en vista previa. Solicita acceso para buscar logs archivados en tiempo real. Sin reindexación ni retrasos. Accede instantáneamente a años de datos cuando los necesites. +{{< /callout >}} + +## Información general + +Archive Search te permite consultar logs directamente desde archivos de almacenamiento de objetos a largo plazo, sin indexarlos previamente. Utiliza Archive Search para **acceder de forma inmediata a logs archivados**, para investigaciones, auditorías o resolución de problemas más allá de su periodo de retención de indexación. + +Archive Search se diferencia de Rehydration en que transmite los resultados en tiempo real a medida que se escanean los datos, en lugar de ejecutarse como un trabajo en lote en segundo plano. Es más rentable, ya que solo se cobra por el escaneo en sí y los primeros 100 000 logs se conservan temporalmente sin coste alguno, y más rápido. + +Al iniciar una búsqueda: + +* Los logs se envían a una página específica de resultados. +* Se retienen hasta **100 000 logs** durante **24 horas**. +* Opcionalmente, puedes **indexar los resultados** antes o después de la búsqueda para conservarlos durante más tiempo y que estén disponibles en todo Datadog. + +Esta función es compatible con logs archivados a través de: + +- [archivos de Datadog Log Management][1] +- [archivos de Observability Pipelines][2] + +### Casos de uso típicos + +Archive Search es ideal cuando se necesita consultar logs que están almacenados en un archivo externo. +Los casos de uso más comunes son: + +- **Investigaciones de incidentes:** recupera logs vinculados a un `transaction_id`, `user_id` o `session_id` que quedan fuera de tu retención de indexación.
+ *Ejemplo: consulta logs de hace tres semanas utilizando un `user_id` específico, incluso si tu retención indexada es de solo 15 días.* + +- **Análisis de seguridad:** examina logs archivados para investigar intentos de inicio de sesión u otra actividad por IP o usuario.
+ *Ejemplo: recupera todos los intentos de inicio de sesión desde una dirección IP específica en los últimos 12 meses. + +- **Apoyo al cumplimiento de normativas y auditorías:** accede a logs archivados de clientes o facturación para auditorías sin tener que reindexar permanentemente grandes volúmenes de datos.
+ *Ejemplo: consulta de logs relacionados con facturas (`customer_id:12345`, `service:billing`) de los últimos 18 meses para una auditoría fiscal.* + +## Requisitos previos + +Antes de utilizar Archive Search: + +1. Configura un archivo externo (Amazon S3, Azure Storage o Google Cloud Storage). Consulta [Log Archives][3]. +1. Asegúrate de que Datadog tiene permiso para leer del archivo, consulta [Permisos específicos de la nube](#cloud-specific-permissions). + * **Amazon S3:** delegación de roles de IAM + * **Azure Storage:** Azure AD con el rol *Storage Blob Data Contributor* + * **Google Cloud Storage:** cuenta de servicio con el rol *Storage Object Viewer* + +### Permisos + +Los resultados de Archive Search son visibles para todos los usuarios de tu organización que tengan acceso a la función Archive Search. Sin embargo, las **consultas de restricción**, como los filtros de seguridad de logs y las restricciones de datos configuradas en Datadog, se siguen aplicando en la página de resultados y se aplican a todos los usuarios. Esto significa que cada usuario solo puede ver logs que están autorizados a ver sobre la base de los permisos y filtros de toda la organización. + +Para obtener más información sobre los controles de acceso y la seguridad de logs, consulta [Cómo configurar RBAC para logs][6]. + +## Iniciar una búsqueda + +1. Ve a [**Logs > Archive Search > New Search**][4] (Logs > Archive Search > Nueva búsqueda). +2. Selecciona un archivo y un intervalo de tiempo. +3. Introduce una consulta, como `user_id:abc123`. +4. (Opcional) Cambia el nombre de la búsqueda. +5. (Opcional) Habilita la indexación antes de iniciar la búsqueda. +6. Haz clic en **Search** (Buscar). + +Los logs aparecen en tiempo real en la página de resultados. Una barra de progreso muestra el estado del escaneo, y puedes detener la búsqueda en cualquier momento. + +## Vista previa de la consulta + +Al crear o configurar una búsqueda, Datadog descarga una pequeña muestra (hasta 1000 logs) del archivo y el intervalo de tiempo seleccionados. +Utiliza esta vista previa para verificar la sintaxis de la consulta, inspeccionar la estructura del log y ajustar los filtros. + +**Nota**: Es posible que la muestra de vista previa no incluya logs que coincidan con tu consulta. Es solo para validación y exploración. + +## Ver y conservar los resultados + +Por defecto, solo se cobra por el escaneo. Los primeros 100 000 logs se almacenan temporalmente (24 horas) sin coste alguno y son accesibles directamente en las páginas de resultados de Archive Search, donde puedes hacer clic en cualquier log para ver todos tus detalles y contexto. Transcurridas 24 horas, los resultados caducan automáticamente. + +Para conservar más datos o acceder a logs en otros productos de Datadog, elige una de las siguientes opciones: + +- **Índice antes del lanzamiento**: + Conserva más de 100 000 logs, establece un periodo de retención personalizado (por ejemplo, 7, 15 o 30 días) y accede a los resultados en toda la plataforma de forma inmediata. +- **Índice tras la finalización**: + Durante el intervalo de 24 horas, puedes indexar los resultados para ampliar su retención y hacer que estén disponibles en el Log Explorer, dashboards y notebooks. + +## Analizar los resultados + +Tras iniciar una búsqueda, los logs aparecen en **Archive Search Results** (Resultados de Archive Search). Desde la página, puedes utilizar filtros para limitar los resultados y abrir detalles específicos de logs para investigar los problemas. + +### Limitaciones + +Aunque la búsqueda de archivos proporciona acceso a los logs archivados, sus capacidades analíticas son limitadas en comparación con los logs indexados: + +- **Sin agregaciones ni análisis**: no se pueden ejecutar agregaciones, crear visualizaciones ni realizar análisis avanzados directamente en los resultados de Archive Search. +- **Solo resultados de la página**: los resultados de Archive Search solo están disponibles en los resultados específicos de la página y no pueden consultarse desde otras partes de la plataforma de Datadog (como dashboards, notebooks o el Log Explorer). + +Para habilitar el análisis completo y la visibilidad en toda la plataforma, debes indexar los resultados de la búsqueda (ya sea antes de iniciar la búsqueda o después de completarla dentro del intervalo de 24 horas). Una vez indexados, los logs estarán disponibles en todos los productos de Datadog con todas las funciones de agregación, visualización y análisis. + + +## Gestionar las búsquedas + + + +Desde la [**vista de lista de Archive Search**][5], puedes: + +- **Detener** una búsqueda en curso: conserva logs ya recuperados. +- **Duplicar** una búsqueda: abre el formulario de creación de la búsqueda de archivo con los mismos parámetros para una repetición eficaz. + +## Rendimiento de búsqueda y volumen de escaneo + +Archive Search escanea los archivos de log archivados dentro del intervalo de tiempo seleccionado. El **volumen de escaneo** es el tamaño total de los archivos leídos durante la consulta. Los volúmenes de escaneo grandes pueden aumentar el tiempo y el coste de la búsqueda. + +Para mejorar el rendimiento de las consultas y reducir el volumen de escaneo: +- Reduce el intervalo de tiempo y utiliza filtros selectivos. +- Los administradores con permiso **Logs Write Archives** pueden establecer límites máximos de log y duraciones de retención disponibles. + +## Permisos específicos de la nube + +Datadog requiere el permiso de lectura de tus archivos para buscar contenido en ellos. Este permiso puede cambiarse en cualquier momento. + +{{< tabs >}} +{{% tab "Amazon S3" %}} + +Para rehidratar eventos de log desde tus archivos, Datadog utiliza el rol de IAM en tu cuenta de AWS que configuraste para [tu integración de AWS][1]. Si aún no has creado ese rol, [sigue estos pasos para hacerlo][2]. Para permitir que ese rol rehidrate eventos de log desde tus archivos, añade la siguiente declaración de permiso a sus políticas de IAM. Asegúrate de editar los nombres de los buckets y, si lo deseas, especifica las rutas que contienen tus archivos de log. + +```json +{ + "Version": "2012-10-17", + "Statement": [ + { + "Sid": "DatadogUploadAndRehydrateLogArchives", + "Effect": "Allow", + "Action": ["s3:PutObject", "s3:GetObject"], + "Resource": [ + "arn:aws:s3:::/*", + "arn:aws:s3:::/*" + ] + }, + { + "Sid": "DatadogRehydrateLogArchivesListBucket", + "Effect": "Allow", + "Action": "s3:ListBucket", + "Resource": [ + "arn:aws:s3:::", + "arn:aws:s3:::" + ] + } + ] +} +``` + +### Añadir la delegación de roles a archivos de S3 + +Datadog solo admite búsquedas en archivos que se hayan configurado para utilizar la delegación de roles para conceder acceso. Una vez que hayas modificado el rol de IAM de Datadog para incluir la política de IAM anterior, asegúrate de que cada archivo de tu [página de configuración de archivos][3] tenga la combinación correcta de cuenta + rol de AWS. + +[1]: https://app.datadoghq.com/account/settings#integrations/amazon-web-services +[2]: /es/integrations/amazon-web-services/#aws-iam-permissions +[3]: https://app.datadoghq.com/logs/pipelines/archives +{{% /tab %}} + +{{% tab "Azure Storage" %}} + +Datadog utiliza un grupo de Azure AD con el rol Storage Blob Data Contributor asignado a la cuenta de almacenamiento de tus archivos para buscar eventos de log. Puedes otorgar este rol a tu cuenta de servicio de Datadog desde la página de Control de acceso (IAM) de tu cuenta de almacenamiento [al asignar el rol Storage Blob Data Contributor a tu aplicación de integración de Datadog][1]. + +[1]: /es/logs/archives/?tab=azurestorage#create-and-configure-a-storage-bucket +{{% /tab %}} + +{{% tab "Google Cloud Storage" %}} + +Para buscar eventos de log desde tus archivos, Datadog utiliza una cuenta de servicio con el rol Storage Object Viewer. Puedes otorgar este rol a tu cuenta de servicio de Datadog desde la [página Google Cloud IAM Admin][1] al editar los permisos de la cuenta de servicio, añadir otro rol y, a continuación, seleccionar **Storage > Storage Object Viewer** (Almacenamiento > Storage Object Viewer**. + +[1]: https://console.cloud.google.com/iam-admin/iam +{{% /tab %}} +{{< /tabs >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://docs.datadoghq.com/es/logs/log_configuration/archives/?tab=awss3&site=us +[2]: https://docs.datadoghq.com/es/observability_pipelines/destinations/amazon_s3/?tab=docker +[3]: https://docs.datadoghq.com/es/logs/log_configuration/archives/?tab=awss3&site=us +[4]: https://app.datadoghq.com/logs/archive-search/new +[5]: https://app.datadoghq.com/logs/archive-search/ +[6]: /es/logs/guide/logs-rbac/?tab=ui#restrict-access-to-logs \ No newline at end of file diff --git a/content/ja/integrations/dbt_cloud.md b/content/ja/integrations/dbt_cloud.md new file mode 100644 index 00000000000..ae299a22d42 --- /dev/null +++ b/content/ja/integrations/dbt_cloud.md @@ -0,0 +1,134 @@ +--- +app_id: dbt-cloud +app_uuid: b237cca3-e51e-400b-ae1d-960d0cab286b +assets: + dashboards: + dbt Cloud Overview: assets/dashboards/dbt_cloud_overview.json + integration: + auto_install: false + events: + creates_events: false + metrics: + check: + - dbt_cloud.runs.total + metadata_path: metadata.csv + prefix: dbt_cloud. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 24633362 + source_type_name: DBT Cloud + monitors: + High runs error rate: assets/monitors/high_runs_error_rate.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- cloud +- developer tools +- metrics +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: dbt_cloud +integration_id: dbt-cloud +integration_title: dbt Cloud +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: dbt_cloud +public_title: dbt Cloud +short_description: dbt Cloud アカウントから、実行の統計、ジョブ パフォーマンスなどを取得します。 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Cloud + - Category::Developer Tools + - Category::Metrics + - Offering::Integration + - Submitted Data Type::Metrics + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + configuration: README.md#Setup + description: dbt Cloud アカウントから、実行の統計、ジョブ パフォーマンスなどを取得します。 + media: + - caption: dbt Cloud ダッシュボード + image_url: images/dbt-dashboard-screenshot.png + media_type: image + overview: README.md#Overview + resources: + - resource_type: blog + url: https://www.datadoghq.com/blog/monitor-dbt-cloud-with-datadog/ + support: README.md#Support + title: dbt Cloud +--- + + + + +## 概要 + +Datadog の [dbt Cloud][1] インテグレーションを利用すると、dbt の実行、モデル、テストに関する主要なメトリクスを収集し、可視化できます。dbt Cloud を Datadog と統合することで、次のことが可能になります。 + +- dbt の実行のパフォーマンスと健全性を監視する +- 実行、モデル、テストの実行時間、コンパイル時間、ステータス コードを可視化する +- スタック内の他サービスのデータと dbt メトリクスを関連付ける + +## セットアップ + +### 前提条件 + +- dbt Cloud アカウント +- 必要な権限を持つ API トークン + +### ステップ 1: dbt Cloud で API Token を生成する + +1. dbt Cloud で **User Profile** > **API Tokens** > **Service Tokens** を開きます。 +2. **+ Create Service Token** をクリックします。 +3. トークンの名前を入力します。 +4. トークンの権限を次のように設定します。 + - Administrative API メトリクスの場合は、トークンに runs と jobs へのアクセス権があることを確認します。 + - Discovery API メトリクスの場合 (任意) は、トークンに **Metadata API** の権限があり、プロジェクトで [Discovery API を有効化][2] 済みであることを確認します。 +5. **Save** をクリックし、生成された **API Token** をコピーします。 + +### ステップ 2: dbt Cloud アカウントを Datadog に接続する + +1. Datadog プラットフォームで **Integrations** に移動します。 +2. **dbt Cloud** を検索し、インテグレーションを選択します。 +3. アカウント ドメイン、metadata ドメイン (任意)、API トークンを入力します。 +4. **Save** ボタンをクリックして設定を保存します。 + +## 収集データ + +### メトリクス +{{< get-metrics-from-git "dbt_cloud" >}} + + +### サービス チェック + +dbt Cloud インテグレーションには、サービス チェックは含まれません。 + +### イベント + +dbt Cloud インテグレーションには、イベントは含まれません。 + +## 参考資料 + +お役に立つドキュメント、リンクや記事: +- [Datadog で dbt Cloud を監視する][3] + +## トラブルシューティング + +お困りの際は、[Datadog サポート][4] までお問い合わせください。 + +[1]: https://www.getdbt.com/product/dbt-cloud +[2]: https://docs.getdbt.com/docs/dbt-cloud-apis/discovery-api +[3]: https://www.datadoghq.com/blog/monitor-dbt-cloud-with-datadog/ +[4]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/nvidia_nim.md b/content/ja/integrations/nvidia_nim.md new file mode 100644 index 00000000000..bc3de4fb284 --- /dev/null +++ b/content/ja/integrations/nvidia_nim.md @@ -0,0 +1,141 @@ +--- +app_id: nvidia-nim +app_uuid: c7307eb9-7bbf-4dae-b74f-6396bf5bf514 +assets: + dashboards: + NVIDIA NIM Overview: assets/dashboards/nvidia_nim_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: nvidia_nim.num_requests.running + metadata_path: metadata.csv + prefix: nvidia_nim. + process_signatures: + - vllm_nvext.entrypoints.openai.api_server + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 30338252 + source_type_name: nvidia_nim + monitors: + Average Request Latency is High: assets/monitors/latency.json + saved_views: + NVIDIA NIM Errors: assets/saved_views/nim_errors.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- log collection +- ai/ml +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/nvidia_nim/README.md +display_on_public_website: true +draft: false +git_integration_title: nvidia_nim +integration_id: nvidia-nim +integration_title: Nvidia NIM +integration_version: 1.1.0 +is_public: true +manifest_version: 2.0.0 +name: nvidia_nim +public_title: Nvidia NIM +short_description: Datadog 向けの NVIDIA NIM インテグレーションは、監視用の Prometheus メトリクスを収集し、GPU + の状態をリアル タイムに把握できるようにします。 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Log Collection + - Category::AI/ML + - Submitted Data Type::Metrics + - Offering::Integration + configuration: README.md#Setup + description: Datadog 向けの NVIDIA NIM インテグレーションは、監視用の Prometheus メトリクスを収集し、GPU の状態をリアル + タイムに把握できるようにします。 + media: [] + overview: README.md#Overview + support: README.md#Support + title: Nvidia NIM +--- + + + + +## 概要 + +このチェックは Datadog Agent を通じて [NVIDIA NIM][1] を監視します。 + +## セットアップ + +
+このインテグレーションは現在プレビュー版です。将来、提供状況が変更される可能性があります。 +
+ +以下の手順に従って、ホスト上で動作する Agent にこのチェックをインストールし、設定してください。コンテナ環境の場合は、これらの手順を適用する方法について [Autodiscovery Integration テンプレート][2] を参照してください。 + +**要件**: +- このチェックには Agent v7.61.0+ が必要です。 +- このチェックはメトリクス収集に [OpenMetrics][3] を使用します。動作には Python 3 が必要です。 + +`### Installation +NVIDIA NIM チェックは [Datadog Agent][4] パッケージに含まれています。サーバーで追加のインストールは不要です。 + +#### LLM Observability: LLM アプリケーションから NVIDIA Nim への呼び出しをエンド ツー エンドで可視化 +NVIDIA NIM は、[NVIDIA NIM][5] からの API 呼び出しを処理するために OpenAI クライアントを使用します。NVIDIA NIM を使用するアプリケーションを監視し、LLM Observability を設定するには、[OpenAI インテグレーション][6] のドキュメントの手順に従ってください。 +` +### 構成 + +NVIDIA NIM はリクエスト統計を示す Prometheus [メトリクス][1] を提供します。デフォルトでは、これらのメトリクスは http://localhost:8000/metrics で公開されています。Datadog Agent はこのインテグレーションを使用して、公開されているメトリクスを収集できます。以下の手順に従い、各コンポーネントの一部またはすべてからのデータ収集を設定してください。 + +NVIDIA NIM のパフォーマンス データの収集を開始するには: +1. Agent の設定ディレクトリ直下にある `conf.d/` フォルダー内の `nvidia_nim.d/conf.yaml` を編集し、NVIDIA NIM のパフォーマンス データを収集するように設定します。利用可能な設定オプションは、[サンプル nvidia_nim.d/conf.yaml][7] を参照してください。 + +2. [Agent を再起動します][8]。 + +### 検証 + +[Agent の status サブコマンドを実行][9] し、Checks セクションに `nvidia_nim` が表示されることを確認してください。 + +## 収集データ + +### メトリクス +{{< get-metrics-from-git "nvidia_nim" >}} + + +### イベント + +NVIDIA NIM インテグレーションにはイベントは含まれません。 + +### サービス チェック +{{< get-service-checks-from-git "nvidia_nim" >}} + + +## トラブルシューティング + +ご不明な点は、[Datadog のサポートチーム][12]までお問合せください。 + + +[1]: https://docs.nvidia.com/nim/large-language-models/latest/observability.html +[2]: https://docs.datadoghq.com/ja/agent/kubernetes/integrations/ +[3]: https://docs.datadoghq.com/ja/integrations/openmetrics/ +[4]: https://app.datadoghq.com/account/settings/agent/latest +[5]: https://www.nvidia.com/en-us/ai/ +[6]: https://docs.datadoghq.com/ja/integrations/openai +[7]: https://github.com/DataDog/integrations-core/blob/master/nvidia_nim/datadog_checks/nvidia_nim/data/conf.yaml.example +[8]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[9]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information +[10]: https://github.com/DataDog/integrations-core/blob/master/nvidia_nim/metadata.csv +[11]: https://github.com/DataDog/integrations-core/blob/master/nvidia_nim/assets/service_checks.json +[12]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/security/research_feed.md b/content/ja/security/research_feed.md new file mode 100644 index 00000000000..2cf33024c76 --- /dev/null +++ b/content/ja/security/research_feed.md @@ -0,0 +1,35 @@ +--- +title: Security Research Feed +--- + +Datadog の Security Research Feed は、セキュリティ関連コンテンツを継続的に更新し、組織が新たに出現する脅威や脆弱性に先回りして備えられるよう支援します。Datadog のセキュリティ リサーチ チームとディテクション エンジニアリング チームが運用し、重要なセキュリティ動向についてタイムリーな知見を提供します。内容には、次のようなものが含まれます: + +- **Emerging vulnerabilities and threats**: インフラに影響し得る、新たに発見された脆弱性や現在進行中の攻撃キャンペーンに関する更新です。これらの更新により、セキュリティ チームは検知カバレッジを評価し、影響を受けるシステムを特定し、想定される影響を見積もれます。 +- **New detection content**: Datadog のディテクション エンジニアリング チームがリリースした最新の検知です。新しい戦術、技術、手順 (TTP) や、対応しているディテクション パックも含まれます。 +- **Product updates**: Datadog のセキュリティ機能の強化に関する更新です。環境の監視と保護を、より確実に行えるようにします。 + +{{< img src="security/security_research_feed.png" alt="ブログ記事、プロダクト アップデート、新たに登場した脆弱性、新しい検知などのセキュリティ更新を表示する Security Research Feed" width="100%">}} + +## 仕組み + +セキュリティ リサーチ チームとディテクション エンジニアリング チームは、脅威の状況を継続的に監視し、新たな脅威が現れ次第、すぐに更新を公開します。これにより、セキュリティ担当者は次の情報を迅速に入手できます。 + +- 最新のセキュリティ トレンドに関する専門的な分析 +- 脆弱性や脅威の影響を評価するためのコンテキスト情報 +- 効果的な検知と対応戦略を実装するためのガイダンス + +## 新たに登場した脆弱性の基準 + +新たに登場した脆弱性とは、ビジネス運用に重大な脅威をもたらし得る技術上のセキュリティ上の弱点を指し、次の基準の 1 つ以上を満たします: + +- **広範な影響**: 多数のシステムや組織に影響し、アタック サーフェスが広い状態を生み出します。 +- **深刻度が高い**: 悪用のしやすさや想定される被害の大きさから、直ちに対応すべきセキュリティ上の懸念となります。 +- **注目度が高い**: セキュリティ コミュニティや一般ニュースで広く取り上げられ、認知度と緊急度が高まっています。 + +## 新たに登場した脅威の基準 + +新たに登場した脅威とは、新規または進化中の攻撃キャンペーン、あるいはサプライ チェーン攻撃で、すでにビジネス運用に支障を与えた、または重大な脅威となっているものを指します。次の基準の 1 つ以上を満たします: + +- **広範な影響**: 広域の無差別攻撃、または標的型キャンペーンによって、すでに多数のシステムや組織に影響を与えています。 +- **差し迫った脅威**: すでに影響が出ている、または今後エスカレートすると見込まれ、近い将来、多くの組織が攻撃を受ける可能性があります。 +- **注目度が高い**: セキュリティ コミュニティや一般ニュースで広く取り上げられ、認知度と緊急度が高まっています。 \ No newline at end of file diff --git a/content/ja/software_catalog/scorecards/using_scorecards.md b/content/ja/software_catalog/scorecards/using_scorecards.md new file mode 100644 index 00000000000..ac31a8e36fe --- /dev/null +++ b/content/ja/software_catalog/scorecards/using_scorecards.md @@ -0,0 +1,71 @@ +--- +aliases: +- /ja/tracing/software_catalog/scorecards/using_scorecards +- /ja/tracing/service_catalog/scorecards/using_scorecards +- /ja/service_catalog/scorecards/using_scorecards +further_reading: +- link: /tracing/software_catalog/ + tag: ドキュメント + text: Software Catalog +- link: /api/latest/service-scorecards/ + tag: ドキュメント + text: Scorecards API +- link: https://www.datadoghq.com/blog/service-scorecards/ + tag: ブログ + text: Scorecards を使ってサービスの可観測性におけるベストプラクティスを優先し、推進する +- link: https://www.datadoghq.com/blog/datadog-custom-scorecards/ + tag: ブログ + text: カスタム Scorecards でベストプラクティスを形式化する +- link: /continuous_integration/dora_metrics/ + tag: ドキュメント + text: Datadog を使用して DORA メトリクスを追跡する +title: Scorecards の使用 +--- + +{{< callout url="#" btn_hidden="true" header="false" >}} +Scorecards はプレビュー版です。 +{{< /callout >}} + +Scorecards を設定すると、サービス単位のスコアを確認したり、スコアの推移を追跡したり、Scorecard レポートを生成してチームへ Scorecard 情報を自動共有したりできます。 + +## サービス レベルの詳細とスコアを確認する + +Scorecard のサマリーは Software Catalog の [**Explore** ページ][1] で確認できます。**Ownership** タブの **Scorecards** 列に表示され、各 Scorecard について、対象のサービス (またはサービスの絞り込み結果) がどの程度達成できているか、さらに各 Scorecard 内のルールの状況も把握できます。 + +Scorecard から **View Details** をクリックするか、サービス詳細のサイド パネルを開くと **Scorecards** タブが表示されます。このタブには、すべての Scorecards と各ルール、そしてそのサービスにおける各ルールの合否 (pass-fail) が一覧表示されます。 + +## スコアの推移を追跡する + +Scorecards UI では、履歴の時系列データを使って、チームが変更を加えたり既知の問題を修正したりする中で、スコアが時間とともにどう改善していくかを可視化できます。これらの時系列は Dashboards や Notebooks にエクスポートすることもでき、`team`、`rule`、`scorecard`、`application`、`tier`、`lifecycle` などのタグでフィルタリングできます。 + +{{< img src="/tracing/software_catalog/scorecard-historical-metrics.png" alt="Scorecard UI でスコアの推移を示す時系列" style="width:90%;" >}} + +## Scorecard レポートを生成する + +Scorecard レポートを生成すると、Scorecard 情報の概要がスケジュール配信され、チームの Slack チャンネルに送られます。これにより、サービスやチームが期待される基準をどの程度満たしているかを全員が把握しやすくなります。レポートを作成すると、[Datadog Workflow Automation][2] を使用した Workflow が生成され、指定したスケジュールで実行されます。 + +
この Workflow の実行は課金に影響する場合があります。詳細は pricing page を参照してください。
+ +レポートを作成するには: + +1. Scorecards ページで **Create Report** をクリックします。 +2. 組織内で定義されているすべてのサービスを対象にするか、特定チームのサービスに限定するかを選択します。 +3. レポートを受け取りたい日付、時刻、頻度を設定します。 +4. 送信先の Slack workspace とチャンネルを設定します。選択したチャンネルは公開チャンネルであり、Datadog Slack アプリがインストールされている必要があります。 +5. **Enable this Workflow** をクリックします。 + +この設定に基づき、Datadog はスコアが最も高い / 低いルール、サービス、チームに関するレポートを送信します。 + +{{< img src="/tracing/software_catalog/scorecard-reports.png" alt="全サービス向けレポートの作成方法を示す Scorecard レポート作成モーダル" style="width:90%;" >}} + + +### Scorecard レポートを管理する +Workflow を編集または削除するには、Scorecards ページで **Manage Reports** をクリックして対象の Workflow を選択します。Settings メニューから Workflow を編集するか、削除してください。 + + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/services +[2]: /ja/service_management/workflows/ \ No newline at end of file