その他のヘルプを参照します。
diff --git a/src/i18n/content/jp/docs/apm/agents/php-agent/getting-started/php-agent-compatibility-requirements.mdx b/src/i18n/content/jp/docs/apm/agents/php-agent/getting-started/php-agent-compatibility-requirements.mdx
index 1f1170b58dc..0fd677d6337 100644
--- a/src/i18n/content/jp/docs/apm/agents/php-agent/getting-started/php-agent-compatibility-requirements.mdx
+++ b/src/i18n/content/jp/docs/apm/agents/php-agent/getting-started/php-agent-compatibility-requirements.mdx
@@ -100,7 +100,7 @@ New Relic は40文字の16進数の文字列
## オペレーティングシステム [#operating-systems]
-ベンダーがサポート終了([Ubuntoの標準サポート終了ページ](https://wiki.ubuntu.com/Releases)など)を発表した場合、当社ではこれらの最新バージョンのサポートを1年間継続します。ただし、使用しているPHPバージョンが正式にサポートされなくなった場合は、1年未満でサポートが終了する可能性があります。
+ベンダーがサポート終了([Ubuntuの標準サポート終了ページ](https://wiki.ubuntu.com/Releases)など)を発表した場合、当社ではこれらの最新バージョンのサポートを1年間継続します。ただし、使用しているPHPバージョンが正式にサポートされなくなった場合は、1年未満でサポートが終了する可能性があります。
このため、ベンダーによる正式サポートの最新バージョンのOSを常に使用することをお勧めします。エージェントの最新バージョンは、サポート終了を過ぎたOSバージョンでも動作する可能性がありますが、古いバージョンのPHPエージェントはより長期間にわたってテストまたは正式にサポートされます。
diff --git a/src/i18n/content/jp/docs/data-apis/manage-data/manage-data-retention.mdx b/src/i18n/content/jp/docs/data-apis/manage-data/manage-data-retention.mdx
index ef05e9cd1e8..0700e9197d1 100644
--- a/src/i18n/content/jp/docs/data-apis/manage-data/manage-data-retention.mdx
+++ b/src/i18n/content/jp/docs/data-apis/manage-data/manage-data-retention.mdx
@@ -1,22 +1,22 @@
---
-title: データ保持の確認と管理
+title: データ保持期間の表示と管理
metaDescription: 'New Relic data retention: How long data is stored.'
freshnessValidatedDate: never
-translationType: machine
+translationType: human
---
import accountsEditRetentionSettings from 'images/accounts_screenshot-crop_edit-retention-settings.webp'
import accountsCopyDataRetention from 'images/accounts_screenshot-crop_copy-data-retention.webp'
-[データ管理ハブ](https://one.newrelic.com/data-management-hub)にある **\[データ保持** UI] ページでは、さまざまな種類のデータを保存する期間を確認および管理できます。機密情報を保護するために、一部のデータ タイプの保持期間を短くしたい場合や、長期にわたってデータと傾向を表示および分析できるように、保持期間を長くしたい場合 (最大 7 年間) が必要な場合があります。
+[データ管理ハブにある](https://one.newrelic.com/data-management-hub)**Data retention** \[データ保持期間]UI ページでは、さまざまな種類のデータの保存期間を確認および管理できます。機密情報を保護するために、一部のデータタイプの保持期間を短くする必要がある場合や、長期間にわたるデータやトレンドを確認および分析できるように、より長い保持期間(最大7年間)が必要になる場合があります。
## 長期的な分析とコンプライアンスのためにデータ保持期間を延長
-データ保持期間を延長すると、すべてのソースにわたるすべてのメトリクス、イベント、ログ、およびトレースに対して、長期的な分析、視覚化、およびアラートを実行できます。ただし、コスト、パフォーマンス、および場合によってはコンプライアンス上の理由から、そのデータを管理することが重要です。当社のデータ管理ハブは、データがどこから来ているかを理解して制御し、保存する内容と保存期間を調整するために必要なツールを提供します。
+データ保持期間を延長すると、すべてのソースにわたるすべてのメトリクス、イベント、ログ、トレースの長期的な分析、視覚化、アラートを実行できるようになります。ただし、コスト、パフォーマンス、場合によってはコンプライアンス上の理由から、そのデータを管理することが重要です。当社のデータ管理ハブでは、必要なツールを用意し、データの出所を理解して制御し、何をどのくらいの期間保存するかを調整します。
- [Data Plus オプション](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/#data-plus)を使用すると、最大 90 日間の保存期間が追加され (ほとんどのデータ タイプで)、その他のエンタープライズ レベルの機能 (クエリ期間の延長、FedRAMP および HIPAA コンプライアンス、追加のセキュリティ機能など) が得られます。
+ [Data Plusオプション](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/#data-plus)を使用すると、(ほとんどのデータタイプに対して)最大90日間の追加の保持期間が得られるほか、クエリ期間の延長、FedRAMPおよびHIPAAへの準拠、追加のセキュリティ機能など、その他のエンタープライズグレードの機能も利用できます。
- **データ保持**UI では、データ保持期間を確認したり、データ保持を編集したりできます。表の列ヘッダーの説明を表示するには、ヘッダーにカーソルを合わせます。
+ **Data retention** \[データ保持期間]UI では、データ保持期間を確認し、データ保持期間を編集できます。テーブルの列ヘッダーの説明を表示するには、ヘッダーの上にマウスを置きます。
## 要件 [#requirements]
-データ保持を構成するには、課金管理者権限を持つ Pro または Enterprise エディションが必要です。この基準を満たさないアカウントの特性は、一部の New Relic 組織が保持を独自に調整することを妨げます。請求管理者アカウントの Pro または Enterprise 組織であり、保持を編集できない場合は、New Relic アカウント担当者にお問い合わせください。
+データ保持期間を設定するには、請求アドミニストレーター権限を持つProまたはエンタープライズエディションが必要です。この基準を満たさないアカウントの特性により、一部のNew Relic組織は保持期間を独自に調整することができなくなります。請求アドミニストレーターアカウントを使用しているProまたはエンタープライズの組織で、保持期間を編集できない場合は、New Relicアカウント担当者にお問い合わせください。
-[Data Plus オプション](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/#data-plus)では、さらに 90 日間の保存期間が提供されることに注意してください。
+[Data Plusオプション](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/#data-plus)では、さらに最大90日間の保持期間が提供されます。
-保持を表示および編集するための権限関連の要件:
+保持期間を表示および編集するための権限関連の要件:
-* [新しいユーザー モデル](/docs/accounts/original-accounts-billing/original-users-roles/overview-user-models):
+* [新しいユーザーモデル](/docs/accounts/original-accounts-billing/original-users-roles/overview-user-models):
- * 組織全体のデータ保持期間を延長する契約を設定するには、 [**課金**管理設定](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts#admin-settings)が必要です
- * 特定の種類のデータまたは特定のアカウントの契約の範囲内で保持を調整するに [は、**Insights event retentionイベント保持** \[Insights イベント保持\] 権限](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions/#data-retention)が必要です
+ * 組織全体に対してデータ保持期間が長くなる契約を設定するには、[**Billing** \[請求\]管理設定](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts#admin-settings)が必要です
+ * 特定の種類のデータまたは特定のアカウントについて契約の範囲内で保持期間を調整するには、[**Insights event retention** \[インサイト イベント保持\] 許可](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions/#data-retention)
-* [元のユーザー モデル](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model): 所有者ロールまたはデータ保持マネージャー アドオン ロールが必要です。
+* [元のユーザーモデル](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model):所有者ロールまたはデータ保持期間マネージャーアドオンロールが必要です
-## データ保持 UI [#find-ui]
+## データ保持期間UI [#find-ui]
-**データ保持**UI ページは、[データ管理ハブ](https://one.newrelic.com/data-management-hub)にあります。
+**Data retention** \[データ保持期間]UI ページは、[Data management hub](https://one.newrelic.com/data-management-hub) \[データ管理ハブ]にあります。
-## デフォルトの保持期間 [#retention-periods]
+## 初期設定のデータ保持期間 [#retention-periods]
-New Relic のデータ保持を理解する最善の方法は、**データ保持**UI ページに移動することです。組織が設定を編集した可能性があり、以下に示すデフォルト設定ではない可能性があるため、これをお勧めします。
+New Relicデータ保持期間を理解する最良の方法は、**Data retention** \[データ保持期間]UI ページにアクセスすることです。組織が設定を編集している可能性があり、以下に示す初期設定ではない可能性があるため、アクセスして確認してください。
-この表は、デフォルトの[名前空間](/docs/glossary/glossary)保持設定を示しています。
+この表は、デフォルトの[ネームスペース](/docs/glossary/glossary)保持設定を示しています。
- 情報源
+ データソース
|
- 名前空間
+ ネームスペース
|
- [元のデータオプション](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing#data-prices)の保持(日数)
+ [オリジナルデータオプション](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing#data-prices)保持期間(日数)
|
- [Data Plus](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing#data-prices)の保持(日数)
+ [Data Plus](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing#data-prices)保持期間(日数)
|
@@ -100,7 +100,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- APMのエラー
+ APMエラー
|
@@ -136,7 +136,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
|
- すべて ([詳細はこちら](#browser-namespaces))
+ すべて([詳細情報](#browser-namespaces))
|
@@ -186,11 +186,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
|
- インフラストラクチャー
+ インフラストラクチャ
|
- インフラストラクチャプロセス([詳細](#infrastructure-data))
+ Infrastructureプロセス([詳細情報](#infrastructure-data))
|
@@ -204,25 +204,25 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
|
- インフラストラクチャー
+ インフラストラクチャ
|
- インフラストラクチャの統合([詳細](#infrastructure-data))
+ Infrastructureインテグレーション([詳細情報](#infrastructure-data))
|
- 395 (13ヶ月)
+ 395(13か月)
|
- 485 (16ヶ月)
+ 485(16か月)
|
- マーカー ([変更追跡](/docs/change-tracking/change-tracking-introduction))
+ マーカー([変更追跡](/docs/change-tracking/change-tracking-introduction))
|
@@ -230,11 +230,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
|
- 395 (13ヶ月)
+ 395(13か月)
|
- 485 (16ヶ月)
+ 485(16か月)
|
@@ -244,7 +244,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- モバイルの衝突イベントの軌跡(パンくず式)
+ モバイルクラッシュのイベントトレイル(ブレッドクラム)
|
@@ -280,7 +280,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
|
- モバイル総合
+ モバイル一般
|
@@ -348,11 +348,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
|
- 通信網
+ ネットワーク
|
- フロー (クラウド & オンプレミス)
+ フロー(クラウドとオンプレミス)
|
@@ -366,11 +366,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
|
- 通信網
+ ネットワーク
|
- SNMP ([メトリクスを参照](#dimensional-metrics))
+ SNMP([メトリクスを参照](#dimensional-metrics))
|
@@ -384,7 +384,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
|
- 通信網
+ ネットワーク
|
@@ -402,11 +402,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
|
- サーバーレス
+ サーバーレス(Serverless)
|
- ラムダ
+ Lambda
|
@@ -420,11 +420,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
|
- サーバーレス
+ サーバーレス(Serverless)
|
- ラムダカスタム
+ Lambdaカスタム
|
@@ -438,11 +438,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
|
- サーバーレス
+ サーバーレス(Serverless)
|
- ラムダのスパン
+ Lambdaスパン
|
@@ -456,19 +456,19 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
|
- 合成モニタリング(編集不可)
+ 外形監視(編集不可)
|
- 合成データ(編集不可)
+ Synthetic データ(編集不可)
|
- 395 (13ヶ月)
+ 395(13か月)
|
- 395 (13ヶ月)
+ 395(13か月)
|
@@ -478,7 +478,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- 分散型トレース
+ ディストリビューティッド(分散)トレース
|
@@ -492,39 +492,39 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
|
-## さまざまなデータ型の保持の詳細 [#data-details]
+## さまざまなデータ型の保持期間の詳細 [#data-details]
-このセクションでは、変更できない保持設定を持ついくつかのデータタイプを含む、いくつかの異なるタイプのデータについて詳しく説明します。
+このセクションでは、変更できない保持期間設定を持つデータ型をいくつか含む、異なるデータ型について詳しく説明します。
- 生の[ディメンションメトリック](/docs/data-apis/understand-data/new-relic-data-types/#dimensional-metrics)データ( `Metric`データ型)は、いくつかの異なる時間範囲で集計(ロールアップ)され、それらの集計はさまざまな期間保持されます。生のディメンションメトリックデータポイントは30日間保存されます。集約されたデータポイント(集約は1分から開始)は13か月間保持されます。
+ 生の[ディメンションメトリクス](/docs/data-apis/understand-data/new-relic-data-types/#dimensional-metrics)データ(`Metric`データ型)は、いくつかの異なる時間範囲で集計(ロールアップ)され、それらの集計はさまざまな期間保持されます。生のディメンションメトリクスのデータポイントは30日間保存されます。集計されたデータポイント(集約は1分から開始)は13か月間保持されます。
- 生データの取り込みのみが使用量にカウントされます。集約されたデータはカウントされません。
+ 取り込まれた生データのみが使用量としてカウントされます。集計データはカウントされません。
- メトリクスの保存期間は編集できません。
+ メトリクスの保持期間は編集できません。
- [メトリクスのタイムスライス データは](/docs/using-new-relic/data/understand-data/new-relic-data-types#timeslice-data)次のように生成されます。 (カスタムメトリクスとデフォルトメトリクスの両方)、 、およびブラウザエージェント。メトリックのタイムスライスは、メトリック名、メトリックが表す時間のセグメント (「タイムスライス」)、および数値 (測定値) の 3 つの部分で構成されます。APM、 、モバイル エージェントは、エラー率、帯域幅使用量、ガベージ コレクション時間などのさまざまなパフォーマンス メトリックについて、1 分あたり数千のメトリック タイムスライスを収集できます。
+ [メトリックタイムスライスデータ](/docs/using-new-relic/data/understand-data/new-relic-data-types#timeslice-data)は、(カスタムメトリクスとデフォルトメトリクスの両方)、、Browserエージェントによって生成されます。メトリックタイムスライスは、メトリクス名、メトリクスが表す時間のセグメント( 「タイムスライス」)、および数値(測定値)の3つの部分で構成されます。APM、、モバイルエージェントは、エラー率、帯域幅使用量、ガベージコレクションタイムなど、さまざまなパフォーマンスメトリクスに対して、1分あたり数千のメトリックタイムスライスを収集できます。
- メートル単位のタイムスライスデータは、このように集計されます。
+ メトリックタイムスライスデータは次のように集計されます。
- * 8日間保存される1分間のロールアップへの最初の
+ * 最初から1分間のロールアップは8日間保存されます
- * 1分間のロールアップは、90日間保持される1時間のロールアップにも追加されます。
+ * 1分のロールアップは、90日間保持される1時間のロールアップにも追加されます
- 最初の生データの取り込みのみが使用量にカウントされます。集約されたデータはカウントされません。
+ 最初の生データの取り込みのみが使用量にカウントされます。集計データはカウントされません。
- 一部の主要なメトリックは無期限に保存されます。製品ごとの主要な指標については、以下をお読みください。
+ 一部の主要なメトリクスは無期限に保存されます。製品ごとの主要なメトリクスについては、以下をお読みください。
- ここでは、無期限に保存される主要な指標タイムスライスデータを紹介します。
+ 無期限に保存される主要なメトリックタイムスライスデータは次のとおりです。
@@ -534,10 +534,10 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- * [Apdex](/docs/site/apdex-measuring-user-satisfaction), アプリサーバー用
+ * [Apdex](/docs/site/apdex-measuring-user-satisfaction)、アプリサーバー
* スループットとページビュー
- * レスポンスタイムとその内訳 [階層別](/docs/accounts-partnerships/education/getting-started-new-relic/glossary#tier) またはカテゴリー別に [あなたのアプリのメイン **概要** チャート](/docs/apm/applications-menu/monitoring/apm-overview-page)
- * ページのロード時間、および [のセグメントに分けた内訳。](/docs/browser/new-relic-browser/page-load-timing-resources/page-load-timing-process#time-segments)
+ * レスポンスタイムに加えて、[アプリのメイン**Overview** \[概要\]チャート](/docs/apm/applications-menu/monitoring/apm-overview-page)上の[ティア](/docs/accounts-partnerships/education/getting-started-new-relic/glossary#tier)またはカテゴリ別の内訳
+ * ページロードタイムと[セグメント](/docs/browser/new-relic-browser/page-load-timing-resources/page-load-timing-process#time-segments)別の内訳
* エラー率
* CPU使用率
* メモリ使用量
@@ -550,9 +550,9 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
|
- * [Apdex](/docs/site/apdex-measuring-user-satisfaction), ブラウザ用
- * ブラウザのページロード時間
- * スループットの合計。90日以降は、ブラウザタイプ別の集計は行われず、要求された時間範囲の合計平均値のみが表示されます。
+ * [Apdex](/docs/site/apdex-measuring-user-satisfaction)、ブラウザ
+ * ブラウザのページロードタイム
+ * スループットの合計。90日を経過すると、ブラウザの種類別の内訳はなくなり、要求された期間の結合平均値のみが表示されます。
|
@@ -562,11 +562,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- * クラッシュレートです。 [iOSの場合](/docs/mobile-monitoring/new-relic-mobile/getting-started/ios-agent-crash-reporting) 、 [Androidの場合](/docs/mobile-monitoring/new-relic-mobile/getting-started/android-agent-crash-reporting)
+ * クラッシュ率:[iOS](/docs/mobile-monitoring/new-relic-mobile/getting-started/ios-agent-crash-reporting)および[Android](/docs/mobile-monitoring/new-relic-mobile/getting-started/android-agent-crash-reporting)
* [ネットワークスループット](/docs/mobile-monitoring/mobile-monitoring-ui/network-pages/http-requests-page)
- * [ネットワーク応答時間](/docs/mobile-monitoring/mobile-monitoring-ui/network-pages/http-requests-page)
- * [ネットワークエラー率](/docs/mobile-monitoring/mobile-monitoring-ui/network-pages/errors-mobile-apps)
- * [インタラクション・トレース](/docs/mobile-monitoring/mobile-monitoring-ui/mobile-app-pages/interactions-page)
+ * [ネットワークのレスポンスタイム](/docs/mobile-monitoring/mobile-monitoring-ui/network-pages/http-requests-page)
+ * [ネットワークのエラー率](/docs/mobile-monitoring/mobile-monitoring-ui/network-pages/errors-mobile-apps)
+ * [インタラクショントレース](/docs/mobile-monitoring/mobile-monitoring-ui/mobile-app-pages/interactions-page)
|
@@ -575,23 +575,23 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- すべてのブラウザーの名前空間には、同じデフォルトの保存期間があります。各ブラウザの名前空間のイベントの詳細は次のとおりです。
+ すべてのブラウザネームスペースのデフォルトの保持期間は同じです。各ブラウザネームスペースでのイベントの詳細は次のとおりです。
- * `Browser` 名前空間: `PageView`、 `PageAction`
- * `Browser events` 名前空間: `AjaxRequest`、 `BrowserInteraction`、 `BrowserTiming`
- * `Browser JS errors` 名前空間: `JavaScriptError`
- * `Browser page view timing` 名前空間: `PageViewTiming`
+ * `Browser` ネームスペース:`PageView`、 `PageAction`
+ * `Browser events` ネームスペース:`AjaxRequest`、`BrowserInteraction`、 `BrowserTiming`
+ * `Browser JS errors` ネームスペース: `JavaScriptError`
+ * `Browser page view timing` ネームスペース: `PageViewTiming`
- これらのイベントの詳細については、[データ ディクショナリのブラウザ イベントを](/attribute-dictionary/?dataSource=Browser+agent)参照してください。
+ これらのイベントの詳細については、[データディクショナリのブラウザイベント](/attribute-dictionary/?dataSource=Browser+agent)を参照してください。
- インフラストラクチャ モニタリングは、生成されたデータをダウンサンプリングします。すべてのインフラストラクチャ モニタリング メトリック データ タイプ (ホスト上の統合からのメトリクスを含む) は、データの年代と時間ウィンドウのサイズに応じて異なる粒度を表示します。次の表は、インフラストラクチャ UI とクエリの両方で、ダウンサンプルされた異なるバケットが使用される場合を示しています。
+ infrastructureモニタリングは、データの生成時にダウンサンプリングします。すべてのinfrastructureモニタリングのメトリクスデータ型(オンホストインテグレーションからのメトリクスを含む)は、データの古さと時間枠のサイズに応じて異なる粒度で表示されます。次の表は、インフラストラクチャUIとクエリの両方で、さまざまなダウンサンプリングされたバケットの使用タイミングを示しています。
@@ -601,11 +601,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- **時間帯別に使用しています。**
+ **時間枠を覆うために使用...**
|
- **データを保持するのは...**
+ **次の目的でデータを保持...**
|
@@ -613,7 +613,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- 生(5秒、10秒、15秒)
+ 生(5、10、15秒)
|
@@ -621,7 +621,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
|
- 8日
+ 8日間
|
@@ -659,7 +659,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- 3日~14日
+ 3~14日
|
@@ -685,50 +685,50 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
-## データ保持の編集 [#adjust-retention]
+## 編集データ保持期間 [#adjust-retention]
-保持を表示および編集するに[は、データ管理ハブ](https://one.newrelic.com/data-management-hub)に移動し、\[**データ保持] をクリックして、\[データ保持**の**編集**] をクリックします。そこには、データ保持の編集または Data Plus へのアップグレードのオプションが表示されます。それが表示されない場合は[、要件](#requirements)を確認し、New Relic アカウント担当者に相談してください。
+保持期間を表示および編集するには、[データ管理ハブ](https://one.newrelic.com/data-management-hub)に移動し、**Data retention**、**Edit data retention**の順にクリックします。ここでは、データ保持期間を編集するか、Data Plusにアップグレードするためのオプションが表示されます。それが表示されない場合は、[要件](#requirements)を確認し、New Relicアカウント担当者にご相談ください。
-保持率を高めるためのオプション:
+保持期間を延長するためのオプション:
-* まだお持ちでない場合は、 [データ プラス](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/#data-plus)に切り替えてください。これにより、データ保持期間が大幅に長くなり、その他の利点が得られます。
-* データ プラスまたは元のデータ オプションの場合: データ保持を追加します。組織の 30 日間の追加データ保持には、1 か月に取り込まれた GB あたり 0.05 USD の費用がかかります。
+* まだ切り替えていない場合は、[Data Plus](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/#data-plus)に切り替えてください。これにより、データ保持期間が大幅に長くなり、その他のメリットが得られます。
+* Data Plusまたはオリジナルデータオプションの場合:データ保持期間を追加します。組織の30日間の追加データ保持期間の料金は、月あたり0.05ドル/GBです。
-リテンションの向上に関する重要なポイント:
+保持期間を延長するための重要なポイント:
* より長い保持期間を有効にすると、 [**Data retention**\[データ保持\] UI](#find-ui)にリストされているすべてのデータ タイプの保持が全体的に増加します。特定のデータ型だけを増やすことはできません。
-* より長い保持期間を有効にすると、特定のデータ ソースの保持期間を短縮しても請求には影響しません。データの取り込みと課金を削減する方法については、「[データの取り込みを管理する](/docs/data-apis/manage-data/manage-data-coming-new-relic)」を参照してください。
-* 保持期間を調整すると、有効になるまで最大 24 時間かかる場合があります。
+* より長い保持期間を有効にすると、特定のデータソースの保持期間を短縮しても、請求には影響しません。データの取り込みと請求を削減する方法については、[データ取り込みの管理](/docs/data-apis/manage-data/manage-data-coming-new-relic)を参照してください。
+* 保持期間を調整すると、それが有効になるまでに最大24時間かかる場合があります。
-### リテンションの削減 [#reduce-retention]
+### 保持期間の短縮 [#reduce-retention]
-データ ソースの保持期間を短縮しても、その種類の既存のデータはすぐには消えません。そのデータは、最大数週間表示され、クエリで返される場合があります。誤ってデータを削除しないようにするための保護手段が用意されていますが、これは、[データをすばやく削除する](#deleting-data)ために保持値を減らすことは適切な戦略ではないことも意味します。
+データソースの保持期間を短縮しても、その種類の既存のデータはすぐには消失しません。該当データは最大数週間表示され、クエリで返される可能性があります。データを誤って削除しないように安全策が講じられていますが、これは、[データを迅速に削除する](#deleting-data)ためには、保持期間の値を減らすことが良い戦略ではないことも示唆しています。
-データの取り込みを減らすためのオプションについては、「[データの取り込みを管理](/docs/data-apis/manage-data/manage-data-coming-new-relic)する 」を参照してください。
+データ取り込みを削減するためのオプションについては、[データ取り込みの管理](/docs/data-apis/manage-data/manage-data-coming-new-relic)を参照してください。
-## 既存のデータを削除する [#deleting-data]
+## 既存データの削除 [#deleting-data]
-[テレメトリ データ](/docs/using-new-relic/data/understand-data/new-relic-data-types)が New Relic データベースにレポートされ、クエリに使用できるようになると、そのデータを編集または削除することはできなくなります。これは、New Relic の速度とパフォーマンスを最適化する意図的な設計上の決定です。データの[保持期間](#adjust-retention)が終了すると、データは失効します。すでに報告されているデータを削除したい場合は、New Relic の担当者にお問い合わせください。
+[テレメトリーデータ](/docs/using-new-relic/data/understand-data/new-relic-data-types)がNew Relicデータベースに報告され、クエリに使用できるようになると、そのデータを編集または削除できなくなります。これは、New Relicの速度とパフォーマンスを最適化するための意図的な設計上の決定です。データは、[データ保持期間](#adjust-retention)が終了すると期限切れになります。すでに報告されているデータを削除したい場合は、New Relicの担当者にお問い合わせください。
## データのエクスポートとストリーミング [#export-data]
-Data Plus を使用している組織は、好みのツールを使用してデータをエクスポートし、長期保存することができます。これに関連する機能は次のとおりです。
+Data Plusを使用している組織は、好みのツールを使用してデータをエクスポートして長期保存できます。これに関連する機能には次のようなものがあります。
-* [ストリーミング データのエクスポート](/docs/apis/nerdgraph/examples/nerdgraph-streaming-export)
+* [ストリーミングデータのエクスポート](/docs/apis/nerdgraph/examples/nerdgraph-streaming-export)
* [履歴データのエクスポート](/docs/apis/nerdgraph/examples/nerdgraph-historical-data-export)
-## APIによるリテンション管理 [#api-examples]
+## API経由での保持期間の管理 [#api-examples]
-UI で保持設定を変更するだけでなく、 [NerdGraph API](/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph)を使用できます。以下に、NerdGraph リクエストの例をいくつか示します。データ保持の変更が有効になるまでに最大 24 時間かかる場合があることに注意してください。
+UIでの保持設定の変更に加えて、[NerdGraph API](/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph)を使用することもできます。以下に、NerdGraphリクエストの例をいくつか紹介します。データ保持期間の変更が有効になるまでに最大24時間かかる場合があることに留意してください。
-API を使用して保持を調整する前に、保持[の調整に関するルールを](#adjust-retention)確認してください。
+APIを使用して保持期間を調整する前に、[保持期間の調整に関するルール](#adjust-retention)を確認してください。
- アカウントのカスタマイズ可能なリテンションイベント名スペースを一覧表示する。
+ アカウントのカスタマイズ可能な保持期間イベントネームスペースをリストするには、次の手順を実行します。
```graphql
query {
@@ -749,9 +749,9 @@ API を使用して保持を調整する前に、保持[の調整に関するル
- アカウントのアクティブなルールを一覧表示するには
+ アカウントのアクティブなルールをリストするには:
```graphql
query {
@@ -776,9 +776,9 @@ API を使用して保持を調整する前に、保持[の調整に関するル
- 特定のアカウント/ネームスペースのペアに対するアクティブなルールを表示するには、次のようにします。
+ 特定のアカウント/ネームスペースのペアでアクティブなルールを表示するには:
```graphql
query {
@@ -803,9 +803,9 @@ API を使用して保持を調整する前に、保持[の調整に関するル
- 新しいルールを作成するには
+ 新しいルールを作成するには:
```graphql
mutation {
@@ -824,9 +824,9 @@ API を使用して保持を調整する前に、保持[の調整に関するル
- 子アカウントに適用されているルールを削除した場合、その子アカウントは、指定されたネームスペースに対して親アカウントの現在の保持値を採用します。親アカウントに適用されているルールを削除した場合、指定されたネームスペースにデフォルトの保持値が再適用されます。既存のルールを削除するには、以下の手順に従います。
+ 子アカウントに適用されているルールを削除すると、その子アカウントは、指定されたネームスペースに対して親アカウントの現在の保持期間の値を採用します。親アカウントに適用されたルールを削除すると、デフォルトの保持期間の値が指定されたネームスペースに再適用されます。既存のルールを削除するには:
```graphql
mutation {
@@ -845,9 +845,9 @@ API を使用して保持を調整する前に、保持[の調整に関するル
- テンプレートまたはソースアカウントとして子アカウントを指定し、他の宛先子アカウントにソース子アカウントの同じ名前空間保持値を採用させることができます。注意: すべての子アカウントは、同じ親アカウント内になければなりません。既存の保持のセットをコピーするには
+ 子アカウントをテンプレートまたはソースアカウントとして指定すると、他の宛先子アカウントにソース子アカウントと同じネームスペース保持期間の値を適用させることができます。注:すべての子アカウントは同じ親アカウント内に存在する必要があります。既存の保持期間セットをコピーするには:
```graphql
mutation {
@@ -861,14 +861,14 @@ API を使用して保持を調整する前に、保持[の調整に関するル
}
```
- 成功と失敗は、ソースアカウントからのルールのコピーに成功(または失敗)したデスティネーションアカウントIDのリストを返します。
+ 成功または失敗すると、ソースアカウントのルールのコピーに成功した(または失敗した)宛先アカウントIDのリストが返されます。
## アカウントの継承 [#account-structure]
-[親アカウント](/docs/accounts/original-accounts-billing/original-users-roles/mastersub-account-structure)のデータ保持設定は、子アカウントに継承されます。このコンテキストでは、New Relic 組織の最初のアカウントは親アカウントと見なされ、組織に追加された他のアカウントはそのアカウントの設定を継承します。
+[親アカウント](/docs/accounts/original-accounts-billing/original-users-roles/mastersub-account-structure)のデータ保持期間の設定は、その子アカウントに継承されます。このコンテキストでは、New Relic組織の最初のアカウントが親アカウントとみなされ、組織に追加された他のアカウントはそのアカウントの設定を継承します。
-## RSS-Atom
+## RSS - Atom
[RSSフィード](https://github.com/newrelic/docs-website/commits/develop/src/content/docs/data-apis/manage-data/manage-data-retention.mdx.atom)を購読します。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/data-apis/understand-data/event-data/events-reported-mobile-monitoring.mdx b/src/i18n/content/jp/docs/data-apis/understand-data/event-data/events-reported-mobile-monitoring.mdx
index 47a76cc0a9e..e88fe4a3d5b 100644
--- a/src/i18n/content/jp/docs/data-apis/understand-data/event-data/events-reported-mobile-monitoring.mdx
+++ b/src/i18n/content/jp/docs/data-apis/understand-data/event-data/events-reported-mobile-monitoring.mdx
@@ -77,7 +77,7 @@ translationType: human
* [iOSバージョン6.0.0](/docs/release-notes/mobile-release-notes/ios-release-notes/ios-agent-600)以上
- Androidバージョン5.14.0またはiOSバージョン5.14.0で起動するそれ以前のバージョンについては、機能を有効にする必要があります。最新の[Android](/docs/mobile-monitoring/new-relic-mobile-android/install-configure/upgrade-new-relic-mobiles-android-sdk)または[iOS](/docs/mobile-monitoring/new-relic-mobile-ios/installation/upgrade-new-relic-mobiles-ios-sdk)バージョンにアップグレード、または[Android](/docs/mobile-monitoring/new-relic-mobile-android/install-configure/android-agent-configuration-feature-flags)または[iOS](/docs/mobile-monitoring/new-relic-mobile-ios/install-configure/ios-agent-configuration-feature-flags#networkRequest)設定を使用して、`NetworkRequests`機能フラグを有効化します。
+ Androidバージョン5.14.0またはiOSバージョン5.14.0で起動するそれ以前のバージョンについては、機能を有効にする必要があります。最新の[Android](/docs/mobile-monitoring/new-relic-mobile-android/install-configure/upgrade-android-agent)または[iOS](/docs/mobile-monitoring/new-relic-mobile-ios/installation/upgrade-ios-agent)バージョンにアップグレード、または[Android](/docs/mobile-monitoring/new-relic-mobile-android/install-configure/android-agent-configuration-feature-flags)または[iOS](/docs/mobile-monitoring/new-relic-mobile-ios/install-configure/ios-agent-configuration-feature-flags#networkRequest)設定を使用して、`NetworkRequests`機能フラグを有効化します。
|
diff --git a/src/i18n/content/jp/docs/distributed-tracing/concepts/how-new-relic-distributed-tracing-works.mdx b/src/i18n/content/jp/docs/distributed-tracing/concepts/how-new-relic-distributed-tracing-works.mdx
index ec7ae442bb8..e65b1a7cef6 100644
--- a/src/i18n/content/jp/docs/distributed-tracing/concepts/how-new-relic-distributed-tracing-works.mdx
+++ b/src/i18n/content/jp/docs/distributed-tracing/concepts/how-new-relic-distributed-tracing-works.mdx
@@ -1,12 +1,12 @@
---
-title: 技術的な分散トレースの詳細
+title: ディストリビューティッド(分散)トレーシングに関する技術的な詳細
tags:
- Understand dependencies
- Distributed tracing
- Get started
metaDescription: 'Technical details of New Relic''s distributed tracing, including limits, explanation of sampling, trace data structure, and trace storage.'
freshnessValidatedDate: never
-translationType: machine
+translationType: human
---
import distributedtracingInfiniteTracingOverview from 'images/distributed-tracing_diagram_infinite-tracing-overview.webp'
@@ -21,7 +21,7 @@ import distributedtracingMiddlewarew3c from 'images/distributed-tracing_diagram_
import distributedtracingDifferentVendorw3c from 'images/distributed-tracing_diagram_different-vendor-w3c.webp'
-ここでは、New Relic の分散トレースがどのように機能するかについて、技術的な詳細を説明します。
+New Relicのディストリビューティッド(分散)トレーシングの仕組みについての技術的な詳細は、次のとおりです。
* [トレースサンプリングのしくみ](#sampling)
* [トレースデータの構造](#trace-structure)
@@ -30,7 +30,7 @@ import distributedtracingDifferentVendorw3c from 'images/distributed-tracing_dia
## トレースのサンプリング [#sampling]
-トレースをどのようにサンプリングするかは、お客様の設定や使用している New Relic トレーシングツールによって異なります。たとえば、サードパーティのテレメトリサービス(OpenTelemetryなど)を利用して、データが弊社に届く前にトレースのサンプリングを実施している場合があります。また、 [Infinite Tracing](/docs/understand-dependencies/distributed-tracing/infinite-tracing/introduction-infinite-tracing) を使用している場合は、すべてのトレースデータを弊社に送り、弊社のサンプリングに頼ることになるでしょう。
+トレースのサンプリング方法は、ユーザーのセットアップ、および使用するNew Relicトレーシングツールによって異なります。たとえば、サードパーティのテレメトリーサービス(OpenTelemetryなど)を使って、データが当社に届く前にトレースのサンプリングが実行されている可能性があります。または、[Infinite Tracing](/docs/understand-dependencies/distributed-tracing/infinite-tracing/introduction-infinite-tracing)を使用している場合、すべてのトレースデータが当社に送信され、当社のサンプリングに依存していると思われます。
いくつかのサンプリング戦略が利用可能です。
@@ -40,7 +40,7 @@ import distributedtracingDifferentVendorw3c from 'images/distributed-tracing_dia
### ヘッドベースのサンプリング(標準のディストリビューティッド(分散)トレーシング) [#head-based]
-[Infinite Tracing](#tail-based) 機能を除いて、当社のほとんどのトレースツールはヘッドベースのサンプリングアプローチを採用しています。これは、トレース内のすべてのスパンが到着する前に、個々のスパンにフィルタを適用するものです。つまり、スパンを受け入れるかどうかの判断は、フィルタリングプロセスの最初("head" )で行われます。このようなサンプリング手法を用いることで、ストレージやパフォーマンスの問題を回避しつつ、アクティビティの代表的なサンプルを取得することができます。
+[Infinite Tracing](#tail-based)機能を除き、当社のトレーシングツールのほとんどは、ヘッドベースのサンプリングアプローチを使用します。このアプローチでは、トレース内のすべてのスパンが到着する前に、個々のスパンにフィルターを適用します。つまり、スパンを受け入れるかどうかの決定は、フィルタリングプロセスの最初(「ヘッド」)に行われます。当社ではこのサンプリング戦略を使用して、ストレージとパフォーマンスの問題を避けながら、アクティビティの代表的なサンプルを取得します。
標準のディストリビューティッド(分散)トレーシングツールでのヘッドベースのサンプリングの実行方法の詳細を、以下に示します。
@@ -49,17 +49,17 @@ import distributedtracingDifferentVendorw3c from 'images/distributed-tracing_dia
id="trace-origin-sampling"
title="言語エージェント:適応サンプリング"
>
- 私たちの 言語エージェントは適応サンプリングを使用して、システム アクティビティの代表的なサンプルを取得します。次に、アダプティブ サンプリングのしくみについて説明します。
+ 当社の言語エージェントは適応サンプリングを使用して、システムアクティビティの代表的なサンプルを取得します。適応サンプリングのしくみは次のとおりです。
- トレースの最初のサービスへのスループットは、リクエストがサンプリングされる頻度を調整するために使用されます。これについては以下で詳しく説明します。また、APM エージェントのドキュメントを参照することもできます。
+ トレース内の最初のサービスのスループットを使用して、リクエストのサンプリング頻度が調整されます。これについては以下で詳しく説明します。また、APMエージェントのドキュメントを参照することもできます。
- 分散トレースで監視する最初のサービスは、トレース オリジンと呼ばれます。トレース オリジンは、トレースするリクエストをランダムに選択します。その決定は、そのリクエストが関係するダウンストリーム サービスに伝達されます。リクエストが完了すると、これらのリクエストによって生成されたスパンが New Relic に報告され、UI で完全なトレースとして利用できるようになります (ただし、以下で説明するエージェントのスパン制限により、トレースが断片化される場合があります)。
+ ディストリビューティッド(分散)トレーシングで最初にモニターするサービスは、トレース元と呼ばれます。トレース元は、トレースが無作為になるようリクエストを選択します。この決定は、そのリクエストがタッチしたダウンストリームのサービスに伝搬されます。リクエストが完了すると、これらのリクエストによって生成されたスパンがNew Relicに報告され、完全なトレースとしてUIで利用可能になります(ただし、以下で説明するエージェントのスパン制限によってトレースが断片化する可能性があります)。
- トレース オリジン サービスは、デフォルトで 1 分あたり 10 トレースをサンプリングします。時間の経過とともに代表的なサンプルを取得するために、これらの 10 個のトレースのコレクションを 1 分間に分散しようとします。正確なサンプリング レートは、直前の 1 分間のトランザクション数に依存し、トランザクション スループットの変化に適応します。
+ トレース元のサービスは、デフォルトで1分あたり10個のトレースをサンプリングします。その期間の代表的なサンプルを取得するため、これら10個のトレースの収集を1分間に分散しようとします。正確なサンプリングレートは、直前の1分間のトランザクション数に依存し、その後のスループットの変化に適応します。
- たとえば、直前の 1 分間に 100 件のトランザクションがあった場合、エージェントは同様の数のトランザクションを予測し、10 トランザクションごとに 1 つを選択して、次の 1 分間にサンプリングします。
+ たとえば、前の1分間に100件のトランザクションがあった場合、エージェントは同様の数のトランザクションを予測し、次の1分間にサンプリングするトランザクション10 件ごとに1件を選択します。
- APM エージェントには、1 分間に収集されるスパンの数に制限があり、エージェント インスタンスごとに 1 分間に 2000 スパンが収集されるデフォルトの制限があります (これを調整する方法については、APM エージェントの構成ドキュメントを参照してください)。エージェントが 1 分間に構成された制限を超えるスパンを生成すると、一部のスパンがドロップされ、UI で [断片化されたトレースが](/docs/distributed-tracing/ui-data/understand-use-distributed-tracing-ui/#fragmented-traces) 発生します。トレースは、サンプリングのために選択されるときにランダムな優先度が割り当てられるため、複数のエージェントがスパンをドロップする必要がある場合、最初に優先度の低いトレースからスパンをドロップすることによって、優先度の高いトレースをそのまま維持しようとすることができます。
+ APMエージェントには1分あたりに収集されるスパンの数に制限があり、エージェントインスタンスごとに1分あたり収集されるスパンのデフォルト制限は2000です(これを調整する方法については、APMエージェント設定のドキュメントを参照してください)。エージェントが1分間に設定された制限を超えるスパンを生成すると、一部のスパンが削除され、UIで[トレースが断片化](/docs/distributed-tracing/ui-data/understand-use-distributed-tracing-ui/#fragmented-traces)されます。トレースは、サンプリング対象として選択される際にランダムな優先順位が割り当てられるため、複数のエージェントがスパンを削除する必要がある場合、最初に優先順位の低いトレースからスパンを削除して、優先順位の高いトレースをそのままの状態に保とうとします。
- Infinite Tracingは、アプリケーションまたはサードパーティのテレメトリサービスからより多くのトレースデータを収集して転送できるため、結果として出力コストが増加する可能性があります。Infinite Tracingを展開するときは、これらのコストに注意して、このソリューションが適切であることを確認することをお勧めします。
+ Infinite Tracingはアプリケーションまたはサードパーティのテレメトリーサービスからより多くのトレースデータを収集して転送できるため、結果としてエグレスコストが増加する場合があります。Infinite Tracingを展開する際には、このソリューションが適切であることを確認する上で、これらのコストに注意してください。
@@ -91,9 +91,9 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード
お客様のスパンのみがトレースオブザーバーに移動します - メトリックスやカスタムイベント、トランザクショントレースなどのその他すべてのデータは通常のルートでNew Relicに送信され、ローカルサンプリングの対象となります。
- データを送信するAWSリージョンに一意のトレースオブザーバーエンドポイントを設定します。トレースはクロスアカウント機能であるため、デフォルトの実装では、[アカウントファミリー](/docs/glossary/glossary/#account-family)ごとに、リージョンごとに1人のトレースオブザーバーのみを許可します(さらにリクエストするには、アカウント担当者にご相談ください)。エンドポイントは、特定のワークロードのトレースオブザーバーを表します。たとえば、単一のトレース(要求)からのすべてのスパンは、そのエンドポイントに到達する必要があります。
+ データの送信先のAWSリージョンの一意のトレースオブザーバーのエンドポイントを設定します。トレーシングはクロスアカウント機能であるため、デフォルトの実装では、リージョンごと、[アカウントファミリー](/docs/glossary/glossary/#account-family)ごとに1人のトレースオブザーバーのみが許可されます(さらにリクエストするには、アカウント担当者にお問い合わせください)。エンドポイントは、特定のワークロードのトレースオブザーバーを表します。たとえば、単一のトレース(リクエスト)からのすべてのスパンは、そのエンドポイントに移動する必要があります。
- 2 つのアーキテクチャ図を次に示します。 エージェントと、OpenTelemetry エクスポーターなどの New Relic 統合を使用する場合の別のエージェント:
+ 以下は2つのアーキテクチャー図です。1つは、エージェントを使用する場合の、もう1つはOpenTelemetryエクスポーターのようなNew Relicインテグレーションを使用する場合のデータの流れを示しています。
- 間隔
+ 期間
|
@@ -194,15 +194,15 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード
id="browser-spans"
title="ブラウザおよびモバイルトレースレポート"
>
- [ブラウザ監視分散トレース](/docs/browser/new-relic-browser/browser-pro-features/browser-data-distributed-tracing) および [モバイル監視](/docs/mobile-monitoring/new-relic-mobile-android/get-started/new-relic-mobile-and-dt) は、すべてのスパンを報告します。
+ [ブラウザ監視のディストリビューティッド(分散)トレーシング](/docs/browser/new-relic-browser/browser-pro-features/browser-data-distributed-tracing)と[モバイル監視](/docs/mobile-monitoring/new-relic-mobile-android/get-started/new-relic-mobile-and-dt)は、すべてのスパンをレポートします。
- 私たちの言語エージェントは多くの場合、以下と組み合わせて使用されます。 そして \[ 言語エージェントは[サンプリングを使用します](#trace-origin-sampling)。これは、バックエンド スパンよりもブラウザーとモバイルのスパンがはるかに多くなる可能性が高く、その結果、ブラウザーとモバイル アプリのスパンがバックエンド スパンから切り離される可能性があることを意味します。フロントエンド スパンとバックエンド スパンを含むトレースのクエリに関するヒントについては、 [「ブラウザ スパン データの検索」](/docs/browser/new-relic-browser/browser-pro-features/browser-data-distributed-tracing#find-data)を参照してください。
+ 当社の言語エージェントは、やと組み合わせて使用されることが多く、言語エージェントは[サンプリングを使用します](#trace-origin-sampling)。つまり、バックエンドスパンよりブラウザスパンおよびモバイルスパンの方が多い可能性が高く、バックエンドスパンからブラウザスパンおよびモバイルアプリスパンの接続が切断される場合があります。フロントエンドスパンとバックエンドスパンを含むトレースのクエリに関するヒントについては、[ブラウザスパンデータの検索](/docs/browser/new-relic-browser/browser-pro-features/browser-data-distributed-tracing#find-data)を参照してください。
-### トレースリミット [#trace-limits]
+### トレースの制限 [#trace-limits]
-当社のデータ処理システムには、予期せぬデータの急増からインフラストラクチャを保護するための内部制限が設けられています。この保護層は、プラットフォームの整合性を維持するだけでなく、すべての顧客に対して信頼性の高い一貫したエクスペリエンスを保証します。これらの制限はさまざまな条件に基づいて必要に応じて調整されますが、将来を見据えたアプローチで設定されています。ユーザーベースとデータ摂取量が増加するにつれて、当社はインフラストラクチャの容量を拡大します。この取り組みにより、当社は送信されたすべての顧客データを確実に取得し、追跡データに対する明確で中断のないビューを提供できるようになります。
+当社のデータ処理システムには、予期せぬデータの急増からインフラストラクチャを保護するための内部制限が設けられています。この保護層は、プラットフォームの完全性を維持するだけでなく、すべての顧客に対して信頼性の高い一貫したエクスペリエンスを保証します。さまざまな条件に基づき必要に応じて、これらの制限は調整されますが、将来を見据えたアプローチで設定されています。ユーザーベースとデータ摂取量が増加するにつれて、当社はインフラストラクチャの容量を拡大します。この取り組みにより、送信されたすべての顧客データを確実に取得し、トレースデータに対して明確で中断のないビューを提供できます。
## トレースデータの構成方法 [#trace-structure]
@@ -230,13 +230,13 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード
* **プロセスの境界**。プロセスはコードの論理部分の実行を表します。プロセスの例には、バックエンドサービスまたはLambda関数が含まれます。プロセス内のスパンは、以下のどれかに分類されます。
* **開始スパン**:プロセスの最初のスパン。
- * **出口スパン**:スパンがa)入口スパンの親である場合、またはb) `http.`または`db.`属性を持ち、したがって外部呼び出しを表す場合、スパンは出口スパンと見なされます。
+ * **Exit span**:a)開始スパンの親である場合、またはb) `http.`または`db.`属性を有し、そのため外部呼び出しを表す場合は、終了スパンと見なされます
* **インプロセススパン**:インターナルメソッド呼び出しまたは関数を表し、終了または開始スパンではないスパン。
* **クライアントスパン**。クライアントスパンは、別の[エンティティ](/docs/using-new-relic/welcome-new-relic/get-started/glossary#entity)または外部依存関係への呼び出しを表します。現在、以下の2つのクライアントスパンタイプがあります。
- * **データストア**。クライアント スパンに`db.`で始まる属性 ( `db.statement`など) がある場合、それはデータストア スパンとして分類されます。
- * **外部**。クライアント スパンに`http.`で始まる属性 ( `http.url`など) がある場合、または別のプロセスに子スパンがある場合、それは外部スパンとして分類されます。これは、データストア クエリではない外部呼び出しの一般的なカテゴリです。外部スパンに`http.url`または`net.peer.name`が含まれている場合、[外部サービス](/docs/apm/apm-ui-pages/monitoring/external-services/external-services-intro)ページでインデックス化されます。
+ * **Datastore**。クライアントスパンに`db.`(例:`db.statement`)の属性プレフィックスがある場合ば、データストアスパンに分類されます
+ * **External**。クライアントスパンに`http.`(例:`http.url`)の属性プレフィックスがある、または別のプロセスに子スパンがある場合は、外部スパンに分類されます。これはデータストアクエリではない外部呼び出しに対する一般的な分類です。外部スパンに`http.url`または`net.peer.name`が含まれている場合、[外部サービス](/docs/apm/apm-ui-pages/monitoring/external-services/external-services-intro)ページでインデックスが作成されます
* **トレース持続時間**。トレースの合計持続時間は、最初のスパンの開始から最後のスパンの終了までの時間の長さで決まります。
@@ -248,8 +248,8 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード
トレースデータは、次のように保存します。
-* `Span`:[スパン](/docs/using-new-relic/welcome-new-relic/get-started/glossary/#span)は、分散トレースの一部である操作を表します。スパンが表すことができる操作には、[ブラウザー側のインタラクション](/docs/browser/new-relic-browser/browser-pro-features/browser-data-distributed-tracing)、データストアクエリ、他のサービスへの呼び出し、メソッドレベルのタイミング、 [Lambda関数](/docs/serverless-function-monitoring/aws-lambda-monitoring/get-started/introduction-new-relic-monitoring-aws-lambda)が含まれます。一例:HTTPサービスでは、スパンはHTTPリクエストの開始時に作成され、HTTPサーバーがレスポンスを返すときに完了します。スパン属性には、トレース関係の詳細(traceId、guidなど)を含む、その操作に関する重要な情報(期間、ホストデータなど)が含まれます。スパン関連のデータについては、[スパン属性](/attribute-dictionary/?event=Span)を参照してください。
-* `Transaction`:トレース内の[エンティティ](/docs/using-new-relic/welcome-new-relic/getting-started/glossary#alert-entity)がエージェントによって監視されている場合、そのエンティティへの要求は単一の`Transaction`イベントを生成します。トランザクションにより、トレースデータを他のNewRelic機能に関連付けることができます。トランザクション関連のデータについては、[トランザクション属性](/attribute-dictionary/?event=Transaction)を参照してください。
+* `Span`スパン:[スパン](/docs/using-new-relic/welcome-new-relic/get-started/glossary/#span)はディストリビューティッド(分散)トレーシングの一部であるオペレーションを表します。スパンが表すオペレーションには、[ブラウザ側のインタラクション](/docs/browser/new-relic-browser/browser-pro-features/browser-data-distributed-tracing)、データストアクエリ、他のサービスの呼び出し、メソッドレベルのタイミング、[Lambda関数](/docs/serverless-function-monitoring/aws-lambda-monitoring/get-started/introduction-new-relic-monitoring-aws-lambda)が含まれます。一例として、HTTPサービスでは、スパンはHTTPリクエストの初めに作成され、HTTPサーバーがレスポンスを返した時に完了します。スパンの属性には、トレースの関係の詳細(traceId、GUIDなど)を含め、オペレーションに関する重要な情報(持続時間、ホストデータなど)が含まれています。スパン関連のデータについては、[スパン属性](/attribute-dictionary/?event=Span)を参照してください
+* `Transaction`:トレースの[エンティティ](/docs/using-new-relic/welcome-new-relic/getting-started/glossary#alert-entity)がエージェントによってモニターされる場合、そのエンティティへのリクエストが単一`Transaction`イベントを生成します。トランザクションでは他のNew Relic機能と結びついたトレースデータを利用できます。トランザクション関連データについては[トランザクション属性](/attribute-dictionary/?event=Transaction)を参照してください
* コンテキスト連動メタデータ。トレースとそのスパン間の関係についての計算を表示するメタデータを保存します。[このデータのクエリを行う](/docs/apis/graphql-api/tutorials/query-distributed-trace-data-using-graphql-api)には、[NerdGraph GraphiQLエクスプローラー](https://api.newrelic.com/graphiql) を使用します。
## アプリケーション間でトレースコンテキストを渡す方法 [#headers]
@@ -288,7 +288,7 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード
|
- これは、トレースヘッダーを生成するアプリケーションのアプリケーションIDです。 `accountId`と同様に、この識別子は、アカウントのユーザーでない限り、情報を提供しません。
+ これは、トレースヘッダーを生成するアプリケーションのアプリケーションIDです。`accountId`と同様に、この識別子はアカウントのユーザーでない限り、情報を提供しません。
|
@@ -298,7 +298,7 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード
- 分散トレースでは、トレース内の作業の各セグメントは`span`で表され、各スパンには[`guid`](/attribute-dictionary/?event=Span&attribute=guid)属性があります。プロセス内の最後のスパンの`guid`は送信要求とともに送信されるため、受信サービスの最初の作業セグメントは、トレース内のデータを接続する[`parentId`](/attribute-dictionary/?event=Span&attribute=parentId)属性としてこの`guid`を追加できます。
+ ディストリビューティッド(分散)トレーシングでは、トレース内の各作業セグメントは`span`で表され、各スパンには[`guid`](/attribute-dictionary/?event=Span&attribute=guid)属性があります。プロセス内の最後のスパンの`guid`は、受信サービス内の作業の最初のセグメントがトレース内のデータを接続する[`parentId`](/attribute-dictionary/?event=Span&attribute=parentId)属性としてこの`guid`を追加できるように、送信リクエストとともに送信されます。
|
@@ -308,7 +308,7 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード
- モバイル、ブラウザ、Rubyアプリなどの場合の、トレースヘッダーのソース。これは、このヘッダーが添付されているリクエストによってトリガーされるトランザクションの[`parent.type`](/attribute-dictionary/?event=Transaction&attribute=parent.type)属性になります。
+ モバイル、ブラウザ、Rubyアプリなどのトレースヘッダーのソース。これは、このヘッダーがアタッチされるリクエストによってトリガーされるトランザクションの[`parent.type`](/attribute-dictionary/?event=Transaction&attribute=parent.type)属性になります。
|
@@ -398,9 +398,9 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード
ヘッダー伝搬の問題に対処するため、当社は、2つの標準化されたヘッダーを必要とするW3Cトレースコンテキスト仕様をサポートしています。当社の最新のW3C New Relicエージェントは、この2つの必要なヘッダーを送受信し、デフォルトで以前のNew Relicエージェントのヘッダーも送受信します。
-* W3C( `traceparent` ):トレース全体(トレースID)と呼び出し元サービス(スパンID)を識別するプライマリヘッダー。
-* W3C( `tracestate` ):ベンダー固有の情報を伝達し、トレースが行われた場所を追跡する必須のヘッダー。
-* New Relic( `newrelic` ):以前のNewRelicエージェントとの下位互換性を維持するために引き続き送信される元の独自のヘッダー。
+* W3C(`traceparent`):トレース全体(トレースID)と呼び出しサービス(スパンID)を識別するプライマリヘッダー
+* W3C(`tracestate`):ベンダー固有の情報を伝達し、トレースされた場所を追跡する必須ヘッダー
+* New Relic(`newrelic`):以前のNew Relicエージェントとの下位互換性を維持するために引き続き送信される、元のプロプライエタリヘッダー
3つのヘッダーを組み合わせることで、これらのタイプのエージェントでインストゥルメントされたサービス全体にトレースを伝搬できるようになります。
@@ -409,7 +409,7 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード
* W3Cトレースコンテキスト対応エージェント
- リクエストがW3CTraceContext互換エージェントにのみ触れる場合は、NewRelicヘッダーをオフにすることを選択できます。 `newrelic`ヘッダーをオフにする方法の詳細については、[エージェント構成](/docs/agents/manage-apm-agents/configuration/configure-agent)のドキュメントを参照してください。
+ リクエストがW3Cトレースコンテキスト対応エージェントにのみタッチする場合、New Relicヘッダーをオフにすることを選択できます。`newrelic`ヘッダーをオフにする詳細については、[エージェント設定](/docs/agents/manage-apm-agents/configuration/configure-agent)ドキュメントを参照してください。
以下のシナリオには、さまざまな種類の適切なヘッダ伝搬が示されています。
@@ -455,6 +455,6 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード
-まだお持ちでない場合は、以下で無料の New Relic アカウントを作成して、今すぐデータの監視を開始してください。
+まだ作成されていない場合は、無料のNew Relicアカウントを以下で作成し、今すぐデータの監視を開始してください。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup.mdx b/src/i18n/content/jp/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup.mdx
index c75f7505584..e09f1cf64e8 100644
--- a/src/i18n/content/jp/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup.mdx
@@ -1,33 +1,33 @@
---
-title: Amazon CloudWatch Metric Streamsの統合をセットアップする
+title: Set up the Amazon CloudWatch Metric Streams integration
tags:
- Integrations
- Amazon integrations
- AWS integrations list
metaDescription: Learn how to gather all AWS metrics and custom namespaces to send them to New Relic.
freshnessValidatedDate: never
-translationType: machine
+translationType: human
---
-AWS Metric Streamsの統合により、すべてのAWSメトリクスとカスタムネームスペースを収集してNew Relicに送信するために必要なのは、**単一のサービス**[AWSCloudWatch](https://aws.amazon.com/cloudwatch/)だけです。
+With the AWS Metric Streams integration, you only need a **single service**, [AWS CloudWatch](https://aws.amazon.com/cloudwatch/), to gather all AWS metrics and custom namespaces and send them to New Relic.
-CloudWatchのメトリクスをNew Relicにストリーミングするには。
+To stream CloudWatch metrics to New Relic:
-1. [最小限のパーミッションとマッピングの説明](#permissions) を確認してください。
-2. Kinesis Data Firehoseを作成し、New Relicを指定します。
-3. 次に、先ほど作成したFirehoseにメトリクスを送信するために、CloudWatch Metric Streamを作成する。
-4. [ガイド付き](#setup-cloudformation) または [マニュアル](#manual-setup) のセットアップ手順に従う。
+1. Check the [minimal permissions and mapping instructions](#permissions).
+2. Create Kinesis Data Firehose and point it to New Relic.
+3. Next, create a CloudWatch Metric Stream to send metrics to that Firehose you've just created.
+4. Follow the [guided](#setup-cloudformation) or [manual](#manual-setup) setup instructions.
5. [データ受信の検証](#validate-data)。
-該当する場合は、 [AWSポーリング統合からの移行](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream#migrating-from-poll-integrations)に関するドキュメントをお読みください。
+If applicable, read our documentation about [migrating from AWS polling integrations](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream#migrating-from-poll-integrations).
- Terraformを使用して、クラウド統合を有効にするプロセスを自動化できます。 [Terraformの公式ドキュメントサイト](https://registry.terraform.io/providers/newrelic/newrelic/latest/docs/guides/cloud_integrations_guide)でその方法をお読みください。
+ Terraformを使用して、クラウドインテグレーションを有効にするプロセスを自動化できます。使用方法については[Terraformの公式文書サイトを](https://registry.terraform.io/providers/newrelic/newrelic/latest/docs/guides/cloud_integrations_guide)ご覧ください。
-## 最小限のパーミッションとマッピングの指示 [#permissions]
+## Minimal permissions and mapping instructions [#permissions]
-サービスメタデータやカスタムタグを追加してCloudWatchのメトリクスを充実させるには、New Relicに設定されているAWSロールに、以下の最小限の権限を付与する必要があります。
+To enrich CloudWatch metrics with additional service metadata and custom tags, any AWS role configured in New Relic must be granted the following minimal permissions:
```
config:BatchGetResourceConfig
@@ -35,26 +35,26 @@ config:ListDiscoveredResources
tag:GetResources
```
-New Relic UIは現在、これらの個々のアイテムに対して`ReadOnlyAccess`ポリシーを推奨しているため、New Relicには、AWS CloudWatchMetricStreamsでは利用できないサービスデータを収集するための適切な権限があります。
+The New Relic UI currently recommends the `ReadOnlyAccess` policy over these individual items so that New Relic has proper permissions to collect service data that's not available in AWS CloudWatch Metric Streams.
-## New RelicとAWSのアカウントとリージョンのマッピング [#map-accounts-regions]
+## New Relic and AWS accounts and regions mapping [#map-accounts-regions]
-* 複数のAWSアカウントを管理している場合は、それぞれのアカウントをNew Relicに接続する必要があります。
-* これらのアカウントで複数の地域を管理している場合は、各地域にNew Relicを指す異なるKinesis Data Firehoseを設定する必要があります。
-* 通常、1つのNew Relicアカウントに1つまたは複数のAWSアカウントをマッピングします。
+* If you manage multiple AWS accounts, then each account needs to be connected to New Relic.
+* If you manage multiple regions within those accounts, then each region needs to be configured with a different Kinesis Data Firehose pointing to New Relic.
+* You will typically map one or many AWS accounts to a single New Relic account.
-## CloudFormationを使ったガイド付きセットアップ [#setup-cloudformation]
+## Guided setup using CloudFormation [#setup-cloudformation]
-まず、各AWSアカウントをNewRelicアカウントにリンクする必要があります。これを行うには、次のいずれかのオプションを使用します。
+First, you need to link each of your AWS accounts with your New Relic account. To do so, use either of these options:
* **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**に移動し、 **AWS アカウントの追加**をクリックし、次に **メトリクス ストリームの使用 を**クリックして、手順に従います。
-* [このステップを NerdGraph で自動化します](/docs/apis/nerdgraph/examples/nerdgraph-cloud-integrations-api-tutorial/#link-aws-cloudwatch)。
+* [Automate this step with NerdGraph](/docs/apis/nerdgraph/examples/nerdgraph-cloud-integrations-api-tutorial/#link-aws-cloudwatch).
-次に、UIの最後のステップで提供する[CloudFormationテンプレート](https://console.aws.amazon.com/cloudformation/home?#/stacks/quickcreate?templateURL=https://nr-downloads-main.s3.amazonaws.com/cloud_integrations/aws/cloudformation/MetricStreams_CloudFormation.yml&stackName=NewRelic-Metric-Stream¶m_NewRelicDatacenter=US)を使用してメトリックストリームを設定します。このテンプレートは、単一のリージョンで統合を設定するためのベースとして提供されています。要件に合わせてカスタマイズおよび拡張できます。
+Next, set up the metric stream using the [CloudFormation template](https://console.aws.amazon.com/cloudformation/home?#/stacks/quickcreate?templateURL=https://nr-downloads-main.s3.amazonaws.com/cloud_integrations/aws/cloudformation/MetricStreams_CloudFormation.yml&stackName=NewRelic-Metric-Stream¶m_NewRelicDatacenter=US) we provide in the last step of our UI. This template is provided as a base to set up the integration on a single region. You can customize and extend it to meet your requirements.
-### CloudFormation テンプレートのパラメーター
+### CloudFormation Template Parameters
-この表は、CloudFormation テンプレートに必要なさまざまなパラメーターの概要を示しています。テンプレートは AWS アカウントに新しいリソースを作成するため、ここでは既存の AWS リソースの名前を提供しません。
+This table outlines the various parameters required for the CloudFormation template. Since the template will create new resources in your AWS account, we don't providing names of existing AWS resources here.
@@ -68,7 +68,7 @@ New Relic UIは現在、これらの個々のアイテムに対して`ReadOnlyAc
- 制約
+ Constraints
|
@@ -76,333 +76,324 @@ New Relic UIは現在、これらの個々のアイテムに対して`ReadOnlyAc
- New Relic インジェスト ライセンス キー
+ New Relic Ingest License Key
|
- の メトリクスをエクスポートするアカウントに関連付けられています。
+ The associated with the account you wish to export metrics to.
|
- 40 文字の 16 進文字列
+ 40-character hexadecimal string
|
- New Relic データセンター
+ New Relic Datacenter
|
- メトリクスがエクスポートされる New Relic データセンターの識別。(EU データセンター アカウントには`eu0x`で始まるライセンス キーがあります)
+ Identification of the New Relic datacenter your metrics are exported to. (EU datacenter accounts have license keys prefixed with `eu0x`)
|
- 許容値: `US` 、 `EU`
+ Allowed values: `US`, `EU`
|
- CloudWatch メトリクス ストリーム名
+ CloudWatch Metric Stream name
|
- 新しい CloudWatch メトリクス ストリームの名前 (同じ AWS リージョン内の AWS アカウントごとに一意である必要があります)
+ Name of new CloudWatch Metric Stream (must be unique per AWS account in the same AWS Region)
|
- 文字 (大文字と小文字)、数字、文字「\_」、および「-」のみを含む必要があり、最大長は合計 255 文字です
+ Must only container letters (uppercase and lowercase), numbers, and characters '\_', and '-' with max length of 255 total characters
|
- Kinesis Data Firehose 名
+ Kinesis Data Firehose name
|
- 新しい Kinesis Firehose Delivery Stream の名前 (同じ AWS リージョン内の AWS アカウントごとに一意である必要があります)
+ Name of new Kinesis Firehose Delivery Stream (must be unique per AWS account in the same AWS Region)
|
- 文字 (大文字と小文字)、数字、および文字「.」、「\_」、および「-」のみを含む必要があり、最大長は合計 64 文字です
+ Must only container letters (uppercase and lowercase), numbers, and characters '.', '\_', and '-' with max length of 64 total characters
|
- Firehose S3 バックアップ バケット名
+ Firehose S3 backup bucket name
|
- 失敗したイベントの新しい S3 バケット送信先の名前 (パーティション内のすべての AWS リージョンのすべての AWS アカウントでグローバルに一意である必要があります)
+ Name of new S3 Bucket Destination for failed events (must be globally unique across all AWS accounts in all AWS Regions within a partition)
|
- [S3 バケットの命名規則に従う](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucketnamingrules.html)必要があります
+ Must adhere to the [S3 bucket naming rules](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucketnamingrules.html)
|
- AWS Config のリソース メタデータでメトリクスを強化する
+ Enrich metrics with resource metadata from AWS Config
|
- リソースの変更を追跡するために AWS Config を有効にして設定します。これにより、New Relic エクスペリエンスを完全に監視できます。
+ Enable and configure AWS Config to track resource changes. This allows you a complete monitoring New Relic experience.
|
- 許容値: `true` 、 `false`
+ Allowed values: `true`, `false`
|
- S3 バックアップ バケット名の構成
+ Config S3 backup bucket name
|
- 配信チャネル設定用の新しい S3 バケット送信先の名前 (パーティション内のすべての AWS リージョンのすべての AWS アカウントでグローバルに一意である必要があります)
+ Name of new S3 Bucket Destination for delivery channel configuration (must be globally unique across all AWS accounts in all AWS Regions within a partition)
|
- [S3 バケットの命名規則に従う](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucketnamingrules.html)必要があります
+ Must adhere to the [S3 bucket naming rules](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucketnamingrules.html)
|
- 提供された CloudFormation テンプレートには、CloudWatch メトリクス ストリームに包含または除外名前空間フィルターが含まれていません。ビジネス要件に基づいて基本テンプレートを調整することを検討してください。
+ The provided CloudFormation template doesn't include any inclusion nor exclusion namespace filter in CloudWatch metric streams. Consider adapting the base template based on your business requirements.
-## AWSコンソール、API、またはコールを使用した手動設定 [#manual-setup]
+## Manual setup using AWS Console, API, or calls [#manual-setup]
-1. **Create a Kinesis Data Firehose Delivery Stream** 、以下の宛先パラメータを設定します。
+1. **Create a Kinesis Data Firehose Delivery Stream** and configure the following destination parameters:
-* ソースダイレクトPUTまたはその他のソース
+* Source: Direct PUT or other sources
-* データ変換。使用不可
+* Data transformation: Disabled
-* 記録フォーマットの変換。無効
+* Record format conversion: Disabled
-* 目的地New Relic
+* Destination: New Relic
-* 以下の設定が定義されていることを確認してください。
+* Ensure the following settings are defined:
- * New Relicの設定(Destination Settings)
+ * New Relic configuration (Destination Settings)
- * HTTPエンドポイントURL-米国のデータセンター: `https://aws-api.newrelic.com/cloudwatch-metrics/v1`
+ * HTTP endpoint URL - US Datacenter: `https://aws-api.newrelic.com/cloudwatch-metrics/v1`
- * HTTPエンドポイントURL-EUデータセンター: `https://aws-api.eu01.nr-data.net/cloudwatch-metrics/v1`
+ * HTTP endpoint URL - EU Datacenter: `https://aws-api.eu01.nr-data.net/cloudwatch-metrics/v1`
- * API キー: 入力してください
+ * API key: Enter your
- * コンテンツエンコーディング: `GZIP`
+ * Content encoding: `GZIP`
- * 再試行期間: `60`
+ * Retry duration: `60`
- * S3バックアップモード。失敗したデータのみ
+ * S3 backup mode: Failed data only
- * S3バケット:送信に失敗したメトリクスを保存するバケットを選択するか、新しいバケットを作成します。
+ * S3 bucket: select a bucket or create a new one to store metrics that failed to be sent.
- * New Relicのバッファ条件
+ * New Relic buffer conditions
- * バッファサイズ: `1 MB`
- * バッファ間隔: `60 (seconds)`
+ * Buffer size: `1 MB`
+ * Buffer interval: `60 (seconds)`
- * パーミッション IAMロール
+ * Permissions IAM role:
- * IAMロールの作成または更新
+ * Create or update IAM role
-2. **メトリクス・ストリームの作成**.
+2. **Create the metric stream**.
-* AWSコンソールで**CloudWatchサービス**に移動し、\[**メトリクス**]メニューの\[**ストリーム**]オプションを選択します。
+* Go to **CloudWatch service** in your AWS console and select the **Streams** option under the **Metrics** menu.
-* \[**メトリックストリームの作成]**をクリックします。
+* Click **Create metric stream**.
-* ユースケースに応じて適切な構成を決定します。
+* Determine the right configuration based on your use cases:
- * どのサービスがNew Relicにメトリクスをプッシュすべきかを選択するには、包含フィルターと除外フィルターを使用します。
- * Kinesis Data Firehoseを選択します。
- * ストリームに意味のある名前を定義します(たとえば、 `newrelic-metric-stream)` 。
+ * Use inclusion and exclusion filters to select which services should push metrics to New Relic.
+ * Select your Kinesis Data Firehose.
+ * Define a meaningful name for the stream (for example, `newrelic-metric-stream)`.
-* デフォルトの出力形式を`Open Telemetry 0.7`に変更します。(JSONはサポートされていません。)
+* Change default output format to `Open Telemetry 0.7`. (JSON is not supported.)
-* メトリクスストリームの作成を確認します。
+* Confirm the creation of the metric stream.
- または、AWS ドキュメントで、CloudFormation テンプレート、API、または CLI を使用して CloudWatch メトリクス ストリームを作成する手順を見つけることができます。
+ Alternatively, you can find instructions on the AWS documentation to create the CloudWatch metric stream using a CloudFormation template, API, or the CLI.
3. New Relic UI の**メトリック ストリーム** モードで **新しい AWS アカウントを追加します** 。**[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**に移動し、 **AWS アカウントの追加**をクリックし、次に **メトリクス ストリームの使用 を**クリックして、手順に従います。
-## データが正しく受信されているかどうかの確認 [#validate-data]
+## Validate your data is received correctly [#validate-data]
-メトリック ストリームからデータを受信していることを確認するには、次の手順に従います。
+To confirm you're receiving data from the Metric Streams, follow these steps:
1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**に移動し、 **ストリーム** アカウントを検索します。
2. 次の点をチェックします。
-* アカウント ステータス ダッシュボード。New Relic がメトリクス データ (エラー、取り込まれた名前空間/メトリクスの数など) を受信していることを確認するのに役立ちます。
-* データを探索します。メトリックとイベントを使用して、特定のメトリック セットを見つけたり、特定のメトリックで使用可能なすべてのディメンションにアクセスしたりします。
+* Account status dashboard. Useful to confirm that New Relic receives the metric data (errors, number of namespaces/metrics ingested, etc.)
+* Explore your data. Use metrics and events to find a specific set of metrics, access all dimensions available for a given metric, and more.
-新しいリソースが検出され、エンティティとして合成されるまで、数分かかる場合があります。詳細については、[クラウド統合システムの制限](/docs/data-apis/manage-data/view-system-limits)を参照してください。
+新しいリソースが検出され、エンティティとして合成されるまで、数分かかる場合があります。詳細については、クラウドインテグレーションの[システム制限](/docs/data-apis/manage-data/view-system-limits)を参照してください。
- AWS 請求などのグローバル サービスの AWS CloudWatch メトリクスは、 **us-east-1** リージョンでのみ利用できます。 そのリージョンで構成されたアクティブな CloudWatch メトリクス ストリームがあることを確認します。
+ AWS CloudWatch metrics for global services, such AWS Billing, are only availble in the **us-east-1** region. Make sure there's an active CloudWatch metric stream configured in that region.
-## クエリ、メトリックの保存、マッピング [#query-experience]
+## Queries, metric storage, and mapping [#query-experience]
-AWS CloudWatchからのメトリクスは、タイプ`summary`のディメンションメトリクスとして保存されます。[NRQL](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-new-relics-query-language/)を使用して[クエリ](/docs/telemetry-data-platform/get-data/apis/query-metric-data-type/)を実行できます。
+Metrics coming from AWS CloudWatch are stored as dimensional metrics of type `summary`. You can [query](/docs/telemetry-data-platform/get-data/apis/query-metric-data-type/) using [NRQL](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-new-relics-query-language/).
-現在のクラウド統合からのメトリクスを、AWS Metric Streams から来る新しいマッピングにマッピングしました。現在のメトリクスの命名を引き続き使用できます。クエリは引き続き機能し、AWS Metric Streams と現在のクラウド統合からデータを選択します。
+We've mapped metrics from the current cloud integrations to the new mappings that will come from AWS Metric Streams. You can continue to use the current metric naming, and queries will continue to work and pick data from AWS Metric Streams, and the current cloud integrations.
-[現在のクラウド統合のメトリクスと新しいメトリクスの名称](/docs/integrations/amazon-integrations/get-started/aws-integrations-metrics/) への対応については、ドキュメントをご確認ください。
+Check our documentation on how [current cloud integrations metrics map to the new metric naming](/docs/integrations/amazon-integrations/get-started/aws-integrations-metrics/).
-メトリック ストリームからのすべてのメトリックには、次の属性があります。
+All metrics coming from the metric stream have these attributes:
* `aws.MetricStreamArn`
-* `collector.name = 'cloudwatch-metric-streams'`。
+* `collector.name = 'cloudwatch-metric-streams'`.
-## エンティティ リスト内の AWS 名前空間のエンティティ [#aws-entities]
+## AWS namespaces' entities in the entity list [#aws-entities]
-多くの AWS 名前空間に対して New Relic [エンティティ](/docs/new-relic-one/use-new-relic-one/core-concepts/what-entity-new-relic) を生成します。名前空間の New Relic エンティティを生成すると、次のことが期待できます。
+We generate New Relic [entities](/docs/new-relic-one/use-new-relic-one/core-concepts/what-entity-new-relic) for many AWS namespaces. When we generate New Relic entities for a namespace you can expect to:
-* [エンティティ エクスプローラー](/docs/new-relic-one/use-new-relic-one/ui-data/new-relic-one-entity-explorer)でこれらのエンティティを参照します。
-* それらのエンティティ用に自動的に作成されたエンティティダッシュボードにアクセスします。
-* AWSタグで装飾された名前空間からメトリックとエンティティを取得します。AWSタグを収集するには、UIのセットアッププロセスの一部である`tag:GetResources`権限をNewRelicに付与している必要があります。AWSタグは、メトリックに`tag.AWSTagName`として表示されます。たとえば、リソースに`Team` AWSタグを設定した場合、 `tag.Team`と表示されます。
-* エンティティ エクスプローラーに含まれるすべての機能を活用します。
+* Browse those entities in our [entity explorer](/docs/new-relic-one/use-new-relic-one/ui-data/new-relic-one-entity-explorer).
+* Access an entity dashboard automatically created for those entities.
+* Get metrics and entities from that namespace decorated with AWS tags. Collecting AWS tags requires that you have given New Relic the `tag:GetResources` permission, which is part of the setup process in the UI. AWS tags show in metrics as `tag.AWSTagName`; for example, if you have set a `Team` AWS tag on the resource, it will show as `tag.Team`.
+* Leverage all the features included in the entity explorer.
- [New Relic Lookout は、](/docs/new-relic-one/use-new-relic-one/core-concepts/new-relic-lookout-monitor-your-estate-glance) AWS Metric Streams 統合と互換性がありません。
+ [New Relic Lookout](/docs/new-relic-one/use-new-relic-one/core-concepts/new-relic-lookout-monitor-your-estate-glance) is not compatible with the AWS Metric Streams integration.
-## アラート条件の設定 [#set-alerts]
+## Set alert conditions [#set-alerts]
-メトリック・ストリームからのメトリクスに対してNRQLアラート条件を作成することができます。フィルタがデータをCloudWatchメトリック・ストリームからのメトリクスのみに制限することを確認してください。そのためには、以下のようにクエリを構成します。
+You can create NRQL alert conditions on metrics from a metric stream. Make sure your filter limits data to metrics from the CloudWatch metric stream only. To do that, construct your queries like this:
```
SELECT sum(aws.s3.5xxErrors) FROM Metric WHERE collector.name = 'cloudwatch-metric-streams' FACET aws.accountId, aws.s3.BucketName
```
-次に、それを確認するために、 データを正しく処理し、高度な信号設定を構成します。 AWS CloudWatch はサービスから一定の遅延を持ってメトリクスを受信するため、これらの設定が必要です。 (たとえば、Amazon は、EC2 メトリクスの 90% が生成されてから 7 分以内に CloudWatch で利用可能になることを保証しています。) さらに、AWS から New Relic へのメトリクスのストリーミングでは、主に Firehose でのデータのバッファリングが原因で、最大 1 分の追加遅延が発生します。
+Then, to make sure that processes the data correctly, configure the advanced signal settings. These settings are needed because AWS CloudWatch receives metrics from services with a certain delay. (For example, Amazon guarantees that 90% of EC2 metrics are available in CloudWatch within 7 minutes of them being generated.) Moreover, streaming metrics from AWS to New Relic adds up to 1 minute additional delay, mostly due to buffering data in the Firehose.
-信号設定を行うには、 **Condition Settings** で、 **Advanced Signal Settings** をクリックし、以下の値を入力します。
+To configure the signal settings, under **Condition Settings**, click on **Advanced Signal Settings** and enter the following values:
-1. **集計ウィンドウ**。1 分に設定することをお勧めします。アラートがフラッピングする、またはアラートがトリガーされないという問題がある場合は、2 分に延長することを検討してください。
-2. **によるオフセット評価**。サービスによっては、CloudWatchが一定の遅延でメトリクスを送信する場合があります。値はウィンドウで設定されます。 1分の集計ウィンドウで、オフセットを8に設定すると、メトリックの大部分が正しく評価されます。 AWSとFirehoseによって導入された遅延が少ない場合は、より低いオフセットを使用できる可能性があります。
-3. **データのギャップを。で埋めます**。これを無効のままにするか、AWSからのデータのギャップが誤検知または誤検知につながる場合は、最後の既知の値を使用します。
+1. **Aggregation window**. We recommend setting it to 1 minute. If you're having issues with flapping alerts or alerts not triggering, consider increasing it to 2 minutes.
+2. **Offset evaluation by**. Depending on the service, CloudWatch may send metrics with a certain delay. The value is set in windows. With a 1-minute aggregation window, setting the offset to 8 ensures the majority of the metrics are evaluated correctly. You may be able to use a lower offset if the delay introduced by AWS and Firehose is less.
+3. **Fill data gaps with**. Leave this void, or use Last known value if gaps in the data coming from AWS lead to false positives or negatives.
-詳細については、NRQLアラートの作成方法に関するドキュメント [をご覧ください。](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-nrql-alert-conditions/)
+See our documentation on [how to create NRQL alerts](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-nrql-alert-conditions/) for more details.
-## [タグコレクション [#tags-collection]](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-nrql-alert-conditions/)
+## Tags collection [#tags-collection]
-[New Relic は、AWS CloudWatch メトリクス ストリームからのメトリクスから拡張ディメンションを提供します。リソース タグとカスタム タグは、ほとんどのサービスから自動的に取得され、追加のディメンションでメトリックを装飾するために使用されます。](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-nrql-alert-conditions/)[メトリクスとイベントを](/docs/query-your-data/explore-query-data/explore-data/introduction-data-explorer/)使用して、各 AWS メトリクスで使用できるタグを確認します。
+New Relic provides enhanced dimensions from metrics coming from AWS CloudWatch metric streams. Resource and custom tags are automatically pulled from most services and are used to decorate metrics with additional dimensions. Use [metrics and events](/docs/query-your-data/explore-query-data/explore-data/introduction-data-explorer/) to see which tags are available on each AWS metric.
-次のクエリは、タグを収集し、メトリクスのディメンションとしてクエリを実行する例を示しています。
+The following query shows an example of tags being collected and queried as dimensions in metrics:
```
SELECT average(`aws.rds.CPUUtilization`) FROM Metric FACET `tags.mycustomtag` SINCE 30 MINUTES AGO TIMESERIES
```
-すべての指標にディメンションとしてカスタム タグがあるわけではありません。[エンティティ エクスプローラー](/docs/new-relic-one/use-new-relic-one/ui-data/new-relic-one-entity-explorer) にリストされているエンティティにリンクされているメトリクスのみに、カスタム タグが関連付けられています。AWS CloudWatch メトリクス ストリームには、ストリーム メッセージの一部としてタグが含まれません。したがって、New Relic 側で追加の処理が必要になります。
+Not all metrics have their custom tags as dimensions. Only metrics linked to entities listed in the [entity explorer](/docs/new-relic-one/use-new-relic-one/ui-data/new-relic-one-entity-explorer) have their custom tags associated. The AWS CloudWatch metric stream doesn't include tags as part of the stream message; hence, additional processing is required on the New Relic side.
-## メタデータの収集 [#metadata-collection]
+## Metadata collection [#metadata-collection]
-カスタムタグと同様に、New Relic は関連する AWS サービスからメタデータ情報をプルして、AWS サービス API から収集された強化されたメタデータで AWS CloudWatch メトリクスを装飾します。このメタデータは、AWS CloudWatch によって提供されるメトリクスの追加のディメンションとして、New Relic でアクセスできます。
+Like with custom tags, New Relic also pulls metadata information from relevant AWS services in order to decorate AWS CloudWatch metrics with enriched metadata collected from AWS Services APIs. This metadata is accessible in New Relic as additional dimensions on the metrics provided by AWS CloudWatch.
- このオプションの機能は、CloudWatch Metric Streams 統合を補完するものです。このオプション機能を有効にしないと、サービスの検出と監視が不完全になります。
+ This optional capability is complementary to the CloudWatch Metric Streams integration. Your service discovery and monitoring will be incomplete if you don't enable this optional capability.
-このソリューションは、 [AWS Config](https://docs.aws.amazon.com/config/index.html) に依存しており、お客様のAWSアカウントに追加コストが発生する可能性があります。 AWS Config は、どのサービスやリソースを記録するかを決定するために、 [粒度の高いコントロールを提供します。New Relic は、お客様の AWS アカウントで利用可能なリソースからのみメタデータを取り込みます。](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html)
+The solution relies on [AWS Config](https://docs.aws.amazon.com/config/index.html), which might incur in additional costs in your AWS account. AWS Config provides [granular controls](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html) to determine which services and resources are recorded. New Relic will only ingest metadata from the available resources in your AWS account.
-[次のサービスと名前空間がサポートされています。](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html)
+The following services and namespaces are supported:
-* * ALB/NLB
+* ALB/NLB
+* API Gateway (excluding API v1)
+* DynamoDB
+* EBS
+* EC2
+* ECS
+* ELB
+* Lambda
+* RDS
+* S3
- * APIゲートウェイ(API v1を除く)
+### Infrastructure agent metrics and EC2 metadata decoration [#infra-data-decoration]
- * DynamoDB
+As with the EC2 API polling integration, when the infrastructure agent is installed on a host and the EC2 namespace is active via AWS CloudWatch metric stream integration, then all the infrastructure agent events and metrics are decorated with additional metadata.
- * EBS
+The following attributes will decorate infrastructure samples. Some of these may not be applicable on all environments: `awsAvailabilityZone`, `ec2InstanceId`, `ec2PublicDnsName`, `ec2State`, `ec2EbsOptimized`, `ec2PublicIpAddress`, `ec2PrivateIpAddress`, `ec2VpcId`, `ec2AmiId`, `ec2PrivateDnsName`, `ec2KeyName`, `ec2SubnetId`, `ec2InstanceType`, `ec2Hypervisor`, `ec2Architecture`, `ec2RootDeviceType`, `ec2RootDeviceName`, `ec2VirtualizationType`, `ec2PlacementGroupName`, `ec2PlacementGroupTenancy`.
- * EC2
+## Custom metrics and percentiles [#custom-metrics-percentiles]
- * ECS
+The CloudWatch metric stream integration automatically ingests new metrics configured in the stream, including custom metrics and percentiles.
- * ELB
+### カスタムメトリクス [#custom-metrics]
- * ラムダ
+To ingest CloudWatch custom metrics, make sure your custom namespace is visible in the CloudWatch metric stream configuration and it's not being filtered by inclusion or exclusion rules.
- * RDS
+### Percentiles [#percentiles]
- * S3
+AWS CloudWatch allows you to [define additional statistics](https://aws.amazon.com/about-aws/whats-new/2022/04/amazon-cloudwatch-metric-streams-additional-statistics/), including percentiles.
-### [インフラストラクチャエージェントのメトリクスとEC2メタデータの装飾 [#infra-data-decoration]](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html)
+Follow these steps to add percentiles to any metric available in the CloudWatch stream:
-[EC2 APIポーリング統合と同様に、インフラストラクチャエージェントがホストにインストールされ、AWS CloudWatchメトリックストリーム統合によってEC2ネームスペースがアクティブになると、インフラストラクチャエージェントのすべてのイベントとメトリックが追加のメタデータで装飾されます。](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html)
+1. On AWS, update the CloudWatch stream configuration (via API, CLI, or AWS Console) with the required percentiles in the `StatisticConfiguration` setting. For example, you can add p90, p95, and p99 percentiles to the `ELB latency metric (aws.elb.Latency)`.
-[次の属性は、インフラストラクチャサンプルを装飾します。これらの一部は、すべての環境に適用できるとは限りません: `awsAvailabilityZone` 、 `ec2InstanceId` 、 `ec2PublicDnsName` 、 `ec2State` 、 `ec2EbsOptimized` 、 `ec2PublicIpAddress` 、 `ec2PrivateIpAddress` 、 `ec2VpcId` 、 `ec2AmiId` 、 `ec2PrivateDnsName` 、 `ec2KeyName` 、 `ec2SubnetId` 、 `ec2InstanceType` 、 `ec2Hypervisor` 、 `ec2Architecture` 、 `ec2RootDeviceType` 、 `ec2RootDeviceName` 、 `ec2VirtualizationType` 、 `ec2PlacementGroupName` 、 `ec2PlacementGroupTenancy` 。](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html)
-
-## [カスタムメトリックとパーセンタイル [#custom-metrics-percentiles]](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html)
-
-[CloudWatchメトリクスストリーム統合は、カスタムメトリクスやパーセンタイルなど、ストリームに設定された新しいメトリクスを自動的に取り込みます。](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html)
-
-### [カスタムメトリック [#custom-metrics]](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html)
-
-[CloudWatchカスタムメトリクスを取り込むには、カスタムネームスペースがCloudWatchメトリクスストリームコンフィギュレーションに表示され、包含ルールまたは除外ルールによってフィルタリングされていないことを確認してください。](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html)
-
-### [パーセンタイル [#percentiles]](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html)
-
-[AWS CloudWatchを使用すると、パーセンタイルなどの](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html)[追加の統計を定義](https://aws.amazon.com/about-aws/whats-new/2022/04/amazon-cloudwatch-metric-streams-additional-statistics/)できます。
-
-次の手順に従って、CloudWatchストリームで利用可能なすべてのメトリクスにパーセンタイルを追加します。
-
-1. AWSで、CloudWatchストリーム設定を(API、CLI、またはAWSコンソールを介して) `StatisticConfiguration`設定で必要なパーセンタイルで更新します。たとえば、p90、p95、およびp99パーセンタイルを`ELB latency metric (aws.elb.Latency)`に追加できます。
-
-2. 数分後、新しい統計がストリームで利用可能になり、NewRelicによって取り込まれるはずです。パーセンタイルは、次の命名規則を使用して照会できます。
+2. After a few minutes, the new statistic should be made available in the stream and ingested by New Relic. Percentiles can be queried using this naming convention:
```sql
From Metric select max(aws.elb.Latency.p99) where collector.name = 'cloudwatch-metric-streams' timeseries
```
-AWSは、パーセンタイルを超えるストリーム内の他の統計をサポートしていますが、それらはOpen Telemetryエクスポート形式(JSONのみ)では利用できず、現在NewRelicではサポートされていません。
+Although AWS supports other statistics in the stream beyond percentiles, those aren't made available in the Open Telemetry export format (only JSON) and are currently not supported by New Relic.
-価格設定、制限、および事前設定の詳細については、 [AWSのドキュメント](https://aws.amazon.com/about-aws/whats-new/2022/04/amazon-cloudwatch-metric-streams-additional-statistics/)をご覧ください。
+Learn more about pricing, limitations, and advance configurations from the [AWS documentation](https://aws.amazon.com/about-aws/whats-new/2022/04/amazon-cloudwatch-metric-streams-additional-statistics/).
## データの管理 [#manage-data]
-New Relic UIは、アカウントに取り込まれているデータを追跡するための[一連のツール](/docs/telemetry-data-platform/ingest-manage-data/manage-data/manage-your-data/)を提供します。すべての詳細を表示するには、設定メニューの**\[データの管理]に移動します**。AWS Metric Streams統合から取り込まれたメトリクスは、**メトリクス**バケットで考慮されます。
+The New Relic UI provides a [set of tools](/docs/telemetry-data-platform/ingest-manage-data/manage-data/manage-your-data/) to keep track of the data being ingested in your account. Go to **Manage your data** in the settings menu to see all details. Metrics ingested from AWS Metric Streams integrations are considered in the **Metric** bucket.
-データをより詳細に表示する必要がある場合は、 `Metric` で [`bytecountestimate()` 関数](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts/#byte-count-estimate) を使用して、取り込まれるデータを推定します。たとえば、次のクエリは、過去 30 日間に AWS Metric Streams 統合を介して処理されたすべてのメトリクスから取り込まれたデータを表します (バイト単位)。
+If you need a more granular view of the data, use the [`bytecountestimate()` function](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts/#byte-count-estimate) on `Metric` to estimate the data being ingested. For example, the following query represents data ingested from all metrics processed via AWS Metric Streams integration in the last 30 days (in bytes):
```
FROM Metric SELECT bytecountestimate()/10e8 as 'GB Estimate' WHERE collector.name='cloudwatch-metric-streams' SINCE 30 day ago
```
-AWSサービス/ネームスペースによって取り込まれたデータを表示するには:
+To see data ingested by AWS service/namespace:
```
FROM Metric SELECT bytecountestimate()/10e8 as 'GB Estimate' WHERE collector.name='cloudwatch-metric-streams' FACET aws.Namespace
```
-AWSサービス/ネームスペースによって処理された生のメトリックスアップデートの数を確認するには:
+To see number of raw metric updates processed by AWS service/namespace:
```
FROM Metric SELECT dataPointCount() WHERE collector.name='cloudwatch-metric-streams' FACET aws.Namespace
```
-インジェストされるデータをコントロールするために、次のような対応をお勧めします。
+We recommend the following actions to control the data being ingested:
-* New Relicで監視したいAWSアカウントとリージョンでのみメトリックストリームが有効になっていることを確認します。
-* New Relicによって監視されているサービスまたはネームスペースを選択するには、CloudWatchMetricStreams**の包含フィルターと除外フィルターを使用**します。
-* [ドロップデータルール](/docs/telemetry-data-platform/manage-data/drop-data-using-nerdgraph/)を使用して、カスタムフィルターに基づくメトリックを破棄することを検討してください。(たとえば、名前空間とタグ、タグ値、またはその他の有効なNRQL基準ごとにメトリックを削除します。)
+* Make sure metric streams are enabled only on the AWS accounts and regions you want to monitor with New Relic.
+* **Use the inclusion and exclusion filters** in the CloudWatch Metric Streams in order to select which services or namespaces are being monitored by New Relic.
+* Consider using [drop data rules](/docs/telemetry-data-platform/manage-data/drop-data-using-nerdgraph/) to discard metrics based on custom filters. (For example, drop metrics by namespace and tag, tag value, or any other valid NRQL criteria.)
- AWS Metric Streams を介して送信されたメトリクスは、データが取り込まれる New Relic アカウントの Metric API 制限にカウントされます。
+ Metrics sent via AWS Metric Streams count against your Metric API limits for the New Relic account where data will be ingested.
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/amazon-integrations/connect/aws-metric-stream.mdx b/src/i18n/content/jp/docs/infrastructure/amazon-integrations/connect/aws-metric-stream.mdx
index 56853ccd0ad..57ddb705a43 100644
--- a/src/i18n/content/jp/docs/infrastructure/amazon-integrations/connect/aws-metric-stream.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/amazon-integrations/connect/aws-metric-stream.mdx
@@ -1,21 +1,21 @@
---
-title: Amazon CloudWatch Metric Streamsの統合の紹介
+title: Amazon CloudWatch Metric Streamsのインテグレーションの概要
tags:
- Integrations
- Amazon integrations
- AWS integrations list
metaDescription: Use AWS CloudWatch Metric Streams integration to monitor all CloudWatch metrics from all AWS services.
freshnessValidatedDate: never
-translationType: machine
+translationType: human
---
-AWS CloudWatch Metric Streams の統合は、カスタム名前空間を含むすべての AWS サービスからのすべての CloudWatch メトリクスを監視するための主要な推奨ソリューションです。
+当社のAWS Cloudwatch Metric Streamsのインテグレーションは、すべてのAWSサービス(カスタムネームスペースを含む)からのすべてのCloudWatchメトリクスを監視するための推奨ソリューションです。
-**[New Relic で AWS Metric Stream モニタリングを設定する](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup)**方法を学びます。
+**[New RelicでAWSメトリクスストリーム監視を設定する](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup)**方法を学びます。
-## なぜそれが重要なのか? [#why-it-matters]
+## これが重要な理由 [#why-it-matters]
-CloudWatch Metric Streams が登場する前は、AWS モニタリング パートナーにとっての唯一のソリューションは、ポーリング フリートをデプロイし、複数の AWS API を定期的に呼び出してメトリクスとメタデータを取得することでした。次の表は、両方のソリューションの違いを示しています。
+CloudWatchメトリクスストリームが登場する前は、AWS監視パートナーにとっての唯一のソリューションは、ポーリングフリートをデプロイし、複数のAWS APIを定期的に呼び出してメトリクスとメタデータを取得することでした。次の表は、両方のソリューションの違いを示しています。
@@ -33,111 +33,111 @@ CloudWatch Metric Streams が登場する前は、AWS モニタリング パー
- メトリクスを収集するためには、各AWSサービスとの連携が必要となります。
+ メトリクスを収集するには、各AWSサービスとの統合が必要です。
|
- **すべてのAWSサービスとカスタム名前空間からのすべてのCloudWatchメトリクスは、特定の統合の構築や更新を必要とせずに、New Relicで一度に** 。
+ **すべてのAWSサービスのすべてのCloudWatchメトリクスとカスタムネームスペース**は、特定のインテグレーションを構築または更新する必要がなく、New Relicで一度に利用できます。
- 例外が 1 つあります。メトリクスが AWS CloudWatch で利用可能になり、2 時間以上の遅延がある場合、これらのメトリクスはストリームに含まれません。
+ 例外が1つあります。メトリクスがAmazon CloudWatchで利用可能になるまでに2時間以上の遅延がある場合、これらのメトリクスはストリームに含まれません。
|
- これにより、New Relic でアラートとダッシュボードに使用できるメトリクスに遅延が追加されます。最速のポーリング間隔は 5 分です。
+ これにより、New Relicでアラートとダッシュボードに使用できるメトリクスに追加の遅延が追加されます。最速のポーリング間隔は5分です。
|
- メトリクスは AWS CloudWatch で利用できるため、2 分未満でストリーミングされるため、レイテンシーが大幅に改善されます。
+ メトリクスはAWS CloudWatchで利用でき、2分未満でストリーミングされるため、レイテンシが大幅に改善しました。
|
- 大規模なAWS環境では、AWS APIのスロットリングが発生する可能性があります。
+ 大規模なAWS環境では、AWS APIのスロットルが発生する可能性があります。
|
- AWSのAPIスロットルが廃止されました。
+ AWS APIのスロットルが排除されます。
|
-Amazon CloudWatch Metric Streamsの統合を試してみたいですか? [New Relic](https://newrelic.com/signup) にサインアップすれば、永久に無料です。
+Amazon CloudWatchメトリクスストリームのインテグレーションを試してみませんか?[New Relicアカウントにご登録ください](https://newrelic.com/signup)、永久無料です!
-## コスト面での配慮 [#cost-considerations]
+## コストに関する考慮事項 [#cost-considerations]
-AWS CloudWatch メトリックストリームと New Relic の統合のコストを評価する際には、以下の点を考慮してください。
+AWS Cloudwatch Metric StreamsとNew Relicのインテグレーションのコストを評価する際は、次の点を考慮してください。
* [AWS CloudWatchのメトリックの更新](https://aws.amazon.com/cloudwatch/pricing/)。
-* [AWS Kinesis Firehose ingest](https://aws.amazon.com/kinesis/data-firehose/pricing/).
-* [AWS Kinesis Firehoseのデータ転送](https://aws.amazon.com/kinesis/data-firehose/pricing/).
-* オプション:選択したAWS名前空間のリソースメタデータでメトリクスを強化するために使用される[AWSConfigサービス](https://aws.amazon.com/config/pricing/)。
+* [AWS Kinesis Firehoseの取り込み](https://aws.amazon.com/kinesis/data-firehose/pricing/)
+* [AWS Kinesis Firehoseのデータ転送](https://aws.amazon.com/kinesis/data-firehose/pricing/)
+* オプション:[AWS Configサービス](https://aws.amazon.com/config/pricing/)は、選択したAWSネームスペースのリソースメタデータでメトリクスを強化するために使用します。
- AWS サービスを検出、識別、監視するには、AWS Config Service にアクセスする必要があります。このアクセス権がなければ、システムを監視したり表現したりすることはできません。
+ AWSサービスを検出、識別、監視するには、AWS Configサービスにアクセスする必要があります。このアクセス権がなければ、システムを監視したり表現したりすることはできません。
-AWS や New Relic のフィルターなど、 [データ管理](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup#manage-data)に利用できるメカニズムについて学びます。該当する場合は、必ず実稼働前環境で初期統合を完了し、限られた数の AWS リソースとサービスに基づいてソリューションの総コストを評価してください。
+AWSやNew Relicのフィルターなど、[データ管理](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup#manage-data)に利用できるメカニズムについて学びます。該当する場合は、必ず本番前環境で初期インテグレーションを完了し、限られた数のAWSリソースとサービスに基づいてソリューションの総コストを評価してください。
-## AWS APIポーリング統合からの移行 [#migrating-from-poll-integrations]
+## AWS APIポーリングインテグレーションからの移行 [#migrating-from-poll-integrations]
-現在、古いポーリングベースの AWS 統合を使用している New Relic のお客様には、新しく改善された統合への移行に関するガイダンスを提供します。
+現在、古いポーリングベースのAWSインテグレーションをご利用のNew Relicのお客様には、新しく改善されたインテグレーションへの移行に関するガイダンスを提供しています。
-両方の形式の統合を設定している場合は、メトリクスが重複する可能性があることに注意してください。例えば、 `sum`または`count`を使用するダッシュボードは、実際の数値の 2 倍を返します。 これには、 `.Sum`接尾辞を持つメトリクスを使用するアラートとダッシュボードが含まれます。
+両方の形式のインテグレーションを設定している場合は、メトリクスが重複する可能性があります。たとえば、`sum`または`count`を使用するとダッシュボードは、実際の数値の2倍を返します。これには、`.Sum`サフィックスを持つメトリクスを使用するアラートとダッシュボードが含まれます。
-安全にテストを実行できる非本番環境の New Relic アカウントにデータを送信することをお勧めします。それができない場合は、AWS CloudWatch Metric Stream フィルターを使用して、問題を引き起こす可能性のある特定の名前空間を含めたり除外したりすることができます。
+安全にテストを実行できる本番環境以外のNew Relicアカウントにデータを送信することをお勧めします。それができない場合は、Amazon CloudWatch Metric Streamsフィルターを使用して、問題を引き起こす可能性のある特定のネームスペースを含めたり除外したりできます。
-または、クエリのフィルタリングを使用して、メトリックストリームからのメトリックとポーリングからのメトリックを区別することもできます。メトリックストリームからのすべてのメトリックは、 `collector.name='cloudwatch-metric-streams'`でタグ付けされています。
+あるいは、クエリのフィルタリングを使用すると、メトリクスストリームからのメトリクスとポーリングからのメトリクスを区別することもできます。メトリクスストリームからのすべてのメトリクスには、`collector.name='cloudwatch-metric-streams'`のタグが付けられます。
-### メトリック ストリームへの移行 [#migration-steps]
+### メトリクスストリームへの移行 [#migration-steps]
-既存のお客様には、まず開発環境またはステージング環境で API ポーリングから Metric Streams に移行することをお勧めします。一般的なデプロイでは、次の手順に従って AWS Cloudwatch Metric Streams に移行します。
+既存のお客様には、まず開発環境またはステージング環境でAPIポーリングからメトリクスストリームに移行することをお勧めします。一般的なデプロイメントの場合は、次の手順に従ってAmazon CloudWatch Metric Streamsに移行します。
1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**に移動して、ポーリングからメトリクス ストリームに名前空間をレプリケートします。**Migrate to AWS Cloudwatch metric streams** \[AWS Cloudwatch メトリクス ストリームに移行] ボタンをクリックし、AWS Metric Streams アカウントを設定します。
-2. カスタマイズされた CloudFormation テンプレートをダウンロードします。このテンプレートには、既存のポーリング構成に基づく事前構成された名前空間が含まれています。
+2. カスタマイズされたCloudFormationテンプレートをダウンロードします。このテンプレートには、既存のポーリング設定に基づいて事前設定されたネームスペースが含まれています。
3. アカウントの詳細を追加します。
-CloudFormation テンプレートを使用したくない場合は、次の代替オプションがあります。
+CloudFormationテンプレートを使用しない場合は、次の代替オプションがあります。
1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**に移動します。 **Add an AWS account** \[AWS アカウントを追加] をクリックし、AWS アカウントを追加します。このステップは、AWS アカウントをポーリング統合にすでにリンクしている場合でも必要です。
-2. 最後のオンボーディングステップで、AWS CloudWatch Metric Stream と AWS Kinesis Data Firehose が有効になっていることを確認してください。これにより、メトリクスが New Relic にプッシュされます。AWS CloudWatch ではリージョンごとに 1 つのストリームが必要なので、監視する追加の AWS リージョンについてこの手順を繰り返します。
-3. 接続されているすべてのリージョンとネームスペースからメトリクスが受信されていることを確認します。これには数分かかる場合があります。
-4. 以前の AWS プロバイダー アカウントで不要なポーリング統合をすべて無効にします。 [一部の統合は Metric Streams に完全に置き換えられていないため、引き続き有効にする必要があること](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream#integrations-not-replaced-streams) に注意してください。
+2. 最後のオンボーディング手順で、Amazon CloudWatch Metric StreamsとAWS Kinesis Data Firehoseが有効になっていることを確認してください。これにより、メトリクスがNew Relicにプッシュされます。AWS CloudWatchではリージョンごとに1つのストリームが必要なため、監視対象の追加のAWSリージョンについてこの手順を繰り返します。
+3. 接続されているすべてのリージョンとネームスペースからメトリクスが受信されていることを確認します。多少時間がかかります。
+4. 前のAWSプロバイダーアカウントで不要なポーリングインテグレーションをすべて無効にします。[一部のインテグレーションはメトリクスストリームに完全に置き換えられていないため、引き続き有効にする必要があること](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream#integrations-not-replaced-streams)に注意してください。
-### クエリ、ダッシュボード、アラートに関する考察 [#considerations]
+### クエリ、ダッシュボード、アラートに関する考慮事項 [#considerations]
-AWS Metric Streams 統合では、Metric API を使用して、メトリクスを [ディメンション メトリクス](/docs/data-apis/understand-data/new-relic-data-types/#dimensional-metrics) 形式でプッシュします。
+当社のAWSメトリクスストリームのインテグレーションは、メトリクスAPIを使用して、メトリクスを[ディメンションメトリクス](/docs/data-apis/understand-data/new-relic-data-types/#dimensional-metrics)形式でプッシュします。
-ポーリングベースの AWS 統合は、 [イベント](/docs/data-apis/understand-data/new-relic-data-types/#events-new-relic) ( `ComputeSample` イベントなど) に基づいてメトリクスをプッシュし、将来的には次元メトリクスに移行される予定です。
+ポーリングベースのAWSインテグレーションは、[イベント](/docs/data-apis/understand-data/new-relic-data-types/#events-new-relic)(`ComputeSample`イベントなど)に基づいてメトリクスをプッシュしますが、将来的にはディメンションメトリクスに移行される予定です。
-この移行を支援するために、私たちは、透過的に任意のフォーマットでクエリーを書くことができるメカニズム(シミングと呼ばれる)を提供しています。そして、これらのクエリは、利用可能なソース(メトリクスまたはイベント)に基づいて期待通りに処理される。このメカニズムは、イベントからメトリクスへ、あるいはその逆と、両方向に機能する。
+この移行を支援するために、任意の形式でクエリを透過的に作成できるメカニズム(シミングと呼ばれる)が用意されています。その後、これらのクエリは、利用可能なソース(メトリクスやイベント)に基づいて期待どおりに処理されます。このメカニズムは、イベントからメトリクスへ、またはその逆の双方向で機能します。
- お客様が AWS CloudWatch Metric Stream 統合 (次元メトリック形式) でイベントベースのクエリ (サンプル) を使用できるようにするクエリ メカニズムの [制限](/docs/query-your-data/nrql-new-relic-query-language/nrql-query-tutorials/query-infrastructure-dimensional-metrics-nrql/#known-limitations) について詳しく説明します。
+ 顧客がAmazon CloudWatch Metric Streamsのインテグレーション(ディメンションメトリクス形式)でイベントベースのクエリ(サンプル)を使用できるようにする、クエリメカニズムの[制限](/docs/query-your-data/nrql-new-relic-query-language/nrql-query-tutorials/query-infrastructure-dimensional-metrics-nrql/#known-limitations)について詳しく説明します。
-投票ベースの統合から移行する場合は、次の点を考慮してください。
+ポーリングベースのインテグレーションから移行する場合は、次の点を考慮してください。
-* **ダッシュボード**: カスタム
+* **Dashboards**:カスタム
- ポーリングベースの AWS 統合イベントを使用するものは、引き続き期待どおりに機能します。
+ ポーリングベースのAWSインテグレーションイベントを使用するイベントは、引き続き期待どおりに機能します。
-* **アラート**: ポーリングベースのAWSイベントを使用したアラート条件は引き続き機能します。これらをディメンション・メトリック形式(NRQLをソースとして使用)に適応させることをお勧めします。
+* **Alerts**:ポーリングベースのAWSイベントを使用するアラート条件は引き続き機能します。これらをディメンションメトリクス形式(NRQLをソースとして使用)に適合させることをお勧めします。
* **Entities**\[エンティティ]: 監視対象エンティティのリストには、重複したエンティティが最大 24 時間表示される場合があります。
* **Attributes** \[属性]: ポーリングベースの AWS 統合では、収集されたリソース タグに `label.`プレフィックスが付けられますが、AWS CloudWatch Metric Streams 統合では、収集されたリソース タグに `tags.`というプレフィックスが付けられます。同じ AWS アカウントに対して両方の統合が有効になっている場合、イベント形式を使用するとリソース タグが両方のプレフィックスの下に表示されます。
-## メトリクスストリームに置き換わらない統合機能 [#integrations-not-replaced-streams]
+## インテグレーションはメトリクスストリームに完全には置き換えられていない [#integrations-not-replaced-streams]
-AWS CloudWatch Metric Streamsの統合は、CloudWatchメトリクスに重点を置いています。その結果、AWSサービスから完全な可視性を得るには、以下の統合を構成して有効にする必要があります。
+Amazon CloudWatch Metric Streamsのインテグレーションは、CloudWatchメトリクスに焦点を当てています。その結果、AWSサービスから完全な可視性を得るには、次のインテグレーションを設定して有効にする必要があります。
-サービスAPIに基づくポーリング統合:
+サービスAPIに基づくポーリングインテグレーション:
* AWS Billing
* AWS CloudTrail
@@ -145,13 +145,13 @@ AWS CloudWatch Metric Streamsの統合は、CloudWatchメトリクスに重点
* AWS Trusted Advisor
* AWS X-Ray
-CloudWatch Logsに基づく統合、 [Lambda経由でNew Relicに転送](/docs/logs/forward-logs/aws-lambda-sending-cloudwatch-logs):
+CloudWatchログに基づくインテグレーション、[Lambda経由でNew Relicに転送](/docs/logs/forward-logs/aws-lambda-sending-cloudwatch-logs):
-* AWSRDS拡張
+* AWS RDS拡張
* AWS VPC フローログ
-## CloudWatchメトリクスストリームでは利用できないメトリクス
+## CloudWatch Metric Streamsでは使用できないメトリクス
-メトリクスが 2 時間以上の遅延で AWS CloudWatch メトリクス ストリームに利用できる場合、これらのメトリクスはストリームに含まれません。
+メトリクスがAmazon CloudWatch Metric Streamsで利用可能になるまでに2時間以上の遅延がある場合、これらのメトリクスはストリームに含まれません。
-2 時間後に集計および公開されるメトリクスを含む可能性がある AWS 名前空間の例には、AWS DMS、AWS RDS、AWS DocDB、AWS S3、および AWS DAX が含まれます。詳細については、 [AWS のドキュメント](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-metric-streams-setup.html)を参照してください。
\ No newline at end of file
+2時間後に集約されて公開されるメトリクスが含まれる可能性のあるAWSネームスペースの例には、AWS DMS、AWS RDS、AWS DocDB、AWS S3、AWS DAXなどがあります。詳細については、[AWSのドキュメント](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-metric-streams-setup.html)を参照してください。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/elastic-container-service-integration/install-ecs-integration.mdx b/src/i18n/content/jp/docs/infrastructure/elastic-container-service-integration/install-ecs-integration.mdx
index 7d74a2eb487..9c01996e3ba 100644
--- a/src/i18n/content/jp/docs/infrastructure/elastic-container-service-integration/install-ecs-integration.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/elastic-container-service-integration/install-ecs-integration.mdx
@@ -6,110 +6,110 @@ tags:
- Installation
metaDescription: How to install New Relic's Amazon ECS integration.
freshnessValidatedDate: never
-translationType: machine
+translationType: human
---
-New Relic の ECS 統合は、Amazon ECS 環境からのパフォーマンス データをレポートおよび表示します。
+New RelicのECSインテグレーションは、Amazon ECS環境からのパフォーマンスデータをレポートおよび表示します。
## インストールの概要 [#overview]
-を [インストールする](#install-options)前に、次の 2 つの起動タイプに対してインフラストラクチャ エージェント (`newrelic-infra`) がどのようにデプロイされるかを概要を理解するのに役立ちます。
+[インストールする](#install-options)前に、次の2つの起動タイプに対してinfrastructureエージェント(`newrelic-infra`)がどのようにデプロイされるかの概要を理解しておくとよいでしょう。
-* **EC2 および外部 (ECS Anywhere) 起動タイプ:** エージェントは、デーモン スケジューリング戦略を使用してサービスとして ECS クラスターにデプロイされます ([こちらの AWS ドキュメントで説明されています](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/scheduling_tasks.html))。これにより、クラスターのすべての EC2 インスタンスにエージェントがインストールされ、ECS と Docker コンテナが監視されます。
-* **AWS Fargate 起動タイプ:** 監視するすべてのタスクで、エージェントはサイドカーとしてデプロイされます。オプション: [AWS がサイドカーを定義する方法について詳しく学びます](https://aws.amazon.com/blogs/compute/nginx-reverse-proxy-sidecar-container-on-amazon-ecs)。
+* **EC2およびEXTERNAL(ECS Anywhere)起動タイプ:**当社のエージェントは、デーモンスケジューリング戦略を使用して、サービスとしてECSクラスタにデプロイされます([こちらのAWSドキュメントで説明](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/scheduling_tasks.html))。これにより、クラスタのすべてのEC2インスタンスにエージェントがインストールされ、ECSとDockerコンテナが監視されます
+* **AWS Fargate起動タイプ:**監視するすべてのタスクで、エージェントはサイドカーとしてデプロイされます。オプション:[AWSがサイドカーを定義する方法の詳細をご覧ください](https://aws.amazon.com/blogs/compute/nginx-reverse-proxy-sidecar-container-on-amazon-ecs)
## インストールオプション [#install-options]
必要なインストールを選択します。
-* [AWS CloudFormationによるインストール](#cloud-formation-install)
-* [自動スクリプトによるインストール](#auto-script-install)
-* [手動インストール](#manual-install)
+* [AWS CloudFormationを使用してインストールする](#cloud-formation-install)
+* [自動スクリプトを使用してインストールする](#auto-script-install)
+* [手動でインストールする](#manual-install)
-## CloudFormationによるインストール [#cloud-formation-install]
+## CloudFormationを使用してインストールする [#cloud-formation-install]
-AWS CloudFormation を使用したインストールを支援するために、EC2、EXTERNAL (ECS Anywhere)、および AWS Fargate 起動タイプの AWS アカウントに ECS 統合をインストールするいくつかの CloudFormation テンプレートが提供されています。
+AWS CloudFormationを使用したインストールを支援するために、EC2、EXTERNAL(ECS Anywhere)、およびAWS Fargate起動タイプのAWSアカウントに、ECSインテグレーションをインストールするCloudFormationテンプレートがいくつか用意されています。
-CloudFormation を使用してインストールするには:
+CloudFormationを使用してインストールするには:
-1. ECS 統合タスクを登録するには、 [このスタック](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?templateURL=https://nr-downloads-main.s3.amazonaws.com/infrastructure_agent/integrations/ecs/cloudformation/task/master.yaml&stackName=NewRelicECSIntegration)をデプロイします。スタックを目的のリージョンにデプロイしていることを確認してください。このスタックは次のリソースを作成します。
+1. ECSインテグレーションタスクを登録するには、[このスタック](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?templateURL=https://nr-downloads-main.s3.amazonaws.com/infrastructure_agent/integrations/ecs/cloudformation/task/master.yaml&stackName=NewRelicECSIntegration)をデプロイします。スタックを目的のリージョンにデプロイしていることを確認してください。このスタックは次のリソースを作成します。
- * ニューレリックを保存する秘密
+ * New Relic
- 。
+ を保存するシークレット
- * ライセンスキーにアクセスするためのポリシーです。
+ * ライセンスキーにアクセスするためのポリシー
- * ECSタスク`ExecutionRole`として使用されるインスタンスロールで、ライセンスキーにアクセスできます。
+ * ライセンスキーへのアクセス権を持つ、ECSタスク`ExecutionRole`として使用されるインスタンスロール
- * EC2 および外部 (ECS Anywhere) の起動タイプ: New Relic インフラストラクチャ ECS 統合タスクを登録します。
+ * EC2および外部(ECS Anywhere)の起動タイプ:New Relic Infrastructure ECSインテグレーションタスクを登録する
-2. お客様のローンチタイプに応じた追加の指示に従ってください。
+2. 起動タイプに応じて追加の手順に従ってください。
- すべてのEC2コンテナ・インスタンスでタスクを実行するサービスを作成するには、 [このスタックをデプロイします](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?templateURL=https://nr-downloads-main.s3.amazonaws.com/infrastructure_agent/integrations/ecs/cloudformation/service.yaml&NewRelicInfraTaskVersion=1).
+ すべてのEC2コンテナインスタンスでタスクを実行するサービスを作成するには、[このスタック](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?templateURL=https://nr-downloads-main.s3.amazonaws.com/infrastructure_agent/integrations/ecs/cloudformation/service.yaml&NewRelicInfraTaskVersion=1)をデプロイします。
- EC2起動タイプを選択します。次に、 `newrelic-infra`という名前のサービスがクラスターに作成されます。
+ EC2起動タイプを選択します。次に、`newrelic-infra`という名前のサービスがクラスタ内に作成されます。
- すべての外部コンテナ・インスタンスでタスクを実行するサービスを作成するには、 [このスタック](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?templateURL=https://nr-downloads-main.s3.amazonaws.com/infrastructure_agent/integrations/ecs/cloudformation/service.yaml&NewRelicInfraTaskVersion=1) をデプロイします。
+ すべての外部コンテナインスタンスでタスクを実行するサービスを作成するには、[このスタック](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?templateURL=https://nr-downloads-main.s3.amazonaws.com/infrastructure_agent/integrations/ecs/cloudformation/service.yaml&NewRelicInfraTaskVersion=1)をデプロイします。
- EXTERNALLaunchtypeを選択します。次に、 `newrelic-infra-external`という名前のサービスがクラスターに作成されます。
+ EXTERNAL起動タイプを選択します。次に、`newrelic-infra-external`という名前のサービスがクラスタ内に作成されます。
- 1. デプロイするサイドカー・コンテナを含むタスク定義例をダウンロードします。
+ 1. デプロイするサイドカーコンテナを含むタスク定義の例をダウンロードします。
```
curl -O https://download.newrelic.com/infrastructure_agent/integrations/ecs/newrelic-infra-ecs-fargate-example-latest.json
```
- Gravitonの場合、 `"cpuArchitecture": "X86_64"`を`"cpuArchitecture": "ARM64"`に置き換えます。
+ Gravitonの場合は、`"cpuArchitecture": "X86_64"`を`"cpuArchitecture": "ARM64"`に置き換えます。
- 2. このタスク定義の`newrelic-infra`コンテナを、監視するタスク定義のサイドカーとして追加します。このタスク例では、アプリケーションのコンテナーがプレースホルダー`busybox`コンテナーを置き換えます。
+ 2. このタスク定義の`newrelic-infra`コンテナを、監視するタスク定義にサイドカーとして追加します。このタスク例では、アプリケーションのコンテナがプレースホルダー`busybox`コンテナを置き換えます。
-完了したら、 [「次のステップ」](#next-steps)を参照してください。
+完了したら、[次の手順](#next-steps)を参照してください。
-## 自動スクリプトによるインストール [#auto-script-install]
+## 自動スクリプトでインストールする [#auto-script-install]
-[インストールオプション](#install-overview) の一つは、当社のインストールスクリプトを使用することです。自動インストールスクリプトを使用するには
+[インストールオプション](#install-overview)の1つは、インストールスクリプトを使用することです。自動インストールスクリプトを使用するには:
-1. ECSインテグレーションのインストーラーをダウンロードする。
+1. ECSインテグレーションインストーラをダウンロードします
```
curl -O https://download.newrelic.com/infrastructure_agent/integrations/ecs/newrelic-infra-ecs-installer.sh
```
-2. インストーラーに実行権限を追加する。
+2. インストーラに実行権限を追加します
```
chmod +x newrelic-infra-ecs-installer.sh
```
-3. `-h`で実行して、ドキュメントと要件を確認します。
+3. `-h`で実行してドキュメントと要件を確認します
```
./newrelic-infra-ecs-installer.sh -h
```
-4. AWSプロファイルがECSクラスターが作成されたのと同じリージョンを指していることを確認します。
+4. AWSプロファイルが ECSクラスタが作成されたのと同じリージョンを指していることを確認します
```
$ aws configure get region
@@ -120,7 +120,7 @@ CloudFormation を使用してインストールするには:
arn:aws:ecs:us-east-1:YOUR_AWS_ACCOUNT:cluster/YOUR_CLUSTER
```
-5. を指定して、インストーラーを実行します。 およびクラスター名。
+5. とクラスタ名を指定してインストーラを実行します
```
./newrelic-infra-ecs-installer.sh -c YOUR_CLUSTER_NAME -l YOUR_LICENSE_KEY -e
@@ -143,7 +143,7 @@ CloudFormation を使用してインストールするには:
```
./newrelic-infra-ecs-installer.sh -f -c YOUR_CLUSTER_NAME -l YOUR_LICENSE_KEY
@@ -151,32 +151,32 @@ CloudFormation を使用してインストールするには:
-6. Fargate 起動タイプ (EC2 起動タイプではない) の追加手順:
+6. Fargate起動タイプ(EC2起動タイプではない)の追加手順:
- * デプロイするサイドカー・コンテナを含むタスク定義例をダウンロードします。
+ * デプロイするサイドカーコンテナを含むタスク定義の例をダウンロードします。
```
curl -O https://download.newrelic.com/infrastructure_agent/integrations/ecs/newrelic-infra-ecs-fargate-example-latest.json
```
- Gravitonの場合、 `"cpuArchitecture": "X86_64"`を`"cpuArchitecture": "ARM64"`に置き換えます。
+ Gravitonの場合は、`"cpuArchitecture": "X86_64"`を`"cpuArchitecture": "ARM64"`に置き換えます。
- 作成したばかりの`NewRelicECSTaskExecutionRole`をタスク実行ロールとして使用する必要があることに注意してください。ロールに関連付けられているポリシー(すべての起動タイプ):
+ 作成したばかりの`NewRelicECSTaskExecutionRole`をタスク実行ロールとして使用する必要があります。ロールにアタッチされたポリシー(すべての起動タイプ):
- * NewRelicSSMLicenseKeyReadAccessは、ライセンスキーを使用してSSMパラメーターにアクセスできるようにします。
+ * NewRelicSSMLicenseKeyReadAccessは、ライセンスキーを使用してSSMにアクセスできるようにします
* AmazonECSTaskExecutionRolePolicy
- * 次に、監視するコンテナをサイドカーとして追加できます。
+ * 次に、監視したいコンテナをサイドカーとして追加できます
-完了したら、 [「次のステップ」](#next-steps)を参照してください。
+完了したら、[次の手順](#next-steps)を参照してください。
-## マニュアルインストール
+## 手動インストール
-[インストールオプション](#install-overview)の1つは、[自動インストーラスクリプト](#auto-script-install)によって実行される手順を手動で実行することです。 `awscli`ツールを使用してこれを行う方法を説明します。
+[インストールオプション](#install-overview)の1つは、[自動インストーラスクリプト](#auto-script-install)によって実行される手順を手動で実行することです。`awscli`ツールを使用してこれを行う方法について説明します。
-1. AWSプロファイルがECSクラスターが作成されたのと同じリージョンを指していることを確認します。
+1. AWSプロファイルが ECSクラスタが作成されたのと同じリージョンを指していることを確認します
```
$ aws configure get region
@@ -187,7 +187,7 @@ CloudFormation を使用してインストールするには:
arn:aws:ecs:us-east-1:YOUR_AWS_ACCOUNT:cluster/YOUR_CLUSTER
```
-2. あなたの保存 Systems Manager (SSM) パラメータとして:
+2. をSystems Manager(SSM)パラメーターとして保存します
```
aws ssm put-parameter \
@@ -197,7 +197,7 @@ CloudFormation を使用してインストールするには:
--value "NEW_RELIC_LICENSE_KEY"
```
-3. ライセンスキーパラメーターにアクセスするためのIAMポリシーを作成します。
+3. ライセンスキーパラメーターにアクセスするためのIAMポリシーを作成します
```
aws iam create-policy \
@@ -206,7 +206,7 @@ CloudFormation を使用してインストールするには:
--description "Provides read access to the New Relic SSM license key parameter"
```
-4. タスク実行ロールとして使用するIAMロールを作成します。
+4. タスク実行ロールとして使用するIAMロールを作成します
```
aws iam create-role \
@@ -215,7 +215,7 @@ CloudFormation を使用してインストールするには:
--description "ECS task execution role for New Relic infrastructure"
```
-5. ポリシー`NewRelicSSMLicenseKeyReadAccess`と`AmazonECSTaskExecutionRolePolicy`をロールに添付します。
+5. ポリシー`NewRelicSSMLicenseKeyReadAccess`と`AmazonECSTaskExecutionRolePolicy`をロールにアタッチします
```
aws iam attach-role-policy \
@@ -223,28 +223,28 @@ CloudFormation を使用してインストールするには:
--policy-arn "POLICY_ARN"
```
-6. 詳細については、ローンチタイプを選択してください。
+6. 詳細な手順については、以下の起動タイプを選択してください
- EC2起動タイプの追加手順
+ EC2起動タイプの追加手順:
- 1. New Relic ECS統合タスク定義テンプレートファイルをダウンロードします。
+ 1. New Relic ECSインテグレーションのタスク定義テンプレートファイルをダウンロードします。
```
curl -O https://download.newrelic.com/infrastructure_agent/integrations/ecs/newrelic-infra-ecs-ec2-latest.json
```
- 2. テンプレートファイルのタスク実行ロールを、新しく作成したロールで置き換えます。
+ 2. テンプレートファイル内のタスク実行ロールを、新しく作成したロールに置き換えます。
```
"executionRoleArn": "NewRelicECSTaskExecutionRole",
```
- 3. `secret`の`valueFrom`属性をSystemsManagerパラメーターの名前に置き換えます。
+ 3. `secret`の`valueFrom`属性をSystems Managerパラメーターの名前に置き換えます。
```
secrets": [
@@ -261,15 +261,15 @@ CloudFormation を使用してインストールするには:
aws ecs register-task-definition --cli-input-json file://newrelic-infra-ecs-ec2-latest.json
```
- 5. 登録したタスクに対して、 [デーモンのスケジューリング](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs_services.html) 戦略でサービスを作成します。
+ 5. 登録されたタスクの[デーモンスケジューリング](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs_services.html)戦略を使用してサービスを作成します。
- EC2起動タイプの場合
+ EC2起動タイプの場合:
```
aws ecs create-service --cluster "YOUR_CLUSTER_NAME" --service-name "newrelic-infra" --task-definition "newrelic-infra" --scheduling-strategy DAEMON --launch-type EC2
```
- EXTERNAL(ECS Anywhere)の起動タイプの場合。
+ EXTERNAL(ECS Anywhere)起動タイプの場合:
```
aws ecs create-service --cluster "YOUR_CLUSTER_NAME" --service-name "newrelic-infra-external" --task-definition "newrelic-infra" --scheduling-strategy DAEMON --launch-type EXTERNAL
@@ -278,61 +278,60 @@ CloudFormation を使用してインストールするには:
- AWS Fargateのローンチタイプの追加手順です。
+ AWS Fargate起動タイプの追加手順:
- 1. デプロイするサイドカー・コンテナを含むタスク定義例をダウンロードします。
+ 1. デプロイするサイドカーコンテナを含むタスク定義の例をダウンロードします。
```
curl -O https://download.newrelic.com/infrastructure_agent/integrations/ecs/newrelic-infra-ecs-fargate-example-latest.json
```
- Gravitonの場合、 `"cpuArchitecture": "X86_64"`を`"cpuArchitecture": "ARM64"`に置き換えます。
+ Gravitonの場合は、`"cpuArchitecture": "X86_64"`を`"cpuArchitecture": "ARM64"`に置き換えます。
- 2. このタスク定義の`newrelic-infra`コンテナを、監視するタスク定義のサイドカーとして追加します。このタスク例では、アプリケーションのコンテナーがプレースホルダー`busybox`コンテナーを置き換えます。
+ 2. このタスク定義の`newrelic-infra`コンテナを、監視するタスク定義にサイドカーとして追加します。このタスク例では、アプリケーションのコンテナがプレースホルダー`busybox`コンテナを置き換えます。
-完了したら、 [「次のステップ」](#next-steps)を参照してください。
+完了したら、[次の手順](#next-steps)を参照してください。
-## インストール後の手順 [#next-steps]
+## インストール後の次の手順 [#next-steps]
-この統合をインストールした後:
+このインテグレーションをインストールした後:
-* 数分待ってから、 [UIでデータを探してみてください](/docs/ecs-integration-understand-use-data) 。
-* 推奨します。ECS クラウド・インテグレーション [をインストールすると、クラスターやサービスに関する情報など、その他の ECS データを取得できます。](/docs/integrations/amazon-integrations/aws-integrations-list/aws-ecsecr-monitoring-integration)
-* [](/docs/integrations/amazon-integrations/aws-integrations-list/aws-ecsecr-monitoring-integration)
-* [](/docs/integrations/amazon-integrations/aws-integrations-list/aws-ecsecr-monitoring-integration)[推奨される警告条件](/docs/ecs-integration-recommended-alert-conditions) を参照してください。
-* このプロセスで作成される [AWS リソース](#aws-resources) を理解する。
+* 数分待ってから、[UIでデータを探します](/docs/ecs-integration-understand-use-data)
+* 推奨:[ECSクラウドインテグレーション](/docs/integrations/amazon-integrations/aws-integrations-list/aws-ecsecr-monitoring-integration)をインストールします。これにより、クラスタやサービスに関する情報を含む他のECSデータが取得されます
+* [推奨アラート条件](/docs/ecs-integration-recommended-alert-conditions)を参照してください
+* このプロセスによって作成される[AWSリソース](#aws-resources)を理解します
## 作成されたAWSリソース [#aws-resources]
-デフォルト/推奨値を使用してECSインテグレーションをインストールすると、AWSで次のようになります。
+デフォルト/推奨値を使用してECSインテグレーションをインストールすると、AWSで次のことが行われます。
-* Systems Manager (SSM) パラメータ`/newrelic-infra/ecs/license-key`を作成します。このシステム パラメータには、New Relic が含まれています。
+* Systems Manager(SSM)パラメーター`/newrelic-infra/ecs/license-key` を作成します。このシステムパラメーターには New Relic
- .
+ が含まれています
-* IAMポリシー`NewRelicSSMLicenseKeyReadAccess`を作成します。これにより、ライセンスキーを使用してSSMパラメータにアクセスできるようになります。
+* IAMポリシー`NewRelicSSMLicenseKeyReadAccess`を作成します。これにより、ライセンスキーを使用してSSMライセンスへのアクセスが可能になります
-* [タスク実行ロール](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/task_execution_IAM_role.html)として使用されるIAMロール`NewRelicECSTaskExecutionRole`を作成します。役割に関連付けられているポリシー:
+* [タスク実行ロール](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/task_execution_IAM_role.html)として使用するIAMロール`NewRelicECSTaskExecutionRole`を作成します。ロールにアタッチされたポリシー:
- * `NewRelicSSMLicenseKeyReadAccess` (インストーラーによって作成されます)。
+ * `NewRelicSSMLicenseKeyReadAccess` (インストーラにより作成)
* `AmazonECSTaskExecutionRolePolicy`
-* EC2および外部(ECS Anywhere)起動タイプの`newrelic-infra` ECSタスク定義を登録します。
+* EC2および外部(ECS Anywhere)起動タイプの`newrelic-infra` ECSタスク定義を登録します
-* EC2 [launch type](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/launch_types.html) の場合も同様に行われます。
+* EC2[起動タイプ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/launch_types.html)の場合、以下も行われます
* [デーモンスケジューリング](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs_services.html)戦略とEC2起動タイプを使用して、登録されたタスクのサービス`newrelic-infra`を作成します。
-* EXTERNAL (ECS Anywhere) [起動タイプ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/launch_types.html) の場合も同様に行います。
+* EXTERNAL(ECS Anywhere)[起動タイプ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/launch_types.html)の場合、以下も行われます
- * [デーモンスケジューリング](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs_services.html)戦略とEXTERNAL(ECS Anywhere)起動タイプを使用して、登録されたタスクのサービス`newrelic-infra-external`を作成します。
\ No newline at end of file
+ * [デーモンスケジューリング](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs_services.html)戦略とEXTERNAL(ECS Anywhere)起動タイプを使用して、登録されたタスクのサービス`newrelic-infra-external`を作成します
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior.mdx b/src/i18n/content/jp/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior.mdx
index ce3c4efba92..af8c8bfbd0b 100644
--- a/src/i18n/content/jp/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior.mdx
@@ -90,11 +90,11 @@ Smart verboseモードでは、エラーメッセージが検出されるまで
* **エージェントが冗長モードで実行される場合**: DEBUGエージェントのログエントリとしてSTDERRの全行を転送するだけで、\`msg\`フィールド内に統合行のコンテキストを配置します。
* **それ以外の場合**: 想定されるフォーマット(下記参照)に沿って行を解析し、深刻度が \`fatal\` または \`error\` の統合によって生成されたエントリのみをエージェントの ERROR レベルとして記録します。この場合、フィールドは構造化された方法で抽出され、転送されます (したがって、エージェントで JSON 出力が有効な場合、フィールドはクエリ可能になります。
-インフラストラクチャエージェントは、ログ設定で明示的に定義されている統合のエラーをフィルタリングすることもできます。 この例では、エージェント ログがデバッグ以外のレベルにある場合、nri-mssql からのエラーは表示されません。
+デフォルトでは、インフラストラクチャエージェントは、統合の実行を妨げない統合からのエラーをフィルタリングして除外します。 ログレベルが DEBUG に設定されている場合、または統合がログ構成に具体的にリストされている場合にのみ、統合からのすべてのエラーが表示されます。 たとえば、この設定では、ログレベルが INFO であっても、 `nri-mssql`からのすべてのエラーが表示されます。
```YAML
log:
- exclude_filters:
+ include_filters:
integration_name:
- nri-mssql
```
diff --git a/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/configuration/infrastructure-agent-configuration-settings.mdx b/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/configuration/infrastructure-agent-configuration-settings.mdx
index fe9036fb2f2..d186384256c 100644
--- a/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/configuration/infrastructure-agent-configuration-settings.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/configuration/infrastructure-agent-configuration-settings.mdx
@@ -1,50 +1,50 @@
---
-title: インフラストラクチャエージェントの設定
+title: Infrastructure agent configuration settings
tags:
- Infrastructure
- Install the infrastructure agent
- Configuration
metaDescription: 'Configuration settings for the New Relic infrastructure agent, including YAML and environment variable names, value, minimum agent version.'
freshnessValidatedDate: never
-translationType: machine
+translationType: human
---
-インフラストラクチャ・エージェントには、その動作を微調整するための [の設定が多数用意されています](/docs/infrastructure/new-relic-infrastructure/configuration/configure-infrastructure-agent) 。ここでは
+The infrastructure agent has a large set of [configuration settings to fine-tune its behavior](/docs/infrastructure/new-relic-infrastructure/configuration/configure-infrastructure-agent). Here we:
-* すべての設定オプションを(YAMLと環境変数名の両方で)一覧表示します。
-* 各設定の役割と使用するタイミングを説明します。
-* 変数のタイプとデフォルト値(ある場合)を指定します。
-* 最低限必要なエージェントのバージョンを該当するものを記載してください。
+* List all the configuration options (in both their YAML and the environment variable names).
+* Explain what the settings do and when to use them.
+* Give the variable type and default value (if any).
+* List the minimum required agent version as applicable.
- シークレット管理を使用すると、統合の構成ファイルにプレーン テキストとして機密データ (パスワードなど) を書き込むことなく、機密データ (パスワードなど) を使用するようにエージェントのオンホスト統合をインフラストラクチャと構成できます。詳細については、 [「シークレット管理」](/docs/integrations/host-integrations/installation/secrets-management)を参照してください。
+ With secrets management, you can configure the agent on-host integrations with infrastructure to use sensitive data (such as passwords) without having to write them as plain text into the integration's configuration file. For more information, see [Secrets management](/docs/integrations/host-integrations/installation/secrets-management).
まだNewRelicアカウントがありませんか?永久に無料で[サインアップ](https://newrelic.com/signup) します。
-## 始めましょう [#requirements]
+## スタートガイド [#requirements]
-[New Relic アカウント](https://newrelic.com/signup) (永久に無料です)を作成し、 [インフラストラクチャエージェント](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent/) をインストールすると、お客様の環境に合わせてインフラストラクチャエージェントを設定することができます。
+You'll be able to configure our infrastructure agent to suit your environnment after you [create a New Relic account](https://newrelic.com/signup) (it's free, forever) and [install the infrastructure agent](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent/).
-必要な設定は[`license_key`](#license-key)のみです。
+The [`license_key`](#license-key) is the only required setting.
-これらすべての変数の使用方法の例については、 [GitHub のサンプル構成テンプレートを](https://github.com/newrelic/infrastructure-agent/blob/master/assets/examples/infrastructure/newrelic-infra-template.yml.example)参照してください。
+For an example of how all these variables can be used, see our [sample configuration template in GitHub](https://github.com/newrelic/infrastructure-agent/blob/master/assets/examples/infrastructure/newrelic-infra-template.yml.example).
-## エージェント変数 [#agent-variables]
+## Agent variables [#agent-variables]
license_key ( REQUIRED)>}
+ title={<>license_key (REQUIRED)>}
>
- を指定します New Relic アカウント用。 エージェントはこのキーを使用して、サーバーのメトリクスを New Relic アカウントに関連付けます。この設定は、標準のインストール プロセスの一部として作成されます。
+ Specifies the for your New Relic account. The agent uses this key to associate your server's metrics with your New Relic account. This setting is created as part of the standard installation process.
- YMLオプション名
+ YML option name
|
@@ -76,7 +76,7 @@ translationType: machine
|
- ストリング
+ 文字列
|
|
@@ -86,7 +86,7 @@ translationType: machine
- 例:
+ 例:
```yml
license_key: 1234567890abcdefghijklmnopqrstuvwxyz1234
@@ -96,15 +96,15 @@ translationType: machine
- Fedrampのエンドポイントを使用するかどうかを指定します。
+ Specifies whether Fedramp endpoints should be used.
- YMLオプション名
+ YML option name
|
@@ -136,7 +136,7 @@ translationType: machine
|
- ブール値
+ boolean
|
@@ -156,15 +156,15 @@ translationType: machine
id="max-procs"
title="max_procs"
>
- エージェントが使用できる論理プロセッサの数を指定します。この値を増やすことで、異なるコア間で負荷を分散することができます。
+ Specifies the number of logical processors available to the agent. Increasing this value helps to distribute the load between different cores.
- `-1`に設定されている場合、エージェントは環境変数`GOMAXPROCS`を読み取ろうとします。この変数が設定されていない場合、デフォルト値はホストで使用可能なコアの総数になります。
+ If set to `-1`, the agent will try to read the environment variable `GOMAXPROCS`. If this variable is not set, the default value will be the total number of cores available in the host.
- YMLオプション名
+ YML option name
|
@@ -216,17 +216,17 @@ translationType: machine
id="payload-compression-level"
title="payload_compression_level"
>
- バージョン[1.0.804](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes/new-relic-infrastructure-agent-10804)以降では、エージェントから送信されるデータはデフォルトで圧縮されています。ペイロードの圧縮を無効にするには、 `payload_compression_level`を0に設定します。
+ Since version [1.0.804](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes/new-relic-infrastructure-agent-10804) or higher, data sent from the agent is compressed by default. To disable payload compression, set `payload_compression_level` to 0.
- **推奨:** この設定は変更しないでください。
+ **Recommendation:** Do not change this setting.
- YMLオプション名
+ YML option name
|
@@ -278,15 +278,15 @@ translationType: machine
id="startup-connection-retries"
title="startup_connection_retries"
>
- 起動時にNew Relicのプラットフォームの可用性を確認するために、エージェントがエラーを投げる前にリクエストを再試行する回数。
+ Number of times the agent will retry the request to check New Relic's platform availability at startup before throwing an error.
- **負の値** に設定すると、エージェントは成功するまで接続を確認し続けます。
+ If set to a **negative value**, the agent will keep checking the connection until it succeeds.
- YMLオプション名
+ YML option name
|
@@ -338,13 +338,13 @@ translationType: machine
id="startup-connection-retries"
title="startup_connection_retry_time"
>
- リクエストがタイムアウトした後、エージェントがリクエストの再試行を待つ時間は、起動時にNew Relicのプラットフォームの可用性をチェックするためのものです。
+ After a request has timed out, time the agent waits to retry a request to check New Relic's platform availability at startup.
- YMLオプション名
+ YML option name
|
@@ -376,7 +376,7 @@ translationType: machine
|
- ストリング
+ 文字列
|
@@ -396,13 +396,13 @@ translationType: machine
id="startup-connection-timeout"
title="startup_connection_timeout"
>
- 起動時にNew Relicのプラットフォームの可用性を確認するリクエストがタイムアウトしたとみなされるまで、エージェントが待機する時間。
+ Time the agent waits until a request to check New Relic's platform availability at startup is considered timed out.
- YMLオプション名
+ YML option name
|
@@ -434,7 +434,7 @@ translationType: machine
|
- ストリング
+ 文字列
|
@@ -454,13 +454,13 @@ translationType: machine
id="self-instrumentation"
title="self_instrumentation"
>
- [エージェントのセルフ インストルメンテーション](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/infrastructure-agent-self-instrumentation)を有効にします。
+ Enables [agent's self instrumentation](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/infrastructure-agent-self-instrumentation).
- YMLオプション名
+ YML option name
|
@@ -492,7 +492,7 @@ translationType: machine
|
- ストリング
+ 文字列
|
@@ -512,13 +512,13 @@ translationType: machine
id="logging_retry-limit"
title="logging_retry_limit"
>
- 組み込みの Fluentbit ログ フォワーダーを介した[ログ送信のエージェントの再試行](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/infrastructure-agent-behavior/#retry)を有効にします。整数値は、意図された再試行の回数を表します。その他の可能な値には、再試行回数を無限に設定する`False`や、再試行機能を完全にオフにする`no_retries`があります。
+ Enables [Agent Retry for Log Transmission](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/infrastructure-agent-behavior/#retry) via the embedded fluentbit logging forwarder. Integer values are for the number of intended retries. Other possible values include `False` to set the number of retries to infinite and `no_retries` to turn off the retry functionality entirely.
- YMLオプション名
+ YML option name
|
@@ -566,25 +566,25 @@ translationType: machine
-## クラウド変数
+## Cloud variables
-エージェントがクラウドインスタンスで実行されている場合、エージェントはクラウドタイプを検出し、基本的な[メタデータ](/docs/integrations/new-relic-integrations/getting-started/understand-use-data-infrastructure-integrations#overview)を取得しようとします。 [クラウドプロバイダーアカウントをNewRelicに接続する](/docs/infrastructure/infrastructure-integrations/get-started/introduction-infrastructure-integrations#cloud)ときに、メトリックを拡張クラウドメタデータ(カスタムリソースタグを含む)で強化することもできます。
+If the agent is running in a cloud instance, the agent will try to detect the cloud type and fetch basic [metadata](/docs/integrations/new-relic-integrations/getting-started/understand-use-data-infrastructure-integrations#overview). Metrics can also be enriched with extended cloud metadata (including custom resource tags) when [connecting the cloud provider](/docs/infrastructure/infrastructure-integrations/get-started/introduction-infrastructure-integrations#cloud) account with New Relic.
- クラウドの検出に失敗した場合に、エージェントが接続を再試行する回数を設定します。
+ Sets the number of times the agent retries to connect in case that cloud detection fails.
- エージェントの初期化中にクラウド検出が失敗した場合、エージェントは[`CloudRetryBackOffSec`秒](#cloud-retry-backoff-sec)待機した後に再試行します。
+ If cloud detection fails during the initialization of the agent, the agent will retry after waiting for [`CloudRetryBackOffSec` seconds](#cloud-retry-backoff-sec).
- YMLオプション名
+ YML option name
|
@@ -634,15 +634,15 @@ translationType: machine
- エージェントがメタデータを破棄するまでの待ち時間を秒単位で設定します。この時間が経過すると、メタデータは失効し、エージェントは再びメタデータを取得します。
+ Sets the interval of time the agent will wait until discarding the metadata, in seconds. After this period metadata expires and the agent will fetch it again.
- YMLオプション名
+ YML option name
|
@@ -692,17 +692,17 @@ translationType: machine
- クラウドの検出に失敗した場合に、エージェントがクラウドディテクションの再試行を行うまでの時間を秒単位で設定します。
+ Sets the interval of time the agent waits between cloud detection retries in case that cloud detection failed, in seconds.
- エージェントの初期化中にクラウド検出が失敗した場合、エージェントは[`CloudMaxRetryCount`回](#cloud-max-retry-count)再試行します。
+ If cloud detection fails during the initialization of the agent, it will retry for [`CloudMaxRetryCount` times](#cloud-max-retry-count).
- YMLオプション名
+ YML option name
|
@@ -752,19 +752,19 @@ translationType: machine
- エージェントが実行されているクラウド プロバイダーを指定します。これがデフォルトとは異なる値に設定されている場合、エージェントは、データをバックエンドに送信する前に、クラウド プロバイダーからメタデータ (インスタンス ID) を正常に取得するまで待機します。
+ Specifies the cloud provider the agent is running in. When this is set up to a value different from the default, the agent will wait until it successfully acquires metadata (the instance ID) from the cloud provider before submitting any data to the backend.
- デフォルトの動作では、エージェントはクラウド プロバイダーの検出とメタデータの取得も試みますが、エージェントをブロックすることはありません。
+ With the default behavior, the agent will also try to detect the cloud provider and get the metadata but without blocking the agent.
- 許可された値: `""`、 `"aws"`、 `"azure"`、 `"gcp"`、 `"alibaba"`
+ Allowed values: `""`, `"aws"`, `"azure"`, `"gcp"`, `"alibaba"`
- YMLオプション名
+ YML option name
|
@@ -796,7 +796,7 @@ translationType: machine
|
- ストリング
+ 文字列
|
@@ -816,13 +816,13 @@ translationType: machine
id="disable-cloud-instance-id"
title="disable_cloud_instance_id"
>
- [`DisableCloudMetadata`](#disable-cloud-metadata)に似ていますが、ホストエイリアスプラグインのクラウドメタデータの収集のみを無効にします。
+ Similar to [`DisableCloudMetadata`](#disable-cloud-metadata), but it disables the collection of cloud metadata only for the host alias plugin.
- YMLオプション名
+ YML option name
|
@@ -854,7 +854,7 @@ translationType: machine
|
- ブール値
+ boolean
|
@@ -872,15 +872,15 @@ translationType: machine
- クラウドメタデータの収集を無効にします。
+ Disables the collection of cloud metadata.
- YMLオプション名
+ YML option name
|
@@ -912,7 +912,7 @@ translationType: machine
|
- ブール値
+ boolean
|
@@ -928,7 +928,7 @@ translationType: machine
-## ドッカー変数
+## Docker variables
- キャッシュされたコンテナのメタデータが期限切れになり、エージェントが再度取得する必要が生じるまでの時間(秒単位)。
+ Time, in seconds, before the cached containers metadata expires and the agent needs to fetch them again.
- YMLオプション名
+ YML option name
|
@@ -994,13 +994,13 @@ translationType: machine
id="docker-api-version"
title="docker_api_version"
>
- DockerクライアントのAPIバージョンを指定します。
+ Specifies the Docker client API version.
- YMLオプション名
+ YML option name
|
@@ -1032,7 +1032,7 @@ translationType: machine
|
- ストリング
+ 文字列
|
@@ -1048,21 +1048,21 @@ translationType: machine
-## ファイルシステム変数 [#filesystem-variables]
+## File system variables [#filesystem-variables]
- エージェントがサポートしているファイルシステムの種類のリストです。この値は、デフォルトのリストのサブセットである必要があり、デフォルトのリストにない項目は破棄されます。
+ List of the types of file systems that the agent supports. This value needs to be a subset of the default list, and items that are not in the default list will be discarded.
- YMLオプション名
+ YML option name
|
@@ -1094,13 +1094,13 @@ translationType: machine
|
- \[]文字列
+ \[]string
|
Linux: `["xfs", "btrfs", "ext", "ext2", "ext3", "ext4", "hfs", "vxfs", "zfs"]`
- ウィンドウズ: `["NTFS", "ReFS"]`
+ Windows: `["NTFS", "ReFS"]`
|
@@ -1114,15 +1114,15 @@ translationType: machine
- `StorageSample`データを収集するときにエージェントが無視するストレージデバイスのリスト。
+ List of storage devices to be ignored by the agent when gathering `StorageSample` data.
- YMLオプション名
+ YML option name
|
@@ -1154,7 +1154,7 @@ translationType: machine
|
- \[]文字列
+ \[]string
|
|
@@ -1166,7 +1166,7 @@ translationType: machine
- YAML属性の例。
+ Example as a YAML attribute:
```yml
file_devices_ignored:
@@ -1174,7 +1174,7 @@ translationType: machine
- sda2
```
- 環境変数としての例
+ Example as an environment variable:
```ini
FILE_DEVICES_IGNORED="sda1,sda2"
@@ -1182,7 +1182,7 @@ translationType: machine
-## ホスト名の変数
+## Hostname variables
- レポート用に自動生成されたホスト名を上書きします。これは、同じ名前のホストが複数ある場合に便利です。インフラストラクチャモニタリングでは、ホスト名を各ホストの一意の識別子として使用します。この値は、エンティティ名のループバックアドレスの置換にも使用されることに注意してください。
+ Overrides the auto-generated hostname for reporting. This is useful when you have multiple hosts with the same name, since our infrastructure monitoring uses the hostname as the unique identifier for each host. Keep in mind this value is also used for the loopback address replacement on entity names.
- 詳しくは、 [エンティティ名解決の仕組み](/docs/integrations/integrations-sdk/file-specifications/integration-executable-file-specifications#h2-loopback-address-replacement-on-entity-names) についてのドキュメントをご覧ください。
+ For more information, see our documentation on [how entity name resolution works](/docs/integrations/integrations-sdk/file-specifications/integration-executable-file-specifications#h2-loopback-address-replacement-on-entity-names).
- YMLオプション名
+ YML option name
|
@@ -1230,11 +1230,11 @@ translationType: machine
|
- ストリング
+ 文字列
|
- 空
+ empty
|
@@ -1244,7 +1244,7 @@ translationType: machine
|
- 例:
+ 例:
```yml
display_name: teslaOne
@@ -1256,13 +1256,13 @@ translationType: machine
id="dns_hostname_resolution"
title="dns_hostname_resolution"
>
- `true`の場合、ホストのアドレスの逆引き参照を実行することにより、完全なホスト名が解決されます。それ以外の場合は、Linuxではhostnameコマンドを使用して、WindowsではレジストリのTCP/IPパラメータから取得されます。
+ When `true`, the full hostname is resolved by performing a reverse lookup of the host's address. Otherwise, it will be retrieved with the hostname command on Linux and from the TCP/IP parameters of the registry on Windows.
- YMLオプション名
+ YML option name
|
@@ -1294,7 +1294,7 @@ translationType: machine
|
- ブール値
+ boolean
|
@@ -1312,15 +1312,15 @@ translationType: machine
- 設定されている場合、これは完全なホスト名に対して報告される値であり、そうでない場合は、エージェントは通常の検索動作を行います。
+ When set, this is the value that will be reported for the full hostname; otherwise, the agent will perform the normal lookup behavior.
- YMLオプション名
+ YML option name
|
@@ -1352,7 +1352,7 @@ translationType: machine
|
- ストリング
+ 文字列
|
|
@@ -1364,7 +1364,7 @@ translationType: machine
- 例:
+ 例:
```
my.custom-hostname.co.org
@@ -1374,15 +1374,15 @@ translationType: machine
- 設定されている場合、これはホスト名に対して報告される値です。そうでない場合、エージェントは通常の検索動作を行います。
+ When set, this is the value that will be reported for the hostname; otherwise, the agent will perform the normal lookup behavior.
- YMLオプション名
+ YML option name
|
@@ -1414,7 +1414,7 @@ translationType: machine
|
- ストリング
+ 文字列
|
|
@@ -1426,7 +1426,7 @@ translationType: machine
- 例:
+ 例:
```
my.custom-hostname
@@ -1434,7 +1434,7 @@ translationType: machine
-## インストール変数 [#installation-variables]
+## Installation variables [#installation-variables]
- エージェントがキャッシュ、インベントリ、統合などのファイルを保存するディレクトリ。
+ Directory where the agent stores files for cache, inventory, integrations, etc.
- YMLオプション名
+ YML option name
|
@@ -1480,13 +1480,13 @@ translationType: machine
|
- ストリング
+ 文字列
|
Linux: `/var/db/newrelic-infra`
- ウィンドウズ: `C:\Program Files\NewRelic\newrelic-infra\`
+ Windows: `C:\Program Files\NewRelic\newrelic-infra\`
|
@@ -1502,15 +1502,15 @@ translationType: machine
id="plugin-dir"
title="plugin_dir"
>
- インテグレーションの設定ファイルを含むディレクトリ。
+ Directory containing the configuration files of the integrations.
- 各統合には、デフォルトで`-config.yml`という名前の独自の構成ファイルがあり、エージェントが初期化時にロードする事前定義された場所に配置されます。
+ Each integration has its own configuration file, named by default `-config.yml`, placed in a predefined location from which the agent loads on initialization.
- YMLオプション名
+ YML option name
|
@@ -1542,13 +1542,13 @@ translationType: machine
|
- ストリング
+ 文字列
|
Linux: `etc/newrelic-infra/integrations.d/`
- ウィンドウズ: `\Program Files\NewRelic\newrelic-infra\inregrations.d`
+ Windows: `\Program Files\NewRelic\newrelic-infra\inregrations.d`
|
@@ -1562,15 +1562,15 @@ translationType: machine
- 統合をインストールするためのカスタムパスを指定します。これにより、統合を`agent_dir`の外部にインストールできます。エージェントがインストール済みの統合を探している場合は、これが優先されます。
+ Specifies a custom path to install integrations, which allows to install them outside the `agent_dir`. It has priority when the agent is looking for installed integrations.
- YMLオプション名
+ YML option name
|
@@ -1602,11 +1602,11 @@ translationType: machine
|
- ストリング
+ 文字列
|
- エンプティ
+ Empty
|
@@ -1618,7 +1618,7 @@ translationType: machine
-## 積算変数
+## Integrations variables
- すべての統合に渡される環境変数のリストです。インテグレーションに同じ名前の既存の設定オプションがある場合は、環境変数が優先されます。
+ A list of environment variables that will be passed to all integrations. If an integration already has an existing configuration option with the same name, then the environment variable takes precedence.
- インフラストラクチャエージェント1.24.1以降、 `passthrough_environment`は変数名の正規表現をサポートします。
+ Starting with infrastructure agent 1.24.1 `passthrough_environment` supports regex for variable names.
- YMLオプション名
+ YML option name
|
@@ -1666,11 +1666,11 @@ translationType: machine
|
- \[]文字列
+ \[]string
|
- エンプティ
+ Empty
|
@@ -1680,7 +1680,7 @@ translationType: machine
|
- YAML属性としての例(エージェントの構成ファイル内、デフォルトでは`/etc/newrelic-infra.yml`にあります):
+ Example as a YAML attribute (inside the agent's configuration file, located by default in `/etc/newrelic-infra.yml`):
```yml
passthrough_environment:
@@ -1689,13 +1689,13 @@ translationType: machine
- NRIA_.*
```
- 環境変数としての例
+ Example as an environment variable:
```ini
NRIA_PASSTHROUGH_ENVIRONMENT="HOST,PORT,NRIA_.*"
```
- Windows ホストの場合: `PATHEXT`は MS Windows 環境変数です。 この機能は、すべてのコマンドラインから実行可能なファイルにどの拡張子がマークされているかを判断することです。 これにより、一般的な Flex 統合で「... はコマンドレット、関数、スクリプト ファイルの名前として認識されません...」というエラーが報告され、すべて解決されます。
+ For Windows hosts: `PATHEXT` is an MS Windows environment variable. The function is to determine which file extensions mark files that are executable from every command line. This will resolve any errors reporting "... is not recognized as the name of a cmdlet, function, script file..." for common Flex integrations:
```yml
passthrough_environment:
@@ -1706,15 +1706,15 @@ translationType: machine
- エージェントは、統合プロトコルのバージョン3に対して、エンティティ名(したがってキー)のループバックアドレス置換を自動的に有効にします。プロトコルのバージョン2を使用していて、この動作が必要な場合は、 `entityname_integrations_v2_update`オプションを有効にします。
+ The agent enables loopback-address replacement on the entity name (and therefore key) automatically for version 3 of the integration protocol. If you are using version 2 of the protocol and want this behavior, enable the `entityname_integrations_v2_update` option.
- YMLオプション名
+ YML option name
|
@@ -1746,7 +1746,7 @@ translationType: machine
|
- ブール値
+ boolean
|
@@ -1766,13 +1766,13 @@ translationType: machine
id="http-server-enabled"
title="http_server_enabled"
>
- この構成パラメーターを`true`に設定すると、エージェントはHTTPポート(デフォルトでは`8001` )を開き、NewRelicStatsDバックエンドからデータを受信します。
+ By setting this configuration parameter to `true` the agent will open an HTTP port (by default, `8001`) to receive data from the New Relic StatsD backend.
- YMLオプション名
+ YML option name
|
@@ -1804,7 +1804,7 @@ translationType: machine
|
- ブール値
+ boolean
|
@@ -1824,13 +1824,13 @@ translationType: machine
id="http-server-host"
title="http_server_host"
>
- この値を設定すると、エージェントは`HTTPServerPort`のリッスンを開始して、NewRelicStatsDバックエンドからデータを受信します。
+ By setting this value, the agent will start listening on the `HTTPServerPort` to receive data from the New Relic StatsD backend.
- YMLオプション名
+ YML option name
|
@@ -1862,7 +1862,7 @@ translationType: machine
|
- ストリング
+ 文字列
|
@@ -1882,13 +1882,13 @@ translationType: machine
id="http-server-port"
title="http_server_port"
>
- New Relic StatsD バックエンドからデータを受信するための http サーバーのポートを設定します。
+ Sets the port for the http server to receive data from the New Relic StatsD backend.
- YMLオプション名
+ YML option name
|
@@ -1940,15 +1940,15 @@ translationType: machine
id="remove-entities-period"
title="remove_entities_period"
>
- この期間に情報が報告されていないエンティティの削除処理を開始します。
+ Starts the process of deleting entities that haven't reported information during this interval.
- 有効な時間単位: `s` (秒)、 `m` (分)、および`h` (時間)。
+ Valid time units: `s` (seconds), `m` (minutes), and `h` (hour).
- YMLオプション名
+ YML option name
|
@@ -1980,7 +1980,7 @@ translationType: machine
|
- ストリング
+ 文字列
|
@@ -1994,7 +1994,7 @@ translationType: machine
|
- 例:
+ 例:
```
1h
@@ -2004,15 +2004,15 @@ translationType: machine
- ホスト上に多数のプロセスがある場合、または統合全体で収集された大量のデータがある場合、エージェント キューがオーバーランする可能性があります。キューの深さを増やして、キューがいっぱいになることによるエラー メッセージを防ぎます。
+ If you have a large number of processes on the host, or a large volume of data collected across your integrations, the agent queue can overrun. Increase the queue depth to prevent error messages resulting from full queues.
- YMLオプション名
+ YML option name
|
@@ -2060,21 +2060,21 @@ translationType: machine
-## 在庫変数
+## Inventory variables
- キャッシュされたインベントリがこの値よりも古くなった場合(エージェントがオフラインになった場合など)、エージェントは自動的にデルタストアを削除し、再作成します。
+ If the cached inventory becomes older than this value (for example, because the agent is offline), the agent automatically removes and recreates the delta store.
- YMLオプション名
+ YML option name
|
@@ -2106,7 +2106,7 @@ translationType: machine
|
- ストリング
+ 文字列
|
@@ -2124,15 +2124,15 @@ translationType: machine
- true に設定すると、インベントリの非同期処理が有効になり、より大きなインベントリ ペイロードを処理できるようになります。
+ When set to true, enables the inventory asynchronous processing allowing larger inventory payloads to be processed.
- YMLオプション名
+ YML option name
|
@@ -2184,13 +2184,13 @@ translationType: machine
id="ignored-inventory"
title="ignored_inventory"
>
- エージェントが無視するインベントリパスのリストです。
+ The list of inventory paths ignored by the agent.
- YMLオプション名
+ YML option name
|
@@ -2222,7 +2222,7 @@ translationType: machine
|
- 文字列\[]
+ string\[]
|
@@ -2236,7 +2236,7 @@ translationType: machine
|
- YAML属性の例。
+ Example as a YAML attribute:
```yml
ignored_inventory:
@@ -2244,7 +2244,7 @@ translationType: machine
- files/config/stuff.foo
```
- 環境変数としての例
+ Example as an environment variable:
```ini
NRIA_IGNORED_INVENTORY="files/config/stuff.bar,files/config/stuff.foo"
@@ -2252,7 +2252,7 @@ translationType: machine
-## Linuxの変数 [#linux-variables]
+## Linux variables [#linux-variables]
- エージェントプロセスの`pid`ファイルが作成されるLinux上の場所。起動時に、エージェントの他のインスタンスが実行されていないことを確認するために使用されます。
+ Location on Linux where the `pid` file of the agent process is created. It is used at startup to ensure that no other instances of the agent are running.
- YMLオプション名
+ YML option name
|
@@ -2298,7 +2298,7 @@ translationType: machine
|
- ストリング
+ 文字列
|
@@ -2318,13 +2318,13 @@ translationType: machine
id="ignore-reclaimable"
title="ignore_reclaimable"
>
- trueの場合、ホスト仮想メモリの定式化では`SReclaimable`が使用可能なメモリと見なされます。それ以外の場合、 `SReclaimable`は使用済みメモリの一部と見なされます。
+ When true, formulation of the host virtual memory considers `SReclaimable` as available memory; otherwise `SReclaimable` will be considered part of the used memory.
- YMLオプション名
+ YML option name
|
@@ -2356,7 +2356,7 @@ translationType: machine
|
- ブール値
+ boolean
|
@@ -2380,7 +2380,7 @@ translationType: machine
id="log"
title="ログ"
>
- Log は、インフラストラクチャ エージェント ロガーの構成に使用されるキーと値のマップです。YAML 属性としての例:
+ Log is a key-value map used to configure the infrastructure agent logger. Example as a YAML attribute:
```yml
log:
@@ -2390,7 +2390,7 @@ translationType: machine
stdout: false
```
- 環境変数としての例
+ Example as an environment variable:
```ini
NRIA_LOG_FILE='/var/log/newrelic-infra/newrelic-infra.log'
@@ -2405,17 +2405,17 @@ translationType: machine
id="file"
title="ファイル"
>
- ログのファイルパスを定義します。
+ Defines the file path for the logs.
- デフォルトのインストールではログディレクトリが作成され、このファイルパス値が`file`構成オプションに設定されます。このログディレクトリは、以下に示すように、OSごとに異なります。
+ The default installation creates a log directory and it sets this filepath value in the `file` configuration option for you. This log directory is different for each OS, as shown below.
- この設定オプションを変更して、ログのファイルパスをカスタマイズします。
+ Change this configuration option to customize the file path for the logs.
- YMLオプション名
+ YML option name
|
@@ -2447,11 +2447,11 @@ translationType: machine
|
- ストリング
+ 文字列
|
- 下記参照\*。
+ See below\*
|
|
@@ -2459,17 +2459,17 @@ translationType: machine
- デフォルトのパスです。
+ Default paths:
- * Linuxです。定義されていない場合は、標準出力にのみログを記録します。
+ * Linux: If not defined, it logs only in the standard output.
- * Windows、エージェントバージョン1.0.944以上。
+ * Windows, agent version 1.0.944 or higher:
```
C:\%ProgramData%\New Relic\newrelic-infra\newrelic-infra.log
```
- ディレクトリの作成ができない場合
+ If the directory can't be created:
```
C:\Program Files\New Relic\newrelic-infra\newrelic-infra.log
@@ -2481,25 +2481,25 @@ translationType: machine
id="level"
title="level"
>
- ログレベルを定義します。利用可能な値:
+ Defines the log level. Available values:
- * `info`:レベルエラー、警告、情報のログメッセージを表示します。
+ * `info`: Displays log messages of level error, warn and info.
- * `smart`: [スマート冗長モード](/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior/#smart-verbose-mode)を有効にします。スマート冗長モードでは、エラーが記録されると、最後の `smart_level_entry_limit` デバッグ メッセージが記録されます。
+ * `smart`: Enables the [smart verbose mode](/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior/#smart-verbose-mode). Smart verbose mode logs the last `smart_level_entry_limit` debug messages when an error is logged.
- * `debug`:レベルエラー、警告、情報、およびデバッグのログメッセージを表示します。
+ * `debug`: Displays log messages of level error, warn, info and debug.
- * `trace`:すべてのログメッセージが表示されます。
+ * `trace`: All log messages will be shown.
- トレースレベルのログは、大量のデータを非常に迅速に生成できます。問題を再現するために必要な期間だけエージェントをトレースモードで実行してから、 `level: info`を設定し[、エージェントを再起動](/docs/infrastructure/new-relic-infrastructure/configuration/start-stop-restart-check-infrastructure-agent-status)して詳細ログを無効にします。または、 `level` : `smart`を設定して、スマート冗長モードを有効にすることもできます。
+ Trace level logging can generate a lot of data very quickly. Run the agent in trace mode only for as long as necessary to reproduce your issue, then set `level: info` and [restart your agent](/docs/infrastructure/new-relic-infrastructure/configuration/start-stop-restart-check-infrastructure-agent-status) to disable verbose logging. Alternatively, you can set `level`: `smart`, which will enable smart verbose mode.
- YMLオプション名
+ YML option name
|
@@ -2531,11 +2531,11 @@ translationType: machine
|
- ストリング
+ 文字列
|
- 設定されていません
+ Not set
|
|
@@ -2547,19 +2547,19 @@ translationType: machine
- ログの出力形式を定義します。利用可能な値
+ Defines the log output format. Available values:
- * `text`:プレーンテキスト出力、ログエントリごとに1行。
+ * `text`: Plain text output, one line per log entry.
- * `json`:JSON形式の出力、ログエントリごとに1行。
+ * `json`: JSON-formatted output, one line per log entry.
- YMLオプション名
+ YML option name
|
@@ -2591,7 +2591,7 @@ translationType: machine
|
- ストリング
+ 文字列
|
@@ -2609,15 +2609,15 @@ translationType: machine
- エージェント ログをログ UI に転送できるようにします。無効にするには、この構成オプションを `false`に設定します。
+ Enables forwarding the agent logs to our logs UI. To disable it, set this configuration option to `false`.
- YMLオプション名
+ YML option name
|
@@ -2649,7 +2649,7 @@ translationType: machine
|
- ブール値
+ boolean
|
@@ -2669,13 +2669,13 @@ translationType: machine
id="stdout"
title="stdout"
>
- デフォルトでは、すべてのログは標準出力とログファイルの両方に表示されます。標準出力でログを無効にするには、この構成オプションを`false`に設定します。
+ By default all logs are displayed in both standard output and a log file. To disable logs in the standard output, set this configuration option to `false`.
- YMLオプション名
+ YML option name
|
@@ -2707,7 +2707,7 @@ translationType: machine
|
- ブール値
+ boolean
|
@@ -2727,17 +2727,17 @@ translationType: machine
id="smart_level_entry_limit"
title="smart_level_entry_limit"
>
- `smart_level_entry_limit` エラーがログに記録されるときにログに記録される以前のデバッグ メッセージの数を指します。 たとえば、制限が`5`に設定されている場合、デバッグ ログはエラーがログになるまでメモリにキャッシュされ、その時点で以前の 5 つのデバッグ メッセージもログになります。
+ `smart_level_entry_limit` refers to the number of previous debug messages that will be logged when an error is logged. For example, if the limit is set to `5`, debug logs will be cached in memory until an error is logged, at which point the previous 5 debug messages will also be logged.
- この構成オプションは、 `level`が`smart` (スマートレベルが有効)に設定されている場合にのみ使用されます。
+ This configuration option is only used when `level` is set to `smart` (Smart Level enabled).
- YMLオプション名
+ YML option name
|
@@ -2787,9 +2787,9 @@ translationType: machine
- バージョン[v1.28.0](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes)以降では、組み込みのログローテーション機能を使用できます。デフォルトでは、ログローテーションは無効になっています。これを有効にするには、 `max_size_mb`オプションを使用してログファイルの最大サイズを指定する必要があります。インフラストラクチャエージェントのログファイルがそのサイズに達すると、現在のログファイルが新しいファイルにローテーションされます。
+ From version [v1.28.0](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes) on, you can use the built-in log rotation feature. By default, log rotation is disabled. To enable it, you have to specify the maximum size of the log file with the `max_size_mb` option. When the infrastructure agent log file reaches that size, the current log file will be rotated into a new file.
```yml
log:
@@ -2808,13 +2808,13 @@ translationType: machine
id="rotate-max_size_mb"
title="max_size_mb"
>
- `max_size_mb` インフラストラクチャエージェントログファイルの最大サイズをメガバイト単位で指定します。ファイルがこのサイズに達すると、現在のログが新しいファイルにローテーションされます。`max_size_mb`が`0`の場合、組み込みのログローテーションは無効になります。
+ `max_size_mb` specifies the maximum size in MegaBytes of the infrastructure agent log file. When the file has reached this size, the current logs will be rotated into a new file. When the `max_size_mb` is `0`, built-in log rotation is disabled.
- YMLオプション名
+ YML option name
|
@@ -2850,7 +2850,7 @@ translationType: machine
|
- `0` - 無効
+ `0` - Disabled
|
|
@@ -2864,13 +2864,13 @@ translationType: machine
id="rotate-max_files"
title="max_files"
>
- `max_files` 保持するアーカイブログファイルの数を定義します。この値を超えると、古いファイルが削除されます。`max_files`が`0`の場合、ファイル数の制限は無効になります。
+ `max_files` defines how many archived log files will be keept. When this value is exceeded, older files will be removed. When the `max_files` is `0` the limit for the number of files is disabled.
- YMLオプション名
+ YML option name
|
@@ -2918,19 +2918,19 @@ translationType: machine
- `compression_enabled`を`true`に設定すると、ログファイルの圧縮を有効にできます。圧縮がアクティブになっている場合、ローテーションされたファイルは`gzip`形式になり、使用するディスク容量が少なくなります。
+ You can enable compression for the log files by setting `compression_enabled` to `true`. If compression is activated, rotated files will have a `gzip` format and will use less disk space.
- ログローテーション中に圧縮が有効になっている場合、特に`max_size_mb`値が`1000`より大きい場合、エージェントのCPU使用率が増加する可能性があります。
+ During the log rotation, if compression is enabled, the agent CPU usage might increase, especially when `max_size_mb` value is greater than `1000`.
- YMLオプション名
+ YML option name
|
@@ -2962,7 +2962,7 @@ translationType: machine
|
- ブール値
+ boolean
|
@@ -2980,23 +2980,23 @@ translationType: machine
id="rotate-file_pattern"
title="file_pattern"
>
- `file_pattern` アーカイブされたログファイルの名前の形式を指定します。デフォルトでは、新しいファイル名は次の名前パターンを使用します: `original-file_YYYY-MM-DD_hh-mm-ss.log` 。
+ `file_pattern` specifies the name format for the archived log files. By default, the new file name will use the following name pattern: `original-file_YYYY-MM-DD_hh-mm-ss.log`.
- 次のタイムスタンプフィールドを使用して、ファイル名パターンをカスタマイズできます。
+ You can customize the file name pattern with the following timestamp fields:
- * `YYYY`: 年
+ * `YYYY`: Year
- * `MM`: 月
+ * `MM`: Month
- * `DD`: 日
+ * `DD`: Day
- * `hh`: 時間
+ * `hh`: Hour
- * `mm`: 分
+ * `mm`: Minute
- * `ss`:セカンド
+ * `ss`: Secound
- エージェントは、これらのタイムスタンプフィールドをファイルローテーションの時刻に自動的に置き換えます。例えば:
+ The agent will automatically replace those timestamp fields with the time of the file rotation. For example:
```yml
log:
@@ -3011,7 +3011,7 @@ translationType: machine
- YMLオプション名
+ YML option name
|
@@ -3043,7 +3043,7 @@ translationType: machine
|
- ストリング
+ 文字列
|
@@ -3062,10 +3062,10 @@ translationType: machine
- インフラストラクチャ エージェント バージョン 1.28.0 では、ロギング構成の下位互換性の向上が導入されました。従来の設定と、それらを新しい構造にマッピングする方法を理解するには、 [GitHub ドキュメント](https://github.com/newrelic/infrastructure-agent/blob/master/docs/log_configuration.md)を参照してください。
+ Infrastructure agent version 1.28.0 introduced backward-compatible improvements in logging configuration. See our [github documentation](https://github.com/newrelic/infrastructure-agent/blob/master/docs/log_configuration.md) to understand the legacy settings and how to map them to the new structure.
-## メトリクス変数 [#metrics]
+## Metrics variables [#metrics]
- カスタム属性は、インフラストラクチャ エージェントからのデータに注釈を付けるために使用されるキーと値のペア (他のツールのタグと同様) です。このメタデータを使用して、エンティティをフィルタリングし、[結果をグループ化し](/docs/infrastructure-group-results-specific-attributes)、データに注釈を付けることができます。たとえば、マシンの環境 (ステージングまたは運用)、マシンがホストするサービス (ログイン サービスなど)、またはそのマシンを担当するチームを指定できます。
+ Custom attributes are key-value pairs (similar to tags in other tools) used to annotate the data from the infrastructure agent. You can use this metadata to filter your entities, [group your results](/docs/infrastructure-group-results-specific-attributes), and annotate your data. For example, you might indicate a machine's environment (staging or production), the service a machine hosts (login service, for example), or the team responsible for that machine.
- エージェントは、 [デフォルトの属性](/docs/default-infrastructure-events-attributes) の一部として、 [Amazon Elastic Compute Cloud(Amazon EC2)タグ](/docs/default-infrastructure-events-attributes#aws-ec2-attributes) を含む、お客様の環境に関する多くの詳細情報を収集します。
+ The agent collects many details about your environment as part of its [default attributes](/docs/default-infrastructure-events-attributes), including [Amazon Elastic Compute Cloud (Amazon EC2) tags](/docs/default-infrastructure-events-attributes#aws-ec2-attributes).
- YMLオプション名
+ YML option name
|
@@ -3107,15 +3107,15 @@ translationType: machine
|
- マップ\[文字列]インターフェース{}。
+ map\[string]interface{}
|
- カスタム属性のリストを使用して、このエージェントインスタンスからのデータに注釈を付けます。 `KEY: VALUE`のように、キーと値をコロン`:`で区切り、各キーと値のペアを改行で区切ります。キーは、スラッシュ`/`を除く任意の有効なYAMLにすることができます。値は、スペースを含む任意のYAML文字列にすることができます。
+ Use a list of custom attributes to annotate the data from this agent instance. Separate keys and values with colons `:`, as in `KEY: VALUE`, and separate each key-value pair with a line break. Keys can be any valid YAML except slashes `/`. Values can be any YAML string, including spaces.
- YAML属性の例。
+ Example as a YAML attribute:
```yml
custom_attributes:
@@ -3124,13 +3124,13 @@ translationType: machine
team: alpha-team
```
- 環境変数としての例
+ Example as an environment variable:
```ini
NRIA_CUSTOM_ATTRIBUTES='{"customAttribute_1":"SOME_ATTRIBUTE","customAttribute_2": "SOME_ATTRIBUTE_2"}'
```
- NRQL の例では、カスタム属性によるフィルタリングを行っています。
+ NRQL example filtering by custom attribute:
```sql
FROM SystemSample SELECT * WHERE environment = 'production'
@@ -3140,27 +3140,27 @@ translationType: machine
- インフラストラクチャエージェントのバージョン1.12.0以上が必要です。2020年7月20日以前に作成されたアカウントや、新しいガイド付きインストールを使用してインストールされたインフラストラクチャエージェントは、デフォルトでこの変数が有効になっています。
+ Requires infrastructure agent version 1.12.0 or higher. Accounts created before July 20, 2020 and/or infrastructure agents installed using the new Guided Install have this variable enabled by default.
- [プロセスメトリクス](/attribute-dictionary/?event=ProcessSample) の New Relic への送信を有効にします。
+ Enables the sending of [process metrics](/attribute-dictionary/?event=ProcessSample) to New Relic.
- デフォルトでは、インフラストラクチャエージェントはオペレーティングシステムのプロセスに関するデータを送信しません。 `metrics_process_sample_rate`が`-1`に設定されていない限り、エージェントは引き続きそのようなデータを収集します。
+ By default, the infrastructure agent doesn't send data about the operating system's processes. The agent still collects such data, unless `metrics_process_sample_rate` is set to `-1`.
- すべてのオペレーティングシステムのプロセスに関するメトリックデータをレポートするには、 `enable_process_metrics`を`true`に設定します。無効にするには、 `false`に設定します。
+ To report metric data about all the operating system's processes, set `enable_process_metrics` to `true`. To disable, set to `false`.
- すべてのプロセスデータを送信すると、NewRelicに送信されるデータの量が増える可能性があります。監視するプロセスを微調整するには、 [`include_matching_metrics`](#include-matching-metrics)を構成します。
+ Sending all process data could increase the volume of data sent to New Relic. To fine-tune which processes you want to monitor, configure [`include_matching_metrics`](#include-matching-metrics).
- デフォルトでは、低メモリを使用しているプロセスはサンプリングの対象から除外されます。詳しくは、 [disable-zero-mem-process-filter](/docs/infrastructure/install-infrastructure-agent/configuration/infrastructure-agent-configuration-settings#disable-zero-mem-process-filter) をご覧ください。
+ By default, processes using low memory are excluded from being sampled. For more information, see [disable-zero-mem-process-filter](/docs/infrastructure/install-infrastructure-agent/configuration/infrastructure-agent-configuration-settings#disable-zero-mem-process-filter).
- YMLオプション名
+ YML option name
|
@@ -3192,7 +3192,7 @@ translationType: machine
|
- ブール値
+ boolean
|
@@ -3211,14 +3211,14 @@ translationType: machine
title="include_matching_metrics"
>
- 現在のところ、この設定はオペレーティングシステムのプロセスメトリクスにのみ適用されます。
+ Currently, this setting only applies to an operating system's processes metrics.
- `include_matching_metrics`を設定することで、New Relicに送信されるデータの量を制御できます。これにより、メトリック[属性](/docs/query-your-data/nrql-new-relic-query-language/nrql-query-tutorials/query-infrastructure-dimensional-metrics-nrql#naming-conventions)の値に基づいてメトリックデータの送信を制限できます。
+ You can control how much data is sent to New Relic by configuring `include_matching_metrics`, which allows you to restrict the transmission of metric data based on the values of metric [attributes](/docs/query-your-data/nrql-new-relic-query-language/nrql-query-tutorials/query-infrastructure-dimensional-metrics-nrql#naming-conventions).
- メトリックの属性のいずれかにリテラル値または部分値を定義することにより、メトリックデータを含めます。たとえば、 `process.name`が`^java`[正規表現](https://github.com/google/re2/wiki/Syntax)と一致するすべてのプロセスの`host.process.cpuPercent`を送信するように選択できます。
+ You include metric data by defining literal or partial values for any of the attributes of the metric. For example, you can choose to send the `host.process.cpuPercent` of all processes whose `process.name` match the `^java` [regular expression](https://github.com/google/re2/wiki/Syntax).
- この例では、実行ファイルと名前を使ってプロセスメトリクスを含めています。
+ In this example, we include process metrics using executable files and names:
```yml
include_matching_metrics: # You can combine attributes from different metrics
@@ -3229,9 +3229,9 @@ translationType: machine
- regex "\\System32\\svchost" # Include all svchost executables
```
- いずれかの値にコマンドライン引数を含める必要がある場合は、 [`strip_command_line`](#strip-command-line)をfalseに設定します(インフラストラクチャエージェントは、シークレットが漏洩しないように、デフォルトでCLI引数を削除します)。
+ If you need to include command line arguments in any of the values, set [`strip_command_line`](#strip-command-line) to false (the infrastructure agents removes CLI arguments by default to prevent secrets from leaking).
- `include_matching_metrics` [Kubernetes 統合](/docs/integrations/kubernetes-integration)の環境変数として構成するには、それを `env:` オブジェクト内のマニフェストに追加します。
+ To configure `include_matching_metrics` as an environment variable for the [Kubernetes integration](/docs/integrations/kubernetes-integration), add it in the manifest inside the `env:` object:
```yml
env:
@@ -3250,7 +3250,7 @@ translationType: machine
- YMLオプション名
+ YML option name
|
@@ -3284,11 +3284,11 @@ translationType: machine
|
metric.attribute:
- \- regex"パターン"
+ \- regex "pattern"
- \-"文字列"
+ \- "string"
- \-"文字列-ワイルドカード\*付き"
+ \- "string-with-wildcard\*"
|
|
@@ -3302,27 +3302,27 @@ translationType: machine
- ネットワーク・インターフェース・フィルター設定を使用すると、使用していないネットワーク・インターフェースや興味のないネットワーク・インターフェースをインフラストラクチャ・エージェントから隠すことができます。これにより、リソースの使用、作業、データのノイズを減らすことができます。
+ You can use the network interface filters configuration to hide unused or uninteresting network interfaces from the infrastructure agent. This helps reduce resource usage, work, and noise in your data.
- この設定では、環境変数はサポートされていません。
+ Environment variables are not supported for this configuration setting.
- この設定では、シンプルなパターンマッチングメカニズムを使用しており、いずれかのパターンに続く特定の文字または数字のシーケンスで始まるインターフェースを探すことができます。
+ The configuration uses a simple pattern-matching mechanism that can look for interfaces that start with a specific sequence of letters or numbers following either pattern:
- * `{name}[other characters]`、ここで`prefix`オプションを使用して名前を指定します
+ * `{name}[other characters]`, where you specify the name using the `prefix` option
- * `[number]{name}[other characters]`、ここで`index-1`オプションを使用して名前を指定します
+ * `[number]{name}[other characters]`, where you specify the name using the `index-1` option
- New Relic のインフラでは、厳選されたデフォルトのフィルターリストが実装されており、 [Linux](#filters-linux) と [Windows](#filters-windows) の両方で利用でき、お客様が変更することも可能です。
+ New Relic infrastructure implements a curated default list of filters, available for both [Linux](#filters-linux) and [Windows](#filters-windows), that you can modify.
- YMLオプション名
+ YML option name
|
@@ -3350,11 +3350,11 @@ translationType: machine
|
- 対応していません
+ サポートされていない
|
- マップ\[文字列]\[]文字列
+ map\[string]\[]string
|
|
@@ -3372,13 +3372,13 @@ translationType: machine
id="filters-linux"
title="Linux"
>
- Linuxのデフォルトのネットワークインターフェイスフィルタ。
+ Default network interface filters for Linux:
- * `dummy` 、 `lo` 、 `vmnet` 、 `sit` 、 `tun` 、 `tap` 、または `veth`
+ * Network interfaces that start with `dummy`, `lo`, `vmnet`, `sit`, `tun`, `tap`, or `veth`
- * `tun`またはを含むネットワークインターフェース `tap`
+ * Network interfaces that contain `tun` or `tap`
- 次の例(構成ファイルに追加)は、デフォルトのフィルターをオーバーライドします。これは、 `dummy`または`lo`で始まる、または一連の数字が前に続き、他の文字が続く`tun`を含むネットワークインターフェイスを無視します。
+ The following example (added to your configuration file) overrides the default filters. This will ignore network interfaces that start with `dummy` or `lo` , or contain `tun` preceded by a sequence of numbers, and followed by other characters:
```yml
network_interface_filters:
@@ -3393,13 +3393,13 @@ translationType: machine
- Windowsのデフォルトのネットワークインターフェイスフィルタ。
+ Default network interface filters for Windows:
- * `Loop` 、 `isatap` 、またはで始まるネットワークインターフェイス `Local`
+ * Network interfaces that start with `Loop`, `isatap`, or `Local`
- 次の例(構成ファイルに追加)は、デフォルトのフィルターをオーバーライドします。これは、 `Loop`で始まるネットワークインターフェースを無視します:
+ The following example (added to your configuration file) overrides the default filters. This will ignore network interfaces that start with `Loop`:
```yml
network_interface_filters:
@@ -3413,15 +3413,15 @@ translationType: machine
- `ZeroRSSFilter`は、メモリを使用していないプロセスをサンプリングから除外します。フィルタを無効にして、エージェントがこれらのプロセスを`ProcessSample`に含めるようにします。
+ The `ZeroRSSFilter` excludes processes that are not using memory from being sampled. Disable the filter so that the agent includes these processes in the `ProcessSample`.
- YMLオプション名
+ YML option name
|
@@ -3453,7 +3453,7 @@ translationType: machine
|
- ブール値
+ boolean
|
@@ -3469,25 +3469,25 @@ translationType: machine
-## プラグインの変数
+## Plugins variables
- [`DisableAllPlugins`](#disable-all-plugins)を`true`に設定することですべての変数をすばやく無効にし、必要なオプションのみをオンにすることができます。
+ You can quickly disable all the variables by setting [`DisableAllPlugins`](#disable-all-plugins) to `true`, and turn on only those options you need.
- すべてのプラグインを無効にするには、このオプションを`true`に設定します。
+ To disable all the plugins, set this option to `true`.
- YMLオプション名
+ YML option name
|
@@ -3519,7 +3519,7 @@ translationType: machine
|
- ブール値
+ boolean
|
@@ -3537,19 +3537,19 @@ translationType: machine
- `CloudSecurityGroups`プラグインのサンプリング期間(秒単位)。最小値は`30`です。無効にするには、 `-1`に設定します。
+ Sampling period for the `CloudSecurityGroups` plugin, in seconds. The minimum value is `30`. To disable it, set it to `-1`.
- このプラグインは、エージェントがAWSインスタンスで動作している場合にのみ有効です。
+ This plugin is activated only if the agent is running in an AWS instance.
- YMLオプション名
+ YML option name
|
@@ -3601,13 +3601,13 @@ translationType: machine
id="daemontools-interval-sec"
title="daemontools_interval_sec"
>
- `Daemontools`プラグインのサンプリング期間(秒単位)。最小値は`10`です。無効にするには、 `-1`に設定します。
+ Sampling period for the `Daemontools`plugin, in seconds. The minimum value is a `10`. To disable it, set it to `-1`.
- YMLオプション名
+ YML option name
|
@@ -3659,17 +3659,17 @@ translationType: machine
id="dpkg-interval-sec"
title="dpkg_interval_sec"
>
- `Dpkg`プラグインのサンプリング期間(秒単位)。最小値は`30`です。無効にするには、 `-1`に設定します。パラメータが設定ファイルで明示的に設定されていない場合は、 [`DisableAllPlugins`](#disable-all-plugins)を`true`に設定することで無効にできます。
+ Sampling period for the `Dpkg` plugin, in seconds. The minimum value is `30`. To disable it, set it to `-1`. If the parameter is not explicitly set in the config file, it can be disabled by setting [`DisableAllPlugins`](#disable-all-plugins) to `true`.
- これは、 [`root`または`privileged`実行モード](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes)および[Debianベースのディストリビューション](/docs/infrastructure/new-relic-infrastructure/installation/install-infrastructure-linux#debian-based-root)でのみアクティブになります。
+ This is only activated in [`root` or `privileged` running modes](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes) and on [Debian-based distributions](/docs/infrastructure/new-relic-infrastructure/installation/install-infrastructure-linux#debian-based-root).
- YMLオプション名
+ YML option name
|
@@ -3719,15 +3719,15 @@ translationType: machine
- `Facter`プラグインのサンプリング期間(秒単位)。最小値は`30`です。無効にするには、 `-1`に設定します。
+ Sampling period for the `Facter` plugin, in seconds. The minimum value is `30`. To disable it, set it to `-1`.
- YMLオプション名
+ YML option name
|
@@ -3777,19 +3777,19 @@ translationType: machine
- `KernelModules`プラグインのサンプリング期間(秒単位)。最小値は`10`です。無効にするには、 `-1`に設定します。
+ Sampling period for the `KernelModules` plugin, in seconds. The minimum value is `10`. To disable it, set it to `-1`.
- `kernel_modules_refresh_sec` [`root`または`privileged`実行モード](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes)でのみアクティブになります。
+ `kernel_modules_refresh_sec` is only activated in [`root` or `privileged` running modes](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes).
- YMLオプション名
+ YML option name
|
@@ -3839,15 +3839,15 @@ translationType: machine
- `NetworkInterface`プラグインのサンプリング期間(秒単位)。最小値は`30`です。無効にするには、 `-1`に設定します。
+ Sampling period for the `NetworkInterface` plugin, in seconds. The minimum value is `30`. To disable it, set it to `-1`.
- YMLオプション名
+ YML option name
|
@@ -3899,17 +3899,17 @@ translationType: machine
id="rpm-interval-sec"
title="rpm_interval_sec"
>
- `Rpm`プラグインのサンプリング期間(秒単位)。最小値は`30`です。無効にするには、 `-1`に設定します。
+ Sampling period for the `Rpm` plugin, in seconds. The minimum value is `30`. To disable it, set it to `-1`.
- `rpm_interval_sec` エージェントがRedHat、RedHat AWS、またはSUSEディストリビューションの[ルートモードまたは特権モード](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes)で実行されている場合にのみアクティブになります。
+ `rpm_interval_sec` is only activated when the agent runs in [root or privileged modes](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes) for RedHat, RedHat AWS, or SUSE distributions.
- YMLオプション名
+ YML option name
|
@@ -3961,17 +3961,17 @@ translationType: machine
id="selinux-interval-sec"
title="selinux_interval_sec"
>
- `SELinux`プラグインのサンプリング期間(秒単位)。最小値は`30`です。無効にするには、 `-1`に設定します。 `SelinuxEnableSemodule`がfalseに設定されている場合、このオプションは無視されます。詳細について[は、 `SELinux`モジュールの無効化](/docs/infrastructure/new-relic-infrastructure/troubleshooting/reduce-infrastructure-agents-cpu-footprint)に関するトラブルシューティングドキュメントを参照してください。
+ Sampling period for the `SELinux` plugin, in seconds. The minimum value is `30`. To disable it, set it to `-1`. This option is ignored if `SelinuxEnableSemodule` is set to false. For more information, see our troubleshooting doc on [disabling the `SELinux` module](/docs/infrastructure/new-relic-infrastructure/troubleshooting/reduce-infrastructure-agents-cpu-footprint).
| | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |