diff --git a/src/data/whats-new-ids.json b/src/data/whats-new-ids.json index 0d28f9cab86..bb75da88f67 100644 --- a/src/data/whats-new-ids.json +++ b/src/data/whats-new-ids.json @@ -310,5 +310,6 @@ "/whats-new/2024/02/whats-new-02-16-infra-otel-guids": "42963", "/whats-new/2024/02/whats-new-02-20-codestreamlogs": "42964", "/whats-new/2024/02/whats-new-02-21-live-archives": "42965", - "/whats-new/2024/02/whats-new-02-27-hardware-sentry-integration": "42966" + "/whats-new/2024/02/whats-new-02-27-hardware-sentry-integration": "42966", + "/whats-new/2024/02/whats-new-02-28-compute-add-on-sku": "42967" } \ No newline at end of file diff --git a/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts.mdx b/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts.mdx index 0fa83749e0e..e44b8be3a79 100644 --- a/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts.mdx +++ b/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts.mdx @@ -16,8 +16,14 @@ translationType: human 使用量UIを使用する際、または消費クエリを実行する際は、次の点に注意してください。 * 結果は概算であり、請求金額の計算に使用される値と正確には一致しません。 + * これらのツールを使用して、使用率の高い領域を見つけて追跡します。 -* クエリを使用してアラートを作成すると、上限に近づいているかどうかがわかります。 + +* クエリを使用して + + + + を作成すると、上限に近づいているかどうかがわかります。 ## データインジェスト使用量のクエリ [#data-queries] @@ -94,7 +100,7 @@ translationType: human ## ユーザー数のクエリ [#user-queries] -ユーザー数の表示については、[使用量UI](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/new-relic-one-pricing-billing#usage-ui)を参照してください。それ以上の詳細が必要な場合は、以下のNRQLクエリの例を使用できます。ユーザーの計算方法の詳細は、[請求対象ユーザーの計算](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/user-count-billing)を参照してください。 +ユーザー数の表示については、[](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/new-relic-one-pricing-billing#usage-ui)を参照してください。それ以上の詳細が必要な場合は、以下のNRQLクエリの例を使用できます。ユーザーの計算方法の詳細は、[請求対象ユーザーの計算](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/user-count-billing)を参照してください。 ほとんどのNew Relic組織には、コアユーザーを追加する機能があります。このセクションでは、これらの組織で機能するクエリを説明します。[コアユーザーのロック解除をオプトイン](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/new-relic-one-pricing-billing#core-acceptance)していない古い組織にいる場合は、[コアユーザーなしの組織のクエリ](#queries-non-core)を参照してください。 @@ -175,7 +181,7 @@ SELECT latest(FullPlatformUsersBillable) * YOUR_PER_FULL_PLATFORM_USER_COST ### フルプラットフォームユーザーと基本ユーザーのカウント - [使用量 UI](/docs/accounts/accounts-billing/new-relic-one-pricing-users/pricing-billing#billing-usage-ui)は、フルプラットフォームユーザーと基本ユーザーの数を示します。使用されるクエリ: + [](/docs/accounts/accounts-billing/new-relic-one-pricing-users/pricing-billing#billing-usage-ui)は、フルプラットフォームユーザーと基本ユーザーの数を示します。使用されるクエリ: ```sql FROM NrUsage SELECT max(usage) SINCE 10 days ago @@ -214,21 +220,24 @@ SELECT latest(FullPlatformUsersBillable) * YOUR_PER_FULL_PLATFORM_USER_COST 各エディションには、一定数のSyntheticsチェックが無料で含まれています。詳細については、[Syntheticsの制限](/docs/synthetics/synthetic-monitoring/using-monitors/monitor-limits)を参照してください。 -[NrDailyUsageイベント](/attribute-dictionary/?event=NrDailyUsage)は、Syntheticsの使用状況を理解する上で最も役立つイベントタイプです。1日に1回生成されます。使用状況のタイムスタンプは、New Relicが合成チェックを受信して処理する時間に対応します。これにより、合成チェックが実行された時間と比較して、使用状況データにわずかな違いが生じる場合があります。 +[NrMTDConsumptionイベント](/attribute-dictionary/?event=NrMTDConsumption)はを強化し、[使用量のアラート](#alerts)に使用する必要があります。 + +[NrDailyUsageイベント](/attribute-dictionary/?event=NrDailyUsage)は、Syntheticsの使用状況をさらに詳しく分析するのに役立ちますが、結果は使用量UIと[NrMTDConsumptionイベント](/attribute-dictionary/?event=NrMTDConsumption)と一致しない可能性があります。1日に1回生成されます。使用状況のタイムスタンプは、New Relicが合成チェックを受信して処理する時間に対応します。これにより、syntheticチェックが実行された時間と比較して、使用状況データにわずかな違いが生じる場合があります。 -[`FACET`](/docs/query-your-data/nrql-new-relic-query-language/get-started/nrql-syntax-clauses-functions/#sel-facet)を使用すると、使用量をアカウント、ロケーション、モニタータイプ、モニター名など、複数のカテゴリーに分割できます。[親アカウント構造](/docs/accounts/original-accounts-billing/original-users-roles/parent-child-account-structure/)がある場合は、親アカウントでクエリを実行し、その親アカウントとその子アカウントの集計された使用状況を確認してください。 +[`FACET`](/docs/query-your-data/nrql-new-relic-query-language/get-started/nrql-syntax-clauses-functions/#sel-facet)を[NrDailyUsageイベント](/attribute-dictionary/?event=NrDailyUsage)と使用すると、使用量をアカウント、ロケーション、モニタータイプ、モニター名など、複数のカテゴリに分割できます。[親アカウント構造](/docs/accounts/original-accounts-billing/original-users-roles/parent-child-account-structure/)がある場合は、親アカウントでクエリを実行して、その親アカウントとその子アカウントの集計された使用状況を確認してください。 -成功と失敗の確認はどちらも、全体的なSynthetics使用量に寄与します。以下は、Syntheticsの使用量を表示してファセットするためのサンプルクエリです。 +成功と失敗の確認はどちらも、全体的なSynthetics使用量に寄与します。以下は、両方のイベントタイプを適切に使用して、Syntheticsの使用量を表示してファセットするためのサンプルクエリです。 ```sql - SELECT (sum(syntheticsFailedCheckCount) + sum(syntheticsSuccessCheckCount)) - AS 'Total Checks' FROM NrDailyUsage - WHERE syntheticsTypeLabel != 'Ping' SINCE 1 month ago + SELECT latest(freeConsumption) AS 'Included checks', latest(billableConsumption) AS 'Extra checks' + FROM NrMTDConsumption + WHERE metric='SyntheticChecks' + SINCE this month ``` @@ -237,10 +246,9 @@ SELECT latest(FullPlatformUsersBillable) * YOUR_PER_FULL_PLATFORM_USER_COST title="月別のSynthetics使用量" > ```sql - SELECT (sum(syntheticsFailedCheckCount) + sum(syntheticsSuccessCheckCount)) - AS 'Total Checks' - FROM NrDailyUsage - WHERE syntheticsTypeLabel != 'Ping' + SELECT latest(freeConsumption) AS 'Included checks', latest(billableConsumption) AS 'Extra checks' + FROM NrMTDConsumption + WHERE metric='SyntheticChecks' SINCE 6 months ago FACET monthOf(timestamp) ``` diff --git a/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts.mdx b/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts.mdx index ef01e1d8768..2e153c1e78f 100644 --- a/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts.mdx +++ b/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts.mdx @@ -63,7 +63,7 @@ New Relicでは、ユーザー**グループ**には**ロール**が含まれて New Relicで、ユーザーを**グループ**に配置すると、複数のユーザーを同時に管理できます。たとえば、[自動ユーザー管理](/docs/accounts/accounts/automated-user-management/automated-user-provisioning-single-sign)機能を使用している場合は、IDプロバイダーサービスからユーザーのカスタムグループ(たとえば、**外部コンサルタント**)をインポートし、そのグループに[ロールとアカウントを付与](#understand-concepts)できます。 -New Relicユーザーは、ロールと1つ以上のアカウントにアクセスできる、1つ以上のグループに属している必要があります。 +New Relicの機能にアクセスするには、ユーザーがロールと1つ以上のアカウントにアクセスできる、1つ以上のグループに属している必要があります。 グループはユーザーのNew Relic権限を制限するものでは**ありません**。グループに割り当てられた**ロール**で、権限へのアクセスを許可します。 diff --git a/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-ui-and-tasks.mdx b/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-ui-and-tasks.mdx index e76518034fb..2a586c1c32c 100644 --- a/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-ui-and-tasks.mdx +++ b/src/i18n/content/jp/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-ui-and-tasks.mdx @@ -9,12 +9,8 @@ freshnessValidatedDate: never translationType: human --- -import accountsUserMgmtEditUsers from 'images/accounts_screenshot-crop_user-mgmt-edit-users.webp' - import accountsUserMgmtUi from 'images/accounts_screenshot-crop_user-mgmt-ui.webp' -import accountsPendingInviteApproval from 'images/accounts_icon_pending-invite-approval.webp' - このドキュメントは、[当社の新しいユーザーモデル](/docs/accounts/original-accounts-billing/original-users-roles/overview-user-models)を使用しているユーザーの管理に関するものです。 @@ -49,7 +45,7 @@ New Relic組織のユーザー管理オプションを検索するには、[user * 設定の競合を避けるため、組織内の1人のユーザーのみが一度にユーザーを管理していることを確認してください。 -## ユーザー管理UI [#user-mgmt] +## UIの詳細 [#user-mgmt] **User management** UIのスクリーンショットを以下に示します。以下の列ヘッダーについて説明します。 @@ -111,7 +107,7 @@ New Relic組織のユーザー管理オプションを検索するには、[user ユーザーのユーザータイプを変更する前に、以下について理解しておいてください。 @@ -129,12 +125,6 @@ New Relic組織のユーザー管理オプションを検索するには、[user APIを使用してユーザー情報を管理する方法については、[NerdGraphを使用したユーザーの管理](/docs/apis/nerdgraph/examples/nerdgraph-manage-users)を参照してください。 - New Relic user management UI - edit user type - ユーザーがユーザータイプのアップグレード方法を管理するには、[認証ドメインの設定](/docs/accounts/accounts-billing/new-relic-one-user-management/authentication-domains-saml-sso-scim-more/#user-upgrade)を参照してください。 @@ -210,38 +200,6 @@ New Relic組織のユーザー管理オプションを検索するには、[user -## ユーザー管理UI [#user-mgmt] - -**User management** UIのスクリーンショットを以下に示します。以下の列ヘッダーについて説明します。 - -User management UI - -* **名前**:ユーザーの名前。 - -* **Eメール**:ユーザーのEメールアドレス。表示されるメッセージに関する注: - - * `Pending`:このユーザーはNew Relicに追加されていますが、まだ初回ログインをしていません。`Pending`状態であっても、ユーザーは引き続きプロビジョニング済みと見なされます。これは、請求可能なユーザータイプが存在する場合に請求対象であることを意味します。 - - * Pending invite approval icon - - このアイコンは`Pending invite approval`を示します。これらのユーザーはまだ請求対象ではありません。チームメイトを招待する方法の詳細については、[ユーザーの追加](#add-users)を参照してください。 - -* **タイプ**:ユーザーの[ユーザータイプ](/docs/accounts/accounts-billing/new-relic-one-user-management/user-type)。 - -* **グループ**:ユーザーが属する[グループ](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts#understand-concepts)。 - -* **最終アクティビティ**:ユーザーが最後にNew Relicにログインした日付。ユーザーの - - - - で実行されるAPIアクティビティを追跡しません。`Last active`は、ユーザーを下位のユーザータイプにダウングレードする場合に便利です。 - -* **ID**:ユーザーのNew Relicに割り当てられたID。 - ## 当社のAPIを使用する [#api] 当社のAPIを使用してアカウントとユーザーを管理するには、[NerdGraphチュートリアル](/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph/#tutorials)をご覧ください。 diff --git a/src/i18n/content/jp/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/rest-api-alerts/rest-api-calls-alerts.mdx b/src/i18n/content/jp/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/rest-api-alerts/rest-api-calls-alerts.mdx index dc7a54bbdfa..cfb902fa11f 100644 --- a/src/i18n/content/jp/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/rest-api-alerts/rest-api-calls-alerts.mdx +++ b/src/i18n/content/jp/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/rest-api-alerts/rest-api-calls-alerts.mdx @@ -15,7 +15,7 @@ translationType: human ## REST APIを使用する前に [#before-start] -REST APIを使用してアラートデータを管理する前に、[アラートと応用インテリジェンスのAPIの概要](/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/alerts-api/intro-alerts-api)をお読みください。 +REST APIを使用してアラートデータを管理する前に、[APIとアプライドインテリジェンスの概要](/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/alerts-api/intro-alerts-api)をお読みください。 Infrastructureのアラートについては、[InfrastructureモニタリングアラートのREST API](/docs/infrastructure/new-relic-infrastructure/infrastructure-alert-conditions/rest-api-calls-new-relic-infrastructure-alerts)を参照してください。 diff --git a/src/i18n/content/jp/docs/apis/nerdgraph/examples/nerdgraph-api-notifications-destinations.mdx b/src/i18n/content/jp/docs/apis/nerdgraph/examples/nerdgraph-api-notifications-destinations.mdx index 829d6cbf9e8..c320fbe255b 100644 --- a/src/i18n/content/jp/docs/apis/nerdgraph/examples/nerdgraph-api-notifications-destinations.mdx +++ b/src/i18n/content/jp/docs/apis/nerdgraph/examples/nerdgraph-api-notifications-destinations.mdx @@ -524,4 +524,36 @@ mutation { } } } +``` + + + `Entity type channel is in use`というエラー メッセージを受け取った場合は、続行する前に宛先で使用されているチャネルを特定し、それらを削除する必要があります。 これを行うには、まず宛先に関連付けられたすべてのチャネルを見つけてから、各チャネルを個別に削除します。 + + +```graphql +{ + actor { + account(id: YOUR_ACCOUNT_ID) { + aiNotifications { + channels(filters: {destinationId: YOUR_DESTINATION_ID}) { + entities { + id + name + } + } + } + } + } +} +``` + +```graphql +mutation { +aiNotificationsDeleteChannel(accountId: YOUR_ACCOUNT_ID, channelId: YOUR_CHANNEL_ID) { +ids +error { + details +} +} +} ``` \ No newline at end of file diff --git a/src/i18n/content/jp/docs/apm/agents/java-agent/configuration/java-agent-configuration-config-file.mdx b/src/i18n/content/jp/docs/apm/agents/java-agent/configuration/java-agent-configuration-config-file.mdx index 9c583fd29bd..3a760e8ab0e 100644 --- a/src/i18n/content/jp/docs/apm/agents/java-agent/configuration/java-agent-configuration-config-file.mdx +++ b/src/i18n/content/jp/docs/apm/agents/java-agent/configuration/java-agent-configuration-config-file.mdx @@ -1118,13 +1118,11 @@ Javaエージェントは、プロセスの開始時に設定ファイルを読 エージェントはデフォルトでHTTPSを介してNew Relicと通信します。New Relicは、[](/docs/apis/rest-api-v2/troubleshooting/301-response-rest-api-calls)とNew Relic REST APIへのすべてのトラフィックにします。 この作業は、アプリケーションコードを処理するスレッドとは非同期的に行われるので、レスポンスタイムはこの変更の影響を直接には受けません。 - -
[Javaエージェント3.48.0](/docs/release-notes/agent-release-notes/java-release-notes/java-agent-3480)では、SSLはデフォルトで有効になっており、これを無効にする設定オプションは非推奨となっています。[Javaエージェント4.0.0](/docs/release-notes/agent-release-notes/java-release-notes/java-agent-400)では、SSLを無効にする機能は削除されています。 -
+ -
[Javaエージェントのバージョン8.8.0](/docs/release-notes/agent-release-notes/java-release-notes/java-agent-880)以降で利用可能です。デフォルト設定の`both`では、データの取り込みが増加します。データ取り込みの増加を避けるには、`http_attribute_mode` `legacy`または`standard`に設定して、デフォルトをオーバーライドする必要があります。 -
+
## 非同期インストゥルメンテーション [#async_config] diff --git a/src/i18n/content/jp/docs/apm/agents/net-agent/troubleshooting/no-data-appears-net.mdx b/src/i18n/content/jp/docs/apm/agents/net-agent/troubleshooting/no-data-appears-net.mdx index 59d053db539..5271714bd27 100644 --- a/src/i18n/content/jp/docs/apm/agents/net-agent/troubleshooting/no-data-appears-net.mdx +++ b/src/i18n/content/jp/docs/apm/agents/net-agent/troubleshooting/no-data-appears-net.mdx @@ -206,6 +206,16 @@ translationType: human + + + **.NET 8:**ランタイム診断が有効になっていることを確認する + + + + .NET 8以降では、環境変数`DOTNET_EnableDiagnostics=0`(または`COMPlus_EnableDiagnostics=0`)を設定するとCLRプロファイリングが無効になり、エージェントが動作できなくなります。この設定は通常、読み取り専用ファイルシステムのデプロイメントシナリオで推奨されますが、診断ポートを無効にする場合にのみ使用されます。プロファイリングを有効にしたまま診断システムの特定のサブコンポーネントを無効にする方法については、[Microsoftのドキュメント](https://learn.microsoft.com/en-us/dotnet/core/tools/dotnet-environment-variables#dotnet_enablediagnostics)を参照してください。 + + + その他のヘルプを参照します。 diff --git a/src/i18n/content/jp/docs/apm/agents/php-agent/getting-started/php-agent-compatibility-requirements.mdx b/src/i18n/content/jp/docs/apm/agents/php-agent/getting-started/php-agent-compatibility-requirements.mdx index 1f1170b58dc..0fd677d6337 100644 --- a/src/i18n/content/jp/docs/apm/agents/php-agent/getting-started/php-agent-compatibility-requirements.mdx +++ b/src/i18n/content/jp/docs/apm/agents/php-agent/getting-started/php-agent-compatibility-requirements.mdx @@ -100,7 +100,7 @@ New Relic は40文字の16進数の文字列 ## オペレーティングシステム [#operating-systems] -ベンダーがサポート終了([Ubuntoの標準サポート終了ページ](https://wiki.ubuntu.com/Releases)など)を発表した場合、当社ではこれらの最新バージョンのサポートを1年間継続します。ただし、使用しているPHPバージョンが正式にサポートされなくなった場合は、1年未満でサポートが終了する可能性があります。 +ベンダーがサポート終了([Ubuntuの標準サポート終了ページ](https://wiki.ubuntu.com/Releases)など)を発表した場合、当社ではこれらの最新バージョンのサポートを1年間継続します。ただし、使用しているPHPバージョンが正式にサポートされなくなった場合は、1年未満でサポートが終了する可能性があります。 このため、ベンダーによる正式サポートの最新バージョンのOSを常に使用することをお勧めします。エージェントの最新バージョンは、サポート終了を過ぎたOSバージョンでも動作する可能性がありますが、古いバージョンのPHPエージェントはより長期間にわたってテストまたは正式にサポートされます。 diff --git a/src/i18n/content/jp/docs/data-apis/manage-data/manage-data-retention.mdx b/src/i18n/content/jp/docs/data-apis/manage-data/manage-data-retention.mdx index ef05e9cd1e8..0700e9197d1 100644 --- a/src/i18n/content/jp/docs/data-apis/manage-data/manage-data-retention.mdx +++ b/src/i18n/content/jp/docs/data-apis/manage-data/manage-data-retention.mdx @@ -1,22 +1,22 @@ --- -title: データ保持の確認と管理 +title: データ保持期間の表示と管理 metaDescription: 'New Relic data retention: How long data is stored.' freshnessValidatedDate: never -translationType: machine +translationType: human --- import accountsEditRetentionSettings from 'images/accounts_screenshot-crop_edit-retention-settings.webp' import accountsCopyDataRetention from 'images/accounts_screenshot-crop_copy-data-retention.webp' -[データ管理ハブ](https://one.newrelic.com/data-management-hub)にある **\[データ保持** UI] ページでは、さまざまな種類のデータを保存する期間を確認および管理できます。機密情報を保護するために、一部のデータ タイプの保持期間を短くしたい場合や、長期にわたってデータと傾向を表示および分析できるように、保持期間を長くしたい場合 (最大 7 年間) が必要な場合があります。 +[データ管理ハブにある](https://one.newrelic.com/data-management-hub)**Data retention** \[データ保持期間]UI ページでは、さまざまな種類のデータの保存期間を確認および管理できます。機密情報を保護するために、一部のデータタイプの保持期間を短くする必要がある場合や、長期間にわたるデータやトレンドを確認および分析できるように、より長い保持期間(最大7年間)が必要になる場合があります。 ## 長期的な分析とコンプライアンスのためにデータ保持期間を延長 -データ保持期間を延長すると、すべてのソースにわたるすべてのメトリクス、イベント、ログ、およびトレースに対して、長期的な分析、視覚化、およびアラートを実行できます。ただし、コスト、パフォーマンス、および場合によってはコンプライアンス上の理由から、そのデータを管理することが重要です。当社のデータ管理ハブは、データがどこから来ているかを理解して制御し、保存する内容と保存期間を調整するために必要なツールを提供します。 +データ保持期間を延長すると、すべてのソースにわたるすべてのメトリクス、イベント、ログ、トレースの長期的な分析、視覚化、アラートを実行できるようになります。ただし、コスト、パフォーマンス、場合によってはコンプライアンス上の理由から、そのデータを管理することが重要です。当社のデータ管理ハブでは、必要なツールを用意し、データの出所を理解して制御し、何をどのくらいの期間保存するかを調整します。 - [Data Plus オプション](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/#data-plus)を使用すると、最大 90 日間の保存期間が追加され (ほとんどのデータ タイプで)、その他のエンタープライズ レベルの機能 (クエリ期間の延長、FedRAMP および HIPAA コンプライアンス、追加のセキュリティ機能など) が得られます。 + [Data Plusオプション](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/#data-plus)を使用すると、(ほとんどのデータタイプに対して)最大90日間の追加の保持期間が得られるほか、クエリ期間の延長、FedRAMPおよびHIPAAへの準拠、追加のセキュリティ機能など、その他のエンタープライズグレードの機能も利用できます。
- **データ保持**UI では、データ保持期間を確認したり、データ保持を編集したりできます。表の列ヘッダーの説明を表示するには、ヘッダーにカーソルを合わせます。 + **Data retention** \[データ保持期間]UI では、データ保持期間を確認し、データ保持期間を編集できます。テーブルの列ヘッダーの説明を表示するには、ヘッダーの上にマウスを置きます。
## 要件 [#requirements] -データ保持を構成するには、課金管理者権限を持つ Pro または Enterprise エディションが必要です。この基準を満たさないアカウントの特性は、一部の New Relic 組織が保持を独自に調整することを妨げます。請求管理者アカウントの Pro または Enterprise 組織であり、保持を編集できない場合は、New Relic アカウント担当者にお問い合わせください。 +データ保持期間を設定するには、請求アドミニストレーター権限を持つProまたはエンタープライズエディションが必要です。この基準を満たさないアカウントの特性により、一部のNew Relic組織は保持期間を独自に調整することができなくなります。請求アドミニストレーターアカウントを使用しているProまたはエンタープライズの組織で、保持期間を編集できない場合は、New Relicアカウント担当者にお問い合わせください。 -[Data Plus オプション](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/#data-plus)では、さらに 90 日間の保存期間が提供されることに注意してください。 +[Data Plusオプション](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/#data-plus)では、さらに最大90日間の保持期間が提供されます。 -保持を表示および編集するための権限関連の要件: +保持期間を表示および編集するための権限関連の要件: -* [新しいユーザー モデル](/docs/accounts/original-accounts-billing/original-users-roles/overview-user-models): +* [新しいユーザーモデル](/docs/accounts/original-accounts-billing/original-users-roles/overview-user-models): - * 組織全体のデータ保持期間を延長する契約を設定するには、 [**課金**管理設定](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts#admin-settings)が必要です - * 特定の種類のデータまたは特定のアカウントの契約の範囲内で保持を調整するに [は、**Insights event retentionイベント保持** \[Insights イベント保持\] 権限](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions/#data-retention)が必要です + * 組織全体に対してデータ保持期間が長くなる契約を設定するには、[**Billing** \[請求\]管理設定](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts#admin-settings)が必要です + * 特定の種類のデータまたは特定のアカウントについて契約の範囲内で保持期間を調整するには、[**Insights event retention** \[インサイト イベント保持\] 許可](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions/#data-retention) -* [元のユーザー モデル](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model): 所有者ロールまたはデータ保持マネージャー アドオン ロールが必要です。 +* [元のユーザーモデル](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model):所有者ロールまたはデータ保持期間マネージャーアドオンロールが必要です -## データ保持 UI [#find-ui] +## データ保持期間UI [#find-ui] -**データ保持**UI ページは、[データ管理ハブ](https://one.newrelic.com/data-management-hub)にあります。 +**Data retention** \[データ保持期間]UI ページは、[Data management hub](https://one.newrelic.com/data-management-hub) \[データ管理ハブ]にあります。 -## デフォルトの保持期間 [#retention-periods] +## 初期設定のデータ保持期間 [#retention-periods] -New Relic のデータ保持を理解する最善の方法は、**データ保持**UI ページに移動することです。組織が設定を編集した可能性があり、以下に示すデフォルト設定ではない可能性があるため、これをお勧めします。 +New Relicデータ保持期間を理解する最良の方法は、**Data retention** \[データ保持期間]UI ページにアクセスすることです。組織が設定を編集している可能性があり、以下に示す初期設定ではない可能性があるため、アクセスして確認してください。 -この表は、デフォルトの[名前空間](/docs/glossary/glossary)保持設定を示しています。 +この表は、デフォルトの[ネームスペース](/docs/glossary/glossary)保持設定を示しています。 @@ -100,7 +100,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保 @@ -244,7 +244,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保 @@ -478,7 +478,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- 情報源 + データソース - 名前空間 + ネームスペース - [元のデータオプション](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing#data-prices)の保持(日数) + [オリジナルデータオプション](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing#data-prices)保持期間(日数) - [Data Plus](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing#data-prices)の保持(日数) + [Data Plus](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing#data-prices)保持期間(日数)
- APMのエラー + APMエラー @@ -136,7 +136,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保 - すべて ([詳細はこちら](#browser-namespaces)) + すべて([詳細情報](#browser-namespaces)) @@ -186,11 +186,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- インフラストラクチャー + インフラストラクチャ - インフラストラクチャプロセス([詳細](#infrastructure-data)) + Infrastructureプロセス([詳細情報](#infrastructure-data)) @@ -204,25 +204,25 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- インフラストラクチャー + インフラストラクチャ - インフラストラクチャの統合([詳細](#infrastructure-data)) + Infrastructureインテグレーション([詳細情報](#infrastructure-data)) - 395 (13ヶ月) + 395(13か月) - 485 (16ヶ月) + 485(16か月)
- マーカー ([変更追跡](/docs/change-tracking/change-tracking-introduction)) + マーカー([変更追跡](/docs/change-tracking/change-tracking-introduction)) @@ -230,11 +230,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保 - 395 (13ヶ月) + 395(13か月) - 485 (16ヶ月) + 485(16か月)
- モバイルの衝突イベントの軌跡(パンくず式) + モバイルクラッシュのイベントトレイル(ブレッドクラム) @@ -280,7 +280,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保 - モバイル総合 + モバイル一般 @@ -348,11 +348,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- 通信網 + ネットワーク - フロー (クラウド & オンプレミス) + フロー(クラウドとオンプレミス) @@ -366,11 +366,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- 通信網 + ネットワーク - SNMP ([メトリクスを参照](#dimensional-metrics)) + SNMP([メトリクスを参照](#dimensional-metrics)) @@ -384,7 +384,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- 通信網 + ネットワーク @@ -402,11 +402,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- サーバーレス + サーバーレス(Serverless) - ラムダ + Lambda @@ -420,11 +420,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- サーバーレス + サーバーレス(Serverless) - ラムダカスタム + Lambdaカスタム @@ -438,11 +438,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- サーバーレス + サーバーレス(Serverless) - ラムダのスパン + Lambdaスパン @@ -456,19 +456,19 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
- 合成モニタリング(編集不可) + 外形監視(編集不可) - 合成データ(編集不可) + Synthetic データ(編集不可) - 395 (13ヶ月) + 395(13か月) - 395 (13ヶ月) + 395(13か月)
- 分散型トレース + ディストリビューティッド(分散)トレース @@ -492,39 +492,39 @@ New Relic のデータ保持を理解する最善の方法は、**データ保
-## さまざまなデータ型の保持の詳細 [#data-details] +## さまざまなデータ型の保持期間の詳細 [#data-details] -このセクションでは、変更できない保持設定を持ついくつかのデータタイプを含む、いくつかの異なるタイプのデータについて詳しく説明します。 +このセクションでは、変更できない保持期間設定を持つデータ型をいくつか含む、異なるデータ型について詳しく説明します。 - 生の[ディメンションメトリック](/docs/data-apis/understand-data/new-relic-data-types/#dimensional-metrics)データ( `Metric`データ型)は、いくつかの異なる時間範囲で集計(ロールアップ)され、それらの集計はさまざまな期間保持されます。生のディメンションメトリックデータポイントは30日間保存されます。集約されたデータポイント(集約は1分から開始)は13か月間保持されます。 + 生の[ディメンションメトリクス](/docs/data-apis/understand-data/new-relic-data-types/#dimensional-metrics)データ(`Metric`データ型)は、いくつかの異なる時間範囲で集計(ロールアップ)され、それらの集計はさまざまな期間保持されます。生のディメンションメトリクスのデータポイントは30日間保存されます。集計されたデータポイント(集約は1分から開始)は13か月間保持されます。 - 生データの取り込みのみが使用量にカウントされます。集約されたデータはカウントされません。 + 取り込まれた生データのみが使用量としてカウントされます。集計データはカウントされません。 - メトリクスの保存期間は編集できません。 + メトリクスの保持期間は編集できません。 - [メトリクスのタイムスライス データは](/docs/using-new-relic/data/understand-data/new-relic-data-types#timeslice-data)次のように生成されます。 (カスタムメトリクスとデフォルトメトリクスの両方)、 、およびブラウザエージェント。メトリックのタイムスライスは、メトリック名、メトリックが表す時間のセグメント (「タイムスライス」)、および数値 (測定値) の 3 つの部分で構成されます。APM、 、モバイル エージェントは、エラー率、帯域幅使用量、ガベージ コレクション時間などのさまざまなパフォーマンス メトリックについて、1 分あたり数千のメトリック タイムスライスを収集できます。 + [メトリックタイムスライスデータ](/docs/using-new-relic/data/understand-data/new-relic-data-types#timeslice-data)は、(カスタムメトリクスとデフォルトメトリクスの両方)、、Browserエージェントによって生成されます。メトリックタイムスライスは、メトリクス名、メトリクスが表す時間のセグメント( 「タイムスライス」)、および数値(測定値)の3つの部分で構成されます。APM、、モバイルエージェントは、エラー率、帯域幅使用量、ガベージコレクションタイムなど、さまざまなパフォーマンスメトリクスに対して、1分あたり数千のメトリックタイムスライスを収集できます。 - メートル単位のタイムスライスデータは、このように集計されます。 + メトリックタイムスライスデータは次のように集計されます。 - * 8日間保存される1分間のロールアップへの最初の + * 最初から1分間のロールアップは8日間保存されます - * 1分間のロールアップは、90日間保持される1時間のロールアップにも追加されます。 + * 1分のロールアップは、90日間保持される1時間のロールアップにも追加されます - 最初の生データの取り込みのみが使用量にカウントされます。集約されたデータはカウントされません。 + 最初の生データの取り込みのみが使用量にカウントされます。集計データはカウントされません。 - 一部の主要なメトリックは無期限に保存されます。製品ごとの主要な指標については、以下をお読みください。 + 一部の主要なメトリクスは無期限に保存されます。製品ごとの主要なメトリクスについては、以下をお読みください。 - ここでは、無期限に保存される主要な指標タイムスライスデータを紹介します。 + 無期限に保存される主要なメトリックタイムスライスデータは次のとおりです。 @@ -534,10 +534,10 @@ New Relic のデータ保持を理解する最善の方法は、**データ保 @@ -562,11 +562,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保 @@ -575,23 +575,23 @@ New Relic のデータ保持を理解する最善の方法は、**データ保 - すべてのブラウザーの名前空間には、同じデフォルトの保存期間があります。各ブラウザの名前空間のイベントの詳細は次のとおりです。 + すべてのブラウザネームスペースのデフォルトの保持期間は同じです。各ブラウザネームスペースでのイベントの詳細は次のとおりです。 - * `Browser` 名前空間: `PageView`、 `PageAction` - * `Browser events` 名前空間: `AjaxRequest`、 `BrowserInteraction`、 `BrowserTiming` - * `Browser JS errors` 名前空間: `JavaScriptError` - * `Browser page view timing` 名前空間: `PageViewTiming` + * `Browser` ネームスペース:`PageView`、 `PageAction` + * `Browser events` ネームスペース:`AjaxRequest`、`BrowserInteraction`、 `BrowserTiming` + * `Browser JS errors` ネームスペース: `JavaScriptError` + * `Browser page view timing` ネームスペース: `PageViewTiming` - これらのイベントの詳細については、[データ ディクショナリのブラウザ イベントを](/attribute-dictionary/?dataSource=Browser+agent)参照してください。 + これらのイベントの詳細については、[データディクショナリのブラウザイベント](/attribute-dictionary/?dataSource=Browser+agent)を参照してください。 - インフラストラクチャ モニタリングは、生成されたデータをダウンサンプリングします。すべてのインフラストラクチャ モニタリング メトリック データ タイプ (ホスト上の統合からのメトリクスを含む) は、データの年代と時間ウィンドウのサイズに応じて異なる粒度を表示します。次の表は、インフラストラクチャ UI とクエリの両方で、ダウンサンプルされた異なるバケットが使用される場合を示しています。 + infrastructureモニタリングは、データの生成時にダウンサンプリングします。すべてのinfrastructureモニタリングのメトリクスデータ型(オンホストインテグレーションからのメトリクスを含む)は、データの古さと時間枠のサイズに応じて異なる粒度で表示されます。次の表は、インフラストラクチャUIとクエリの両方で、さまざまなダウンサンプリングされたバケットの使用タイミングを示しています。
- * [Apdex](/docs/site/apdex-measuring-user-satisfaction), アプリサーバー用 + * [Apdex](/docs/site/apdex-measuring-user-satisfaction)、アプリサーバー * スループットとページビュー - * レスポンスタイムとその内訳 [階層別](/docs/accounts-partnerships/education/getting-started-new-relic/glossary#tier) またはカテゴリー別に [あなたのアプリのメイン **概要** チャート](/docs/apm/applications-menu/monitoring/apm-overview-page) - * ページのロード時間、および [のセグメントに分けた内訳。](/docs/browser/new-relic-browser/page-load-timing-resources/page-load-timing-process#time-segments) + * レスポンスタイムに加えて、[アプリのメイン**Overview** \[概要\]チャート](/docs/apm/applications-menu/monitoring/apm-overview-page)上の[ティア](/docs/accounts-partnerships/education/getting-started-new-relic/glossary#tier)またはカテゴリ別の内訳 + * ページロードタイムと[セグメント](/docs/browser/new-relic-browser/page-load-timing-resources/page-load-timing-process#time-segments)別の内訳 * エラー率 * CPU使用率 * メモリ使用量 @@ -550,9 +550,9 @@ New Relic のデータ保持を理解する最善の方法は、**データ保 - * [Apdex](/docs/site/apdex-measuring-user-satisfaction), ブラウザ用 - * ブラウザのページロード時間 - * スループットの合計。90日以降は、ブラウザタイプ別の集計は行われず、要求された時間範囲の合計平均値のみが表示されます。 + * [Apdex](/docs/site/apdex-measuring-user-satisfaction)、ブラウザ + * ブラウザのページロードタイム + * スループットの合計。90日を経過すると、ブラウザの種類別の内訳はなくなり、要求された期間の結合平均値のみが表示されます。
- * クラッシュレートです。 [iOSの場合](/docs/mobile-monitoring/new-relic-mobile/getting-started/ios-agent-crash-reporting) 、 [Androidの場合](/docs/mobile-monitoring/new-relic-mobile/getting-started/android-agent-crash-reporting) + * クラッシュ率:[iOS](/docs/mobile-monitoring/new-relic-mobile/getting-started/ios-agent-crash-reporting)および[Android](/docs/mobile-monitoring/new-relic-mobile/getting-started/android-agent-crash-reporting) * [ネットワークスループット](/docs/mobile-monitoring/mobile-monitoring-ui/network-pages/http-requests-page) - * [ネットワーク応答時間](/docs/mobile-monitoring/mobile-monitoring-ui/network-pages/http-requests-page) - * [ネットワークエラー率](/docs/mobile-monitoring/mobile-monitoring-ui/network-pages/errors-mobile-apps) - * [インタラクション・トレース](/docs/mobile-monitoring/mobile-monitoring-ui/mobile-app-pages/interactions-page) + * [ネットワークのレスポンスタイム](/docs/mobile-monitoring/mobile-monitoring-ui/network-pages/http-requests-page) + * [ネットワークのエラー率](/docs/mobile-monitoring/mobile-monitoring-ui/network-pages/errors-mobile-apps) + * [インタラクショントレース](/docs/mobile-monitoring/mobile-monitoring-ui/mobile-app-pages/interactions-page)
@@ -601,11 +601,11 @@ New Relic のデータ保持を理解する最善の方法は、**データ保 @@ -613,7 +613,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保 @@ -659,7 +659,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保 diff --git a/src/i18n/content/jp/docs/distributed-tracing/concepts/how-new-relic-distributed-tracing-works.mdx b/src/i18n/content/jp/docs/distributed-tracing/concepts/how-new-relic-distributed-tracing-works.mdx index ec7ae442bb8..e65b1a7cef6 100644 --- a/src/i18n/content/jp/docs/distributed-tracing/concepts/how-new-relic-distributed-tracing-works.mdx +++ b/src/i18n/content/jp/docs/distributed-tracing/concepts/how-new-relic-distributed-tracing-works.mdx @@ -1,12 +1,12 @@ --- -title: 技術的な分散トレースの詳細 +title: ディストリビューティッド(分散)トレーシングに関する技術的な詳細 tags: - Understand dependencies - Distributed tracing - Get started metaDescription: 'Technical details of New Relic''s distributed tracing, including limits, explanation of sampling, trace data structure, and trace storage.' freshnessValidatedDate: never -translationType: machine +translationType: human --- import distributedtracingInfiniteTracingOverview from 'images/distributed-tracing_diagram_infinite-tracing-overview.webp' @@ -21,7 +21,7 @@ import distributedtracingMiddlewarew3c from 'images/distributed-tracing_diagram_ import distributedtracingDifferentVendorw3c from 'images/distributed-tracing_diagram_different-vendor-w3c.webp' -ここでは、New Relic の分散トレースがどのように機能するかについて、技術的な詳細を説明します。 +New Relicのディストリビューティッド(分散)トレーシングの仕組みについての技術的な詳細は、次のとおりです。 * [トレースサンプリングのしくみ](#sampling) * [トレースデータの構造](#trace-structure) @@ -30,7 +30,7 @@ import distributedtracingDifferentVendorw3c from 'images/distributed-tracing_dia ## トレースのサンプリング [#sampling] -トレースをどのようにサンプリングするかは、お客様の設定や使用している New Relic トレーシングツールによって異なります。たとえば、サードパーティのテレメトリサービス(OpenTelemetryなど)を利用して、データが弊社に届く前にトレースのサンプリングを実施している場合があります。また、 [Infinite Tracing](/docs/understand-dependencies/distributed-tracing/infinite-tracing/introduction-infinite-tracing) を使用している場合は、すべてのトレースデータを弊社に送り、弊社のサンプリングに頼ることになるでしょう。 +トレースのサンプリング方法は、ユーザーのセットアップ、および使用するNew Relicトレーシングツールによって異なります。たとえば、サードパーティのテレメトリーサービス(OpenTelemetryなど)を使って、データが当社に届く前にトレースのサンプリングが実行されている可能性があります。または、[Infinite Tracing](/docs/understand-dependencies/distributed-tracing/infinite-tracing/introduction-infinite-tracing)を使用している場合、すべてのトレースデータが当社に送信され、当社のサンプリングに依存していると思われます。 いくつかのサンプリング戦略が利用可能です。 @@ -40,7 +40,7 @@ import distributedtracingDifferentVendorw3c from 'images/distributed-tracing_dia ### ヘッドベースのサンプリング(標準のディストリビューティッド(分散)トレーシング) [#head-based] -[Infinite Tracing](#tail-based) 機能を除いて、当社のほとんどのトレースツールはヘッドベースのサンプリングアプローチを採用しています。これは、トレース内のすべてのスパンが到着する前に、個々のスパンにフィルタを適用するものです。つまり、スパンを受け入れるかどうかの判断は、フィルタリングプロセスの最初("head" )で行われます。このようなサンプリング手法を用いることで、ストレージやパフォーマンスの問題を回避しつつ、アクティビティの代表的なサンプルを取得することができます。 +[Infinite Tracing](#tail-based)機能を除き、当社のトレーシングツールのほとんどは、ヘッドベースのサンプリングアプローチを使用します。このアプローチでは、トレース内のすべてのスパンが到着する前に、個々のスパンにフィルターを適用します。つまり、スパンを受け入れるかどうかの決定は、フィルタリングプロセスの最初(「ヘッド」)に行われます。当社ではこのサンプリング戦略を使用して、ストレージとパフォーマンスの問題を避けながら、アクティビティの代表的なサンプルを取得します。 標準のディストリビューティッド(分散)トレーシングツールでのヘッドベースのサンプリングの実行方法の詳細を、以下に示します。 @@ -49,17 +49,17 @@ import distributedtracingDifferentVendorw3c from 'images/distributed-tracing_dia id="trace-origin-sampling" title="言語エージェント:適応サンプリング" > - 私たちの 言語エージェントは適応サンプリングを使用して、システム アクティビティの代表的なサンプルを取得します。次に、アダプティブ サンプリングのしくみについて説明します。 + 当社の言語エージェントは適応サンプリングを使用して、システムアクティビティの代表的なサンプルを取得します。適応サンプリングのしくみは次のとおりです。 - トレースの最初のサービスへのスループットは、リクエストがサンプリングされる頻度を調整するために使用されます。これについては以下で詳しく説明します。また、APM エージェントのドキュメントを参照することもできます。 + トレース内の最初のサービスのスループットを使用して、リクエストのサンプリング頻度が調整されます。これについては以下で詳しく説明します。また、APMエージェントのドキュメントを参照することもできます。 - 分散トレースで監視する最初のサービスは、トレース オリジンと呼ばれます。トレース オリジンは、トレースするリクエストをランダムに選択します。その決定は、そのリクエストが関係するダウンストリーム サービスに伝達されます。リクエストが完了すると、これらのリクエストによって生成されたスパンが New Relic に報告され、UI で完全なトレースとして利用できるようになります (ただし、以下で説明するエージェントのスパン制限により、トレースが断片化される場合があります)。 + ディストリビューティッド(分散)トレーシングで最初にモニターするサービスは、トレース元と呼ばれます。トレース元は、トレースが無作為になるようリクエストを選択します。この決定は、そのリクエストがタッチしたダウンストリームのサービスに伝搬されます。リクエストが完了すると、これらのリクエストによって生成されたスパンがNew Relicに報告され、完全なトレースとしてUIで利用可能になります(ただし、以下で説明するエージェントのスパン制限によってトレースが断片化する可能性があります)。 - トレース オリジン サービスは、デフォルトで 1 分あたり 10 トレースをサンプリングします。時間の経過とともに代表的なサンプルを取得するために、これらの 10 個のトレースのコレクションを 1 分間に分散しようとします。正確なサンプリング レートは、直前の 1 分間のトランザクション数に依存し、トランザクション スループットの変化に適応します。 + トレース元のサービスは、デフォルトで1分あたり10個のトレースをサンプリングします。その期間の代表的なサンプルを取得するため、これら10個のトレースの収集を1分間に分散しようとします。正確なサンプリングレートは、直前の1分間のトランザクション数に依存し、その後のスループットの変化に適応します。 - たとえば、直前の 1 分間に 100 件のトランザクションがあった場合、エージェントは同様の数のトランザクションを予測し、10 トランザクションごとに 1 つを選択して、次の 1 分間にサンプリングします。 + たとえば、前の1分間に100件のトランザクションがあった場合、エージェントは同様の数のトランザクションを予測し、次の1分間にサンプリングするトランザクション10 件ごとに1件を選択します。 - APM エージェントには、1 分間に収集されるスパンの数に制限があり、エージェント インスタンスごとに 1 分間に 2000 スパンが収集されるデフォルトの制限があります (これを調整する方法については、APM エージェントの構成ドキュメントを参照してください)。エージェントが 1 分間に構成された制限を超えるスパンを生成すると、一部のスパンがドロップされ、UI で [断片化されたトレースが](/docs/distributed-tracing/ui-data/understand-use-distributed-tracing-ui/#fragmented-traces) 発生します。トレースは、サンプリングのために選択されるときにランダムな優先度が割り当てられるため、複数のエージェントがスパンをドロップする必要がある場合、最初に優先度の低いトレースからスパンをドロップすることによって、優先度の高いトレースをそのまま維持しようとすることができます。 + APMエージェントには1分あたりに収集されるスパンの数に制限があり、エージェントインスタンスごとに1分あたり収集されるスパンのデフォルト制限は2000です(これを調整する方法については、APMエージェント設定のドキュメントを参照してください)。エージェントが1分間に設定された制限を超えるスパンを生成すると、一部のスパンが削除され、UIで[トレースが断片化](/docs/distributed-tracing/ui-data/understand-use-distributed-tracing-ui/#fragmented-traces)されます。トレースは、サンプリング対象として選択される際にランダムな優先順位が割り当てられるため、複数のエージェントがスパンを削除する必要がある場合、最初に優先順位の低いトレースからスパンを削除して、優先順位の高いトレースをそのままの状態に保とうとします。 - Infinite Tracingは、アプリケーションまたはサードパーティのテレメトリサービスからより多くのトレースデータを収集して転送できるため、結果として出力コストが増加する可能性があります。Infinite Tracingを展開するときは、これらのコストに注意して、このソリューションが適切であることを確認することをお勧めします。 + Infinite Tracingはアプリケーションまたはサードパーティのテレメトリーサービスからより多くのトレースデータを収集して転送できるため、結果としてエグレスコストが増加する場合があります。Infinite Tracingを展開する際には、このソリューションが適切であることを確認する上で、これらのコストに注意してください。 @@ -91,9 +91,9 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード お客様のスパンのみがトレースオブザーバーに移動します - メトリックスやカスタムイベント、トランザクショントレースなどのその他すべてのデータは通常のルートでNew Relicに送信され、ローカルサンプリングの対象となります。 - データを送信するAWSリージョンに一意のトレースオブザーバーエンドポイントを設定します。トレースはクロスアカウント機能であるため、デフォルトの実装では、[アカウントファミリー](/docs/glossary/glossary/#account-family)ごとに、リージョンごとに1人のトレースオブザーバーのみを許可します(さらにリクエストするには、アカウント担当者にご相談ください)。エンドポイントは、特定のワークロードのトレースオブザーバーを表します。たとえば、単一のトレース(要求)からのすべてのスパンは、そのエンドポイントに到達する必要があります。 + データの送信先のAWSリージョンの一意のトレースオブザーバーのエンドポイントを設定します。トレーシングはクロスアカウント機能であるため、デフォルトの実装では、リージョンごと、[アカウントファミリー](/docs/glossary/glossary/#account-family)ごとに1人のトレースオブザーバーのみが許可されます(さらにリクエストするには、アカウント担当者にお問い合わせください)。エンドポイントは、特定のワークロードのトレースオブザーバーを表します。たとえば、単一のトレース(リクエスト)からのすべてのスパンは、そのエンドポイントに移動する必要があります。 - 2 つのアーキテクチャ図を次に示します。 エージェントと、OpenTelemetry エクスポーターなどの New Relic 統合を使用する場合の別のエージェント: + 以下は2つのアーキテクチャー図です。1つは、エージェントを使用する場合の、もう1つはOpenTelemetryエクスポーターのようなNew Relicインテグレーションを使用する場合のデータの流れを示しています。 @@ -298,7 +298,7 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード @@ -308,7 +308,7 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード @@ -398,9 +398,9 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード ヘッダー伝搬の問題に対処するため、当社は、2つの標準化されたヘッダーを必要とするW3Cトレースコンテキスト仕様をサポートしています。当社の最新のW3C New Relicエージェントは、この2つの必要なヘッダーを送受信し、デフォルトで以前のNew Relicエージェントのヘッダーも送受信します。 -* W3C( `traceparent` ):トレース全体(トレースID)と呼び出し元サービス(スパンID)を識別するプライマリヘッダー。 -* W3C( `tracestate` ):ベンダー固有の情報を伝達し、トレースが行われた場所を追跡する必須のヘッダー。 -* New Relic( `newrelic` ):以前のNewRelicエージェントとの下位互換性を維持するために引き続き送信される元の独自のヘッダー。 +* W3C(`traceparent`):トレース全体(トレースID)と呼び出しサービス(スパンID)を識別するプライマリヘッダー +* W3C(`tracestate`):ベンダー固有の情報を伝達し、トレースされた場所を追跡する必須ヘッダー +* New Relic(`newrelic`):以前のNew Relicエージェントとの下位互換性を維持するために引き続き送信される、元のプロプライエタリヘッダー 3つのヘッダーを組み合わせることで、これらのタイプのエージェントでインストゥルメントされたサービス全体にトレースを伝搬できるようになります。 @@ -409,7 +409,7 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード * W3Cトレースコンテキスト対応エージェント - リクエストがW3CTraceContext互換エージェントにのみ触れる場合は、NewRelicヘッダーをオフにすることを選択できます。 `newrelic`ヘッダーをオフにする方法の詳細については、[エージェント構成](/docs/agents/manage-apm-agents/configuration/configure-agent)のドキュメントを参照してください。 + リクエストがW3Cトレースコンテキスト対応エージェントにのみタッチする場合、New Relicヘッダーをオフにすることを選択できます。`newrelic`ヘッダーをオフにする詳細については、[エージェント設定](/docs/agents/manage-apm-agents/configuration/configure-agent)ドキュメントを参照してください。 以下のシナリオには、さまざまな種類の適切なヘッダ伝搬が示されています。 @@ -455,6 +455,6 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード -まだお持ちでない場合は、以下で無料の New Relic アカウントを作成して、今すぐデータの監視を開始してください。 +まだ作成されていない場合は、無料のNew Relicアカウントを以下で作成し、今すぐデータの監視を開始してください。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup.mdx b/src/i18n/content/jp/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup.mdx index c75f7505584..e09f1cf64e8 100644 --- a/src/i18n/content/jp/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup.mdx +++ b/src/i18n/content/jp/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup.mdx @@ -1,33 +1,33 @@ --- -title: Amazon CloudWatch Metric Streamsの統合をセットアップする +title: Set up the Amazon CloudWatch Metric Streams integration tags: - Integrations - Amazon integrations - AWS integrations list metaDescription: Learn how to gather all AWS metrics and custom namespaces to send them to New Relic. freshnessValidatedDate: never -translationType: machine +translationType: human --- -AWS Metric Streamsの統合により、すべてのAWSメトリクスとカスタムネームスペースを収集してNew Relicに送信するために必要なのは、**単一のサービス**[AWSCloudWatch](https://aws.amazon.com/cloudwatch/)だけです。 +With the AWS Metric Streams integration, you only need a **single service**, [AWS CloudWatch](https://aws.amazon.com/cloudwatch/), to gather all AWS metrics and custom namespaces and send them to New Relic. -CloudWatchのメトリクスをNew Relicにストリーミングするには。 +To stream CloudWatch metrics to New Relic: -1. [最小限のパーミッションとマッピングの説明](#permissions) を確認してください。 -2. Kinesis Data Firehoseを作成し、New Relicを指定します。 -3. 次に、先ほど作成したFirehoseにメトリクスを送信するために、CloudWatch Metric Streamを作成する。 -4. [ガイド付き](#setup-cloudformation) または [マニュアル](#manual-setup) のセットアップ手順に従う。 +1. Check the [minimal permissions and mapping instructions](#permissions). +2. Create Kinesis Data Firehose and point it to New Relic. +3. Next, create a CloudWatch Metric Stream to send metrics to that Firehose you've just created. +4. Follow the [guided](#setup-cloudformation) or [manual](#manual-setup) setup instructions. 5. [データ受信の検証](#validate-data)。 -該当する場合は、 [AWSポーリング統合からの移行](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream#migrating-from-poll-integrations)に関するドキュメントをお読みください。 +If applicable, read our documentation about [migrating from AWS polling integrations](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream#migrating-from-poll-integrations). - Terraformを使用して、クラウド統合を有効にするプロセスを自動化できます。 [Terraformの公式ドキュメントサイト](https://registry.terraform.io/providers/newrelic/newrelic/latest/docs/guides/cloud_integrations_guide)でその方法をお読みください。 + Terraformを使用して、クラウドインテグレーションを有効にするプロセスを自動化できます。使用方法については[Terraformの公式文書サイトを](https://registry.terraform.io/providers/newrelic/newrelic/latest/docs/guides/cloud_integrations_guide)ご覧ください。 -## 最小限のパーミッションとマッピングの指示 [#permissions] +## Minimal permissions and mapping instructions [#permissions] -サービスメタデータやカスタムタグを追加してCloudWatchのメトリクスを充実させるには、New Relicに設定されているAWSロールに、以下の最小限の権限を付与する必要があります。 +To enrich CloudWatch metrics with additional service metadata and custom tags, any AWS role configured in New Relic must be granted the following minimal permissions: ``` config:BatchGetResourceConfig @@ -35,26 +35,26 @@ config:ListDiscoveredResources tag:GetResources ``` -New Relic UIは現在、これらの個々のアイテムに対して`ReadOnlyAccess`ポリシーを推奨しているため、New Relicには、AWS CloudWatchMetricStreamsでは利用できないサービスデータを収集するための適切な権限があります。 +The New Relic UI currently recommends the `ReadOnlyAccess` policy over these individual items so that New Relic has proper permissions to collect service data that's not available in AWS CloudWatch Metric Streams. -## New RelicとAWSのアカウントとリージョンのマッピング [#map-accounts-regions] +## New Relic and AWS accounts and regions mapping [#map-accounts-regions] -* 複数のAWSアカウントを管理している場合は、それぞれのアカウントをNew Relicに接続する必要があります。 -* これらのアカウントで複数の地域を管理している場合は、各地域にNew Relicを指す異なるKinesis Data Firehoseを設定する必要があります。 -* 通常、1つのNew Relicアカウントに1つまたは複数のAWSアカウントをマッピングします。 +* If you manage multiple AWS accounts, then each account needs to be connected to New Relic. +* If you manage multiple regions within those accounts, then each region needs to be configured with a different Kinesis Data Firehose pointing to New Relic. +* You will typically map one or many AWS accounts to a single New Relic account. -## CloudFormationを使ったガイド付きセットアップ [#setup-cloudformation] +## Guided setup using CloudFormation [#setup-cloudformation] -まず、各AWSアカウントをNewRelicアカウントにリンクする必要があります。これを行うには、次のいずれかのオプションを使用します。 +First, you need to link each of your AWS accounts with your New Relic account. To do so, use either of these options: * **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**に移動し、 **AWS アカウントの追加**をクリックし、次に **メトリクス ストリームの使用 を**クリックして、手順に従います。 -* [このステップを NerdGraph で自動化します](/docs/apis/nerdgraph/examples/nerdgraph-cloud-integrations-api-tutorial/#link-aws-cloudwatch)。 +* [Automate this step with NerdGraph](/docs/apis/nerdgraph/examples/nerdgraph-cloud-integrations-api-tutorial/#link-aws-cloudwatch). -次に、UIの最後のステップで提供する[CloudFormationテンプレート](https://console.aws.amazon.com/cloudformation/home?#/stacks/quickcreate?templateURL=https://nr-downloads-main.s3.amazonaws.com/cloud_integrations/aws/cloudformation/MetricStreams_CloudFormation.yml&stackName=NewRelic-Metric-Stream¶m_NewRelicDatacenter=US)を使用してメトリックストリームを設定します。このテンプレートは、単一のリージョンで統合を設定するためのベースとして提供されています。要件に合わせてカスタマイズおよび拡張できます。 +Next, set up the metric stream using the [CloudFormation template](https://console.aws.amazon.com/cloudformation/home?#/stacks/quickcreate?templateURL=https://nr-downloads-main.s3.amazonaws.com/cloud_integrations/aws/cloudformation/MetricStreams_CloudFormation.yml&stackName=NewRelic-Metric-Stream¶m_NewRelicDatacenter=US) we provide in the last step of our UI. This template is provided as a base to set up the integration on a single region. You can customize and extend it to meet your requirements. -### CloudFormation テンプレートのパラメーター +### CloudFormation Template Parameters -この表は、CloudFormation テンプレートに必要なさまざまなパラメーターの概要を示しています。テンプレートは AWS アカウントに新しいリソースを作成するため、ここでは既存の AWS リソースの名前を提供しません。 +This table outlines the various parameters required for the CloudFormation template. Since the template will create new resources in your AWS account, we don't providing names of existing AWS resources here.
- **時間帯別に使用しています。** + **時間枠を覆うために使用...** - **データを保持するのは...** + **次の目的でデータを保持...**
- 生(5秒、10秒、15秒) + 生(5、10、15秒) @@ -621,7 +621,7 @@ New Relic のデータ保持を理解する最善の方法は、**データ保 - 8日 + 8日間
- 3日~14日 + 3~14日 @@ -685,50 +685,50 @@ New Relic のデータ保持を理解する最善の方法は、**データ保 -## データ保持の編集 [#adjust-retention] +## 編集データ保持期間 [#adjust-retention] -保持を表示および編集するに[は、データ管理ハブ](https://one.newrelic.com/data-management-hub)に移動し、\[**データ保持] をクリックして、\[データ保持**の**編集**] をクリックします。そこには、データ保持の編集または Data Plus へのアップグレードのオプションが表示されます。それが表示されない場合は[、要件](#requirements)を確認し、New Relic アカウント担当者に相談してください。 +保持期間を表示および編集するには、[データ管理ハブ](https://one.newrelic.com/data-management-hub)に移動し、**Data retention**、**Edit data retention**の順にクリックします。ここでは、データ保持期間を編集するか、Data Plusにアップグレードするためのオプションが表示されます。それが表示されない場合は、[要件](#requirements)を確認し、New Relicアカウント担当者にご相談ください。 -保持率を高めるためのオプション: +保持期間を延長するためのオプション: -* まだお持ちでない場合は、 [データ プラス](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/#data-plus)に切り替えてください。これにより、データ保持期間が大幅に長くなり、その他の利点が得られます。 -* データ プラスまたは元のデータ オプションの場合: データ保持を追加します。組織の 30 日間の追加データ保持には、1 か月に取り込まれた GB あたり 0.05 USD の費用がかかります。 +* まだ切り替えていない場合は、[Data Plus](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/#data-plus)に切り替えてください。これにより、データ保持期間が大幅に長くなり、その他のメリットが得られます。 +* Data Plusまたはオリジナルデータオプションの場合:データ保持期間を追加します。組織の30日間の追加データ保持期間の料金は、月あたり0.05ドル/GBです。 -リテンションの向上に関する重要なポイント: +保持期間を延長するための重要なポイント: * より長い保持期間を有効にすると、 [**Data retention**\[データ保持\] UI](#find-ui)にリストされているすべてのデータ タイプの保持が全体的に増加します。特定のデータ型だけを増やすことはできません。 -* より長い保持期間を有効にすると、特定のデータ ソースの保持期間を短縮しても請求には影響しません。データの取り込みと課金を削減する方法については、「[データの取り込みを管理する](/docs/data-apis/manage-data/manage-data-coming-new-relic)」を参照してください。 -* 保持期間を調整すると、有効になるまで最大 24 時間かかる場合があります。 +* より長い保持期間を有効にすると、特定のデータソースの保持期間を短縮しても、請求には影響しません。データの取り込みと請求を削減する方法については、[データ取り込みの管理](/docs/data-apis/manage-data/manage-data-coming-new-relic)を参照してください。 +* 保持期間を調整すると、それが有効になるまでに最大24時間かかる場合があります。 -### リテンションの削減 [#reduce-retention] +### 保持期間の短縮 [#reduce-retention] -データ ソースの保持期間を短縮しても、その種類の既存のデータはすぐには消えません。そのデータは、最大数週間表示され、クエリで返される場合があります。誤ってデータを削除しないようにするための保護手段が用意されていますが、これは、[データをすばやく削除する](#deleting-data)ために保持値を減らすことは適切な戦略ではないことも意味します。 +データソースの保持期間を短縮しても、その種類の既存のデータはすぐには消失しません。該当データは最大数週間表示され、クエリで返される可能性があります。データを誤って削除しないように安全策が講じられていますが、これは、[データを迅速に削除する](#deleting-data)ためには、保持期間の値を減らすことが良い戦略ではないことも示唆しています。 -データの取り込みを減らすためのオプションについては、「[データの取り込みを管理](/docs/data-apis/manage-data/manage-data-coming-new-relic)する 」を参照してください。 +データ取り込みを削減するためのオプションについては、[データ取り込みの管理](/docs/data-apis/manage-data/manage-data-coming-new-relic)を参照してください。 -## 既存のデータを削除する [#deleting-data] +## 既存データの削除 [#deleting-data] -[テレメトリ データ](/docs/using-new-relic/data/understand-data/new-relic-data-types)が New Relic データベースにレポートされ、クエリに使用できるようになると、そのデータを編集または削除することはできなくなります。これは、New Relic の速度とパフォーマンスを最適化する意図的な設計上の決定です。データの[保持期間](#adjust-retention)が終了すると、データは失効します。すでに報告されているデータを削除したい場合は、New Relic の担当者にお問い合わせください。 +[テレメトリーデータ](/docs/using-new-relic/data/understand-data/new-relic-data-types)がNew Relicデータベースに報告され、クエリに使用できるようになると、そのデータを編集または削除できなくなります。これは、New Relicの速度とパフォーマンスを最適化するための意図的な設計上の決定です。データは、[データ保持期間](#adjust-retention)が終了すると期限切れになります。すでに報告されているデータを削除したい場合は、New Relicの担当者にお問い合わせください。 ## データのエクスポートとストリーミング [#export-data] -Data Plus を使用している組織は、好みのツールを使用してデータをエクスポートし、長期保存することができます。これに関連する機能は次のとおりです。 +Data Plusを使用している組織は、好みのツールを使用してデータをエクスポートして長期保存できます。これに関連する機能には次のようなものがあります。 -* [ストリーミング データのエクスポート](/docs/apis/nerdgraph/examples/nerdgraph-streaming-export) +* [ストリーミングデータのエクスポート](/docs/apis/nerdgraph/examples/nerdgraph-streaming-export) * [履歴データのエクスポート](/docs/apis/nerdgraph/examples/nerdgraph-historical-data-export) -## APIによるリテンション管理 [#api-examples] +## API経由での保持期間の管理 [#api-examples] -UI で保持設定を変更するだけでなく、 [NerdGraph API](/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph)を使用できます。以下に、NerdGraph リクエストの例をいくつか示します。データ保持の変更が有効になるまでに最大 24 時間かかる場合があることに注意してください。 +UIでの保持設定の変更に加えて、[NerdGraph API](/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph)を使用することもできます。以下に、NerdGraphリクエストの例をいくつか紹介します。データ保持期間の変更が有効になるまでに最大24時間かかる場合があることに留意してください。 -API を使用して保持を調整する前に、保持[の調整に関するルールを](#adjust-retention)確認してください。 +APIを使用して保持期間を調整する前に、[保持期間の調整に関するルール](#adjust-retention)を確認してください。 - アカウントのカスタマイズ可能なリテンションイベント名スペースを一覧表示する。 + アカウントのカスタマイズ可能な保持期間イベントネームスペースをリストするには、次の手順を実行します。 ```graphql query { @@ -749,9 +749,9 @@ API を使用して保持を調整する前に、保持[の調整に関するル - アカウントのアクティブなルールを一覧表示するには + アカウントのアクティブなルールをリストするには: ```graphql query { @@ -776,9 +776,9 @@ API を使用して保持を調整する前に、保持[の調整に関するル - 特定のアカウント/ネームスペースのペアに対するアクティブなルールを表示するには、次のようにします。 + 特定のアカウント/ネームスペースのペアでアクティブなルールを表示するには: ```graphql query { @@ -803,9 +803,9 @@ API を使用して保持を調整する前に、保持[の調整に関するル - 新しいルールを作成するには + 新しいルールを作成するには: ```graphql mutation { @@ -824,9 +824,9 @@ API を使用して保持を調整する前に、保持[の調整に関するル - 子アカウントに適用されているルールを削除した場合、その子アカウントは、指定されたネームスペースに対して親アカウントの現在の保持値を採用します。親アカウントに適用されているルールを削除した場合、指定されたネームスペースにデフォルトの保持値が再適用されます。既存のルールを削除するには、以下の手順に従います。 + 子アカウントに適用されているルールを削除すると、その子アカウントは、指定されたネームスペースに対して親アカウントの現在の保持期間の値を採用します。親アカウントに適用されたルールを削除すると、デフォルトの保持期間の値が指定されたネームスペースに再適用されます。既存のルールを削除するには: ```graphql mutation { @@ -845,9 +845,9 @@ API を使用して保持を調整する前に、保持[の調整に関するル - テンプレートまたはソースアカウントとして子アカウントを指定し、他の宛先子アカウントにソース子アカウントの同じ名前空間保持値を採用させることができます。注意: すべての子アカウントは、同じ親アカウント内になければなりません。既存の保持のセットをコピーするには + 子アカウントをテンプレートまたはソースアカウントとして指定すると、他の宛先子アカウントにソース子アカウントと同じネームスペース保持期間の値を適用させることができます。注:すべての子アカウントは同じ親アカウント内に存在する必要があります。既存の保持期間セットをコピーするには: ```graphql mutation { @@ -861,14 +861,14 @@ API を使用して保持を調整する前に、保持[の調整に関するル } ``` - 成功と失敗は、ソースアカウントからのルールのコピーに成功(または失敗)したデスティネーションアカウントIDのリストを返します。 + 成功または失敗すると、ソースアカウントのルールのコピーに成功した(または失敗した)宛先アカウントIDのリストが返されます。 ## アカウントの継承 [#account-structure] -[親アカウント](/docs/accounts/original-accounts-billing/original-users-roles/mastersub-account-structure)のデータ保持設定は、子アカウントに継承されます。このコンテキストでは、New Relic 組織の最初のアカウントは親アカウントと見なされ、組織に追加された他のアカウントはそのアカウントの設定を継承します。 +[親アカウント](/docs/accounts/original-accounts-billing/original-users-roles/mastersub-account-structure)のデータ保持期間の設定は、その子アカウントに継承されます。このコンテキストでは、New Relic組織の最初のアカウントが親アカウントとみなされ、組織に追加された他のアカウントはそのアカウントの設定を継承します。 -## RSS-Atom +## RSS - Atom [RSSフィード](https://github.com/newrelic/docs-website/commits/develop/src/content/docs/data-apis/manage-data/manage-data-retention.mdx.atom)を購読します。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/data-apis/understand-data/event-data/events-reported-mobile-monitoring.mdx b/src/i18n/content/jp/docs/data-apis/understand-data/event-data/events-reported-mobile-monitoring.mdx index 47a76cc0a9e..e88fe4a3d5b 100644 --- a/src/i18n/content/jp/docs/data-apis/understand-data/event-data/events-reported-mobile-monitoring.mdx +++ b/src/i18n/content/jp/docs/data-apis/understand-data/event-data/events-reported-mobile-monitoring.mdx @@ -77,7 +77,7 @@ translationType: human * [iOSバージョン6.0.0](/docs/release-notes/mobile-release-notes/ios-release-notes/ios-agent-600)以上 - Androidバージョン5.14.0またはiOSバージョン5.14.0で起動するそれ以前のバージョンについては、機能を有効にする必要があります。最新の[Android](/docs/mobile-monitoring/new-relic-mobile-android/install-configure/upgrade-new-relic-mobiles-android-sdk)または[iOS](/docs/mobile-monitoring/new-relic-mobile-ios/installation/upgrade-new-relic-mobiles-ios-sdk)バージョンにアップグレード、または[Android](/docs/mobile-monitoring/new-relic-mobile-android/install-configure/android-agent-configuration-feature-flags)または[iOS](/docs/mobile-monitoring/new-relic-mobile-ios/install-configure/ios-agent-configuration-feature-flags#networkRequest)設定を使用して、`NetworkRequests`機能フラグを有効化します。 + Androidバージョン5.14.0またはiOSバージョン5.14.0で起動するそれ以前のバージョンについては、機能を有効にする必要があります。最新の[Android](/docs/mobile-monitoring/new-relic-mobile-android/install-configure/upgrade-android-agent)または[iOS](/docs/mobile-monitoring/new-relic-mobile-ios/installation/upgrade-ios-agent)バージョンにアップグレード、または[Android](/docs/mobile-monitoring/new-relic-mobile-android/install-configure/android-agent-configuration-feature-flags)または[iOS](/docs/mobile-monitoring/new-relic-mobile-ios/install-configure/ios-agent-configuration-feature-flags#networkRequest)設定を使用して、`NetworkRequests`機能フラグを有効化します。
- 間隔 + 期間 @@ -194,15 +194,15 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード id="browser-spans" title="ブラウザおよびモバイルトレースレポート" > - [ブラウザ監視分散トレース](/docs/browser/new-relic-browser/browser-pro-features/browser-data-distributed-tracing) および [モバイル監視](/docs/mobile-monitoring/new-relic-mobile-android/get-started/new-relic-mobile-and-dt) は、すべてのスパンを報告します。 + [ブラウザ監視のディストリビューティッド(分散)トレーシング](/docs/browser/new-relic-browser/browser-pro-features/browser-data-distributed-tracing)と[モバイル監視](/docs/mobile-monitoring/new-relic-mobile-android/get-started/new-relic-mobile-and-dt)は、すべてのスパンをレポートします。 - 私たちの言語エージェントは多くの場合、以下と組み合わせて使用されます。 そして \[ 言語エージェントは[サンプリングを使用します](#trace-origin-sampling)。これは、バックエンド スパンよりもブラウザーとモバイルのスパンがはるかに多くなる可能性が高く、その結果、ブラウザーとモバイル アプリのスパンがバックエンド スパンから切り離される可能性があることを意味します。フロントエンド スパンとバックエンド スパンを含むトレースのクエリに関するヒントについては、 [「ブラウザ スパン データの検索」](/docs/browser/new-relic-browser/browser-pro-features/browser-data-distributed-tracing#find-data)を参照してください。 + 当社の言語エージェントは、と組み合わせて使用されることが多く、言語エージェントは[サンプリングを使用します](#trace-origin-sampling)。つまり、バックエンドスパンよりブラウザスパンおよびモバイルスパンの方が多い可能性が高く、バックエンドスパンからブラウザスパンおよびモバイルアプリスパンの接続が切断される場合があります。フロントエンドスパンとバックエンドスパンを含むトレースのクエリに関するヒントについては、[ブラウザスパンデータの検索](/docs/browser/new-relic-browser/browser-pro-features/browser-data-distributed-tracing#find-data)を参照してください。 -### トレースリミット [#trace-limits] +### トレースの制限 [#trace-limits] -当社のデータ処理システムには、予期せぬデータの急増からインフラストラクチャを保護するための内部制限が設けられています。この保護層は、プラットフォームの整合性を維持するだけでなく、すべての顧客に対して信頼性の高い一貫したエクスペリエンスを保証します。これらの制限はさまざまな条件に基づいて必要に応じて調整されますが、将来を見据えたアプローチで設定されています。ユーザーベースとデータ摂取量が増加するにつれて、当社はインフラストラクチャの容量を拡大します。この取り組みにより、当社は送信されたすべての顧客データを確実に取得し、追跡データに対する明確で中断のないビューを提供できるようになります。 +当社のデータ処理システムには、予期せぬデータの急増からインフラストラクチャを保護するための内部制限が設けられています。この保護層は、プラットフォームの完全性を維持するだけでなく、すべての顧客に対して信頼性の高い一貫したエクスペリエンスを保証します。さまざまな条件に基づき必要に応じて、これらの制限は調整されますが、将来を見据えたアプローチで設定されています。ユーザーベースとデータ摂取量が増加するにつれて、当社はインフラストラクチャの容量を拡大します。この取り組みにより、送信されたすべての顧客データを確実に取得し、トレースデータに対して明確で中断のないビューを提供できます。 ## トレースデータの構成方法 [#trace-structure] @@ -230,13 +230,13 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード * **プロセスの境界**。プロセスはコードの論理部分の実行を表します。プロセスの例には、バックエンドサービスまたはLambda関数が含まれます。プロセス内のスパンは、以下のどれかに分類されます。 * **開始スパン**:プロセスの最初のスパン。 - * **出口スパン**:スパンがa)入口スパンの親である場合、またはb) `http.`または`db.`属性を持ち、したがって外部呼び出しを表す場合、スパンは出口スパンと見なされます。 + * **Exit span**:a)開始スパンの親である場合、またはb) `http.`または`db.`属性を有し、そのため外部呼び出しを表す場合は、終了スパンと見なされます * **インプロセススパン**:インターナルメソッド呼び出しまたは関数を表し、終了または開始スパンではないスパン。 * **クライアントスパン**。クライアントスパンは、別の[エンティティ](/docs/using-new-relic/welcome-new-relic/get-started/glossary#entity)または外部依存関係への呼び出しを表します。現在、以下の2つのクライアントスパンタイプがあります。 - * **データストア**。クライアント スパンに`db.`で始まる属性 ( `db.statement`など) がある場合、それはデータストア スパンとして分類されます。 - * **外部**。クライアント スパンに`http.`で始まる属性 ( `http.url`など) がある場合、または別のプロセスに子スパンがある場合、それは外部スパンとして分類されます。これは、データストア クエリではない外部呼び出しの一般的なカテゴリです。外部スパンに`http.url`または`net.peer.name`が含まれている場合、[外部サービス](/docs/apm/apm-ui-pages/monitoring/external-services/external-services-intro)ページでインデックス化されます。 + * **Datastore**。クライアントスパンに`db.`(例:`db.statement`)の属性プレフィックスがある場合ば、データストアスパンに分類されます + * **External**。クライアントスパンに`http.`(例:`http.url`)の属性プレフィックスがある、または別のプロセスに子スパンがある場合は、外部スパンに分類されます。これはデータストアクエリではない外部呼び出しに対する一般的な分類です。外部スパンに`http.url`または`net.peer.name`が含まれている場合、[外部サービス](/docs/apm/apm-ui-pages/monitoring/external-services/external-services-intro)ページでインデックスが作成されます * **トレース持続時間**。トレースの合計持続時間は、最初のスパンの開始から最後のスパンの終了までの時間の長さで決まります。 @@ -248,8 +248,8 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード トレースデータは、次のように保存します。 -* `Span`:[スパン](/docs/using-new-relic/welcome-new-relic/get-started/glossary/#span)は、分散トレースの一部である操作を表します。スパンが表すことができる操作には、[ブラウザー側のインタラクション](/docs/browser/new-relic-browser/browser-pro-features/browser-data-distributed-tracing)、データストアクエリ、他のサービスへの呼び出し、メソッドレベルのタイミング、 [Lambda関数](/docs/serverless-function-monitoring/aws-lambda-monitoring/get-started/introduction-new-relic-monitoring-aws-lambda)が含まれます。一例:HTTPサービスでは、スパンはHTTPリクエストの開始時に作成され、HTTPサーバーがレスポンスを返すときに完了します。スパン属性には、トレース関係の詳細(traceId、guidなど)を含む、その操作に関する重要な情報(期間、ホストデータなど)が含まれます。スパン関連のデータについては、[スパン属性](/attribute-dictionary/?event=Span)を参照してください。 -* `Transaction`:トレース内の[エンティティ](/docs/using-new-relic/welcome-new-relic/getting-started/glossary#alert-entity)がエージェントによって監視されている場合、そのエンティティへの要求は単一の`Transaction`イベントを生成します。トランザクションにより、トレースデータを他のNewRelic機能に関連付けることができます。トランザクション関連のデータについては、[トランザクション属性](/attribute-dictionary/?event=Transaction)を参照してください。 +* `Span`スパン:[スパン](/docs/using-new-relic/welcome-new-relic/get-started/glossary/#span)はディストリビューティッド(分散)トレーシングの一部であるオペレーションを表します。スパンが表すオペレーションには、[ブラウザ側のインタラクション](/docs/browser/new-relic-browser/browser-pro-features/browser-data-distributed-tracing)、データストアクエリ、他のサービスの呼び出し、メソッドレベルのタイミング、[Lambda関数](/docs/serverless-function-monitoring/aws-lambda-monitoring/get-started/introduction-new-relic-monitoring-aws-lambda)が含まれます。一例として、HTTPサービスでは、スパンはHTTPリクエストの初めに作成され、HTTPサーバーがレスポンスを返した時に完了します。スパンの属性には、トレースの関係の詳細(traceId、GUIDなど)を含め、オペレーションに関する重要な情報(持続時間、ホストデータなど)が含まれています。スパン関連のデータについては、[スパン属性](/attribute-dictionary/?event=Span)を参照してください +* `Transaction`:トレースの[エンティティ](/docs/using-new-relic/welcome-new-relic/getting-started/glossary#alert-entity)がエージェントによってモニターされる場合、そのエンティティへのリクエストが単一`Transaction`イベントを生成します。トランザクションでは他のNew Relic機能と結びついたトレースデータを利用できます。トランザクション関連データについては[トランザクション属性](/attribute-dictionary/?event=Transaction)を参照してください * コンテキスト連動メタデータ。トレースとそのスパン間の関係についての計算を表示するメタデータを保存します。[このデータのクエリを行う](/docs/apis/graphql-api/tutorials/query-distributed-trace-data-using-graphql-api)には、[NerdGraph GraphiQLエクスプローラー](https://api.newrelic.com/graphiql) を使用します。 ## アプリケーション間でトレースコンテキストを渡す方法 [#headers] @@ -288,7 +288,7 @@ Infinite Tracingでは、お使いのアプリケーションまたはサード - これは、トレースヘッダーを生成するアプリケーションのアプリケーションIDです。 `accountId`と同様に、この識別子は、アカウントのユーザーでない限り、情報を提供しません。 + これは、トレースヘッダーを生成するアプリケーションのアプリケーションIDです。`accountId`と同様に、この識別子はアカウントのユーザーでない限り、情報を提供しません。
- 分散トレースでは、トレース内の作業の各セグメントは`span`で表され、各スパンには[`guid`](/attribute-dictionary/?event=Span&attribute=guid)属性があります。プロセス内の最後のスパンの`guid`は送信要求とともに送信されるため、受信サービスの最初の作業セグメントは、トレース内のデータを接続する[`parentId`](/attribute-dictionary/?event=Span&attribute=parentId)属性としてこの`guid`を追加できます。 + ディストリビューティッド(分散)トレーシングでは、トレース内の各作業セグメントは`span`で表され、各スパンには[`guid`](/attribute-dictionary/?event=Span&attribute=guid)属性があります。プロセス内の最後のスパンの`guid`は、受信サービス内の作業の最初のセグメントがトレース内のデータを接続する[`parentId`](/attribute-dictionary/?event=Span&attribute=parentId)属性としてこの`guid`を追加できるように、送信リクエストとともに送信されます。
- モバイル、ブラウザ、Rubyアプリなどの場合の、トレースヘッダーのソース。これは、このヘッダーが添付されているリクエストによってトリガーされるトランザクションの[`parent.type`](/attribute-dictionary/?event=Transaction&attribute=parent.type)属性になります。 + モバイル、ブラウザ、Rubyアプリなどのトレースヘッダーのソース。これは、このヘッダーがアタッチされるリクエストによってトリガーされるトランザクションの[`parent.type`](/attribute-dictionary/?event=Transaction&attribute=parent.type)属性になります。
@@ -68,7 +68,7 @@ New Relic UIは現在、これらの個々のアイテムに対して`ReadOnlyAc @@ -76,333 +76,324 @@ New Relic UIは現在、これらの個々のアイテムに対して`ReadOnlyAc
- 制約 + Constraints
- New Relic インジェスト ライセンス キー + New Relic Ingest License Key - の メトリクスをエクスポートするアカウントに関連付けられています。 + The associated with the account you wish to export metrics to. - 40 文字の 16 進文字列 + 40-character hexadecimal string
- New Relic データセンター + New Relic Datacenter - メトリクスがエクスポートされる New Relic データセンターの識別。(EU データセンター アカウントには`eu0x`で始まるライセンス キーがあります) + Identification of the New Relic datacenter your metrics are exported to. (EU datacenter accounts have license keys prefixed with `eu0x`) - 許容値: `US` 、 `EU` + Allowed values: `US`, `EU`
- CloudWatch メトリクス ストリーム名 + CloudWatch Metric Stream name - 新しい CloudWatch メトリクス ストリームの名前 (同じ AWS リージョン内の AWS アカウントごとに一意である必要があります) + Name of new CloudWatch Metric Stream (must be unique per AWS account in the same AWS Region) - 文字 (大文字と小文字)、数字、文字「\_」、および「-」のみを含む必要があり、最大長は合計 255 文字です + Must only container letters (uppercase and lowercase), numbers, and characters '\_', and '-' with max length of 255 total characters
- Kinesis Data Firehose 名 + Kinesis Data Firehose name - 新しい Kinesis Firehose Delivery Stream の名前 (同じ AWS リージョン内の AWS アカウントごとに一意である必要があります) + Name of new Kinesis Firehose Delivery Stream (must be unique per AWS account in the same AWS Region) - 文字 (大文字と小文字)、数字、および文字「.」、「\_」、および「-」のみを含む必要があり、最大長は合計 64 文字です + Must only container letters (uppercase and lowercase), numbers, and characters '.', '\_', and '-' with max length of 64 total characters
- Firehose S3 バックアップ バケット名 + Firehose S3 backup bucket name - 失敗したイベントの新しい S3 バケット送信先の名前 (パーティション内のすべての AWS リージョンのすべての AWS アカウントでグローバルに一意である必要があります) + Name of new S3 Bucket Destination for failed events (must be globally unique across all AWS accounts in all AWS Regions within a partition) - [S3 バケットの命名規則に従う](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucketnamingrules.html)必要があります + Must adhere to the [S3 bucket naming rules](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucketnamingrules.html)
- AWS Config のリソース メタデータでメトリクスを強化する + Enrich metrics with resource metadata from AWS Config - リソースの変更を追跡するために AWS Config を有効にして設定します。これにより、New Relic エクスペリエンスを完全に監視できます。 + Enable and configure AWS Config to track resource changes. This allows you a complete monitoring New Relic experience. - 許容値: `true` 、 `false` + Allowed values: `true`, `false`
- S3 バックアップ バケット名の構成 + Config S3 backup bucket name - 配信チャネル設定用の新しい S3 バケット送信先の名前 (パーティション内のすべての AWS リージョンのすべての AWS アカウントでグローバルに一意である必要があります) + Name of new S3 Bucket Destination for delivery channel configuration (must be globally unique across all AWS accounts in all AWS Regions within a partition) - [S3 バケットの命名規則に従う](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucketnamingrules.html)必要があります + Must adhere to the [S3 bucket naming rules](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucketnamingrules.html)
- 提供された CloudFormation テンプレートには、CloudWatch メトリクス ストリームに包含または除外名前空間フィルターが含まれていません。ビジネス要件に基づいて基本テンプレートを調整することを検討してください。 + The provided CloudFormation template doesn't include any inclusion nor exclusion namespace filter in CloudWatch metric streams. Consider adapting the base template based on your business requirements. -## AWSコンソール、API、またはコールを使用した手動設定 [#manual-setup] +## Manual setup using AWS Console, API, or calls [#manual-setup] -1. **Create a Kinesis Data Firehose Delivery Stream** 、以下の宛先パラメータを設定します。 +1. **Create a Kinesis Data Firehose Delivery Stream** and configure the following destination parameters: -* ソースダイレクトPUTまたはその他のソース +* Source: Direct PUT or other sources -* データ変換。使用不可 +* Data transformation: Disabled -* 記録フォーマットの変換。無効 +* Record format conversion: Disabled -* 目的地New Relic +* Destination: New Relic -* 以下の設定が定義されていることを確認してください。 +* Ensure the following settings are defined: - * New Relicの設定(Destination Settings) + * New Relic configuration (Destination Settings) - * HTTPエンドポイントURL-米国のデータセンター: `https://aws-api.newrelic.com/cloudwatch-metrics/v1` + * HTTP endpoint URL - US Datacenter: `https://aws-api.newrelic.com/cloudwatch-metrics/v1` - * HTTPエンドポイントURL-EUデータセンター: `https://aws-api.eu01.nr-data.net/cloudwatch-metrics/v1` + * HTTP endpoint URL - EU Datacenter: `https://aws-api.eu01.nr-data.net/cloudwatch-metrics/v1` - * API キー: 入力してください + * API key: Enter your - * コンテンツエンコーディング: `GZIP` + * Content encoding: `GZIP` - * 再試行期間: `60` + * Retry duration: `60` - * S3バックアップモード。失敗したデータのみ + * S3 backup mode: Failed data only - * S3バケット:送信に失敗したメトリクスを保存するバケットを選択するか、新しいバケットを作成します。 + * S3 bucket: select a bucket or create a new one to store metrics that failed to be sent. - * New Relicのバッファ条件 + * New Relic buffer conditions - * バッファサイズ: `1 MB` - * バッファ間隔: `60 (seconds)` + * Buffer size: `1 MB` + * Buffer interval: `60 (seconds)` - * パーミッション IAMロール + * Permissions IAM role: - * IAMロールの作成または更新 + * Create or update IAM role -2. **メトリクス・ストリームの作成**. +2. **Create the metric stream**. -* AWSコンソールで**CloudWatchサービス**に移動し、\[**メトリクス**]メニューの\[**ストリーム**]オプションを選択します。 +* Go to **CloudWatch service** in your AWS console and select the **Streams** option under the **Metrics** menu. -* \[**メトリックストリームの作成]**をクリックします。 +* Click **Create metric stream**. -* ユースケースに応じて適切な構成を決定します。 +* Determine the right configuration based on your use cases: - * どのサービスがNew Relicにメトリクスをプッシュすべきかを選択するには、包含フィルターと除外フィルターを使用します。 - * Kinesis Data Firehoseを選択します。 - * ストリームに意味のある名前を定義します(たとえば、 `newrelic-metric-stream)` 。 + * Use inclusion and exclusion filters to select which services should push metrics to New Relic. + * Select your Kinesis Data Firehose. + * Define a meaningful name for the stream (for example, `newrelic-metric-stream)`. -* デフォルトの出力形式を`Open Telemetry 0.7`に変更します。(JSONはサポートされていません。) +* Change default output format to `Open Telemetry 0.7`. (JSON is not supported.) -* メトリクスストリームの作成を確認します。 +* Confirm the creation of the metric stream. - または、AWS ドキュメントで、CloudFormation テンプレート、API、または CLI を使用して CloudWatch メトリクス ストリームを作成する手順を見つけることができます。 + Alternatively, you can find instructions on the AWS documentation to create the CloudWatch metric stream using a CloudFormation template, API, or the CLI. 3. New Relic UI の**メトリック ストリーム** モードで **新しい AWS アカウントを追加します** 。**[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**に移動し、 **AWS アカウントの追加**をクリックし、次に **メトリクス ストリームの使用 を**クリックして、手順に従います。 -## データが正しく受信されているかどうかの確認 [#validate-data] +## Validate your data is received correctly [#validate-data] -メトリック ストリームからデータを受信していることを確認するには、次の手順に従います。 +To confirm you're receiving data from the Metric Streams, follow these steps: 1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**に移動し、 **ストリーム** アカウントを検索します。 2. 次の点をチェックします。 -* アカウント ステータス ダッシュボード。New Relic がメトリクス データ (エラー、取り込まれた名前空間/メトリクスの数など) を受信していることを確認するのに役立ちます。 -* データを探索します。メトリックとイベントを使用して、特定のメトリック セットを見つけたり、特定のメトリックで使用可能なすべてのディメンションにアクセスしたりします。 +* Account status dashboard. Useful to confirm that New Relic receives the metric data (errors, number of namespaces/metrics ingested, etc.) +* Explore your data. Use metrics and events to find a specific set of metrics, access all dimensions available for a given metric, and more. -新しいリソースが検出され、エンティティとして合成されるまで、数分かかる場合があります。詳細については、[クラウド統合システムの制限](/docs/data-apis/manage-data/view-system-limits)を参照してください。 +新しいリソースが検出され、エンティティとして合成されるまで、数分かかる場合があります。詳細については、クラウドインテグレーションの[システム制限](/docs/data-apis/manage-data/view-system-limits)を参照してください。 - AWS 請求などのグローバル サービスの AWS CloudWatch メトリクスは、 **us-east-1** リージョンでのみ利用できます。 そのリージョンで構成されたアクティブな CloudWatch メトリクス ストリームがあることを確認します。 + AWS CloudWatch metrics for global services, such AWS Billing, are only availble in the **us-east-1** region. Make sure there's an active CloudWatch metric stream configured in that region. -## クエリ、メトリックの保存、マッピング [#query-experience] +## Queries, metric storage, and mapping [#query-experience] -AWS CloudWatchからのメトリクスは、タイプ`summary`のディメンションメトリクスとして保存されます。[NRQL](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-new-relics-query-language/)を使用して[クエリ](/docs/telemetry-data-platform/get-data/apis/query-metric-data-type/)を実行できます。 +Metrics coming from AWS CloudWatch are stored as dimensional metrics of type `summary`. You can [query](/docs/telemetry-data-platform/get-data/apis/query-metric-data-type/) using [NRQL](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-new-relics-query-language/). -現在のクラウド統合からのメトリクスを、AWS Metric Streams から来る新しいマッピングにマッピングしました。現在のメトリクスの命名を引き続き使用できます。クエリは引き続き機能し、AWS Metric Streams と現在のクラウド統合からデータを選択します。 +We've mapped metrics from the current cloud integrations to the new mappings that will come from AWS Metric Streams. You can continue to use the current metric naming, and queries will continue to work and pick data from AWS Metric Streams, and the current cloud integrations. -[現在のクラウド統合のメトリクスと新しいメトリクスの名称](/docs/integrations/amazon-integrations/get-started/aws-integrations-metrics/) への対応については、ドキュメントをご確認ください。 +Check our documentation on how [current cloud integrations metrics map to the new metric naming](/docs/integrations/amazon-integrations/get-started/aws-integrations-metrics/). -メトリック ストリームからのすべてのメトリックには、次の属性があります。 +All metrics coming from the metric stream have these attributes: * `aws.MetricStreamArn` -* `collector.name = 'cloudwatch-metric-streams'`。 +* `collector.name = 'cloudwatch-metric-streams'`. -## エンティティ リスト内の AWS 名前空間のエンティティ [#aws-entities] +## AWS namespaces' entities in the entity list [#aws-entities] -多くの AWS 名前空間に対して New Relic [エンティティ](/docs/new-relic-one/use-new-relic-one/core-concepts/what-entity-new-relic) を生成します。名前空間の New Relic エンティティを生成すると、次のことが期待できます。 +We generate New Relic [entities](/docs/new-relic-one/use-new-relic-one/core-concepts/what-entity-new-relic) for many AWS namespaces. When we generate New Relic entities for a namespace you can expect to: -* [エンティティ エクスプローラー](/docs/new-relic-one/use-new-relic-one/ui-data/new-relic-one-entity-explorer)でこれらのエンティティを参照します。 -* それらのエンティティ用に自動的に作成されたエンティティダッシュボードにアクセスします。 -* AWSタグで装飾された名前空間からメトリックとエンティティを取得します。AWSタグを収集するには、UIのセットアッププロセスの一部である`tag:GetResources`権限をNewRelicに付与している必要があります。AWSタグは、メトリックに`tag.AWSTagName`として表示されます。たとえば、リソースに`Team` AWSタグを設定した場合、 `tag.Team`と表示されます。 -* エンティティ エクスプローラーに含まれるすべての機能を活用します。 +* Browse those entities in our [entity explorer](/docs/new-relic-one/use-new-relic-one/ui-data/new-relic-one-entity-explorer). +* Access an entity dashboard automatically created for those entities. +* Get metrics and entities from that namespace decorated with AWS tags. Collecting AWS tags requires that you have given New Relic the `tag:GetResources` permission, which is part of the setup process in the UI. AWS tags show in metrics as `tag.AWSTagName`; for example, if you have set a `Team` AWS tag on the resource, it will show as `tag.Team`. +* Leverage all the features included in the entity explorer. - [New Relic Lookout は、](/docs/new-relic-one/use-new-relic-one/core-concepts/new-relic-lookout-monitor-your-estate-glance) AWS Metric Streams 統合と互換性がありません。 + [New Relic Lookout](/docs/new-relic-one/use-new-relic-one/core-concepts/new-relic-lookout-monitor-your-estate-glance) is not compatible with the AWS Metric Streams integration. -## アラート条件の設定 [#set-alerts] +## Set alert conditions [#set-alerts] -メトリック・ストリームからのメトリクスに対してNRQLアラート条件を作成することができます。フィルタがデータをCloudWatchメトリック・ストリームからのメトリクスのみに制限することを確認してください。そのためには、以下のようにクエリを構成します。 +You can create NRQL alert conditions on metrics from a metric stream. Make sure your filter limits data to metrics from the CloudWatch metric stream only. To do that, construct your queries like this: ``` SELECT sum(aws.s3.5xxErrors) FROM Metric WHERE collector.name = 'cloudwatch-metric-streams' FACET aws.accountId, aws.s3.BucketName ``` -次に、それを確認するために、 データを正しく処理し、高度な信号設定を構成します。 AWS CloudWatch はサービスから一定の遅延を持ってメトリクスを受信するため、これらの設定が必要です。 (たとえば、Amazon は、EC2 メトリクスの 90% が生成されてから 7 分以内に CloudWatch で利用可能になることを保証しています。) さらに、AWS から New Relic へのメトリクスのストリーミングでは、主に Firehose でのデータのバッファリングが原因で、最大 1 分の追加遅延が発生します。 +Then, to make sure that processes the data correctly, configure the advanced signal settings. These settings are needed because AWS CloudWatch receives metrics from services with a certain delay. (For example, Amazon guarantees that 90% of EC2 metrics are available in CloudWatch within 7 minutes of them being generated.) Moreover, streaming metrics from AWS to New Relic adds up to 1 minute additional delay, mostly due to buffering data in the Firehose. -信号設定を行うには、 **Condition Settings** で、 **Advanced Signal Settings** をクリックし、以下の値を入力します。 +To configure the signal settings, under **Condition Settings**, click on **Advanced Signal Settings** and enter the following values: -1. **集計ウィンドウ**。1 分に設定することをお勧めします。アラートがフラッピングする、またはアラートがトリガーされないという問題がある場合は、2 分に延長することを検討してください。 -2. **によるオフセット評価**。サービスによっては、CloudWatchが一定の遅延でメトリクスを送信する場合があります。値はウィンドウで設定されます。 1分の集計ウィンドウで、オフセットを8に設定すると、メトリックの大部分が正しく評価されます。 AWSとFirehoseによって導入された遅延が少ない場合は、より低いオフセットを使用できる可能性があります。 -3. **データのギャップを。で埋めます**。これを無効のままにするか、AWSからのデータのギャップが誤検知または誤検知につながる場合は、最後の既知の値を使用します。 +1. **Aggregation window**. We recommend setting it to 1 minute. If you're having issues with flapping alerts or alerts not triggering, consider increasing it to 2 minutes. +2. **Offset evaluation by**. Depending on the service, CloudWatch may send metrics with a certain delay. The value is set in windows. With a 1-minute aggregation window, setting the offset to 8 ensures the majority of the metrics are evaluated correctly. You may be able to use a lower offset if the delay introduced by AWS and Firehose is less. +3. **Fill data gaps with**. Leave this void, or use Last known value if gaps in the data coming from AWS lead to false positives or negatives. -詳細については、NRQLアラートの作成方法に関するドキュメント [をご覧ください。](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-nrql-alert-conditions/) +See our documentation on [how to create NRQL alerts](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-nrql-alert-conditions/) for more details. -## [タグコレクション [#tags-collection]](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-nrql-alert-conditions/) +## Tags collection [#tags-collection] -[New Relic は、AWS CloudWatch メトリクス ストリームからのメトリクスから拡張ディメンションを提供します。リソース タグとカスタム タグは、ほとんどのサービスから自動的に取得され、追加のディメンションでメトリックを装飾するために使用されます。](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-nrql-alert-conditions/)[メトリクスとイベントを](/docs/query-your-data/explore-query-data/explore-data/introduction-data-explorer/)使用して、各 AWS メトリクスで使用できるタグを確認します。 +New Relic provides enhanced dimensions from metrics coming from AWS CloudWatch metric streams. Resource and custom tags are automatically pulled from most services and are used to decorate metrics with additional dimensions. Use [metrics and events](/docs/query-your-data/explore-query-data/explore-data/introduction-data-explorer/) to see which tags are available on each AWS metric. -次のクエリは、タグを収集し、メトリクスのディメンションとしてクエリを実行する例を示しています。 +The following query shows an example of tags being collected and queried as dimensions in metrics: ``` SELECT average(`aws.rds.CPUUtilization`) FROM Metric FACET `tags.mycustomtag` SINCE 30 MINUTES AGO TIMESERIES ``` -すべての指標にディメンションとしてカスタム タグがあるわけではありません。[エンティティ エクスプローラー](/docs/new-relic-one/use-new-relic-one/ui-data/new-relic-one-entity-explorer) にリストされているエンティティにリンクされているメトリクスのみに、カスタム タグが関連付けられています。AWS CloudWatch メトリクス ストリームには、ストリーム メッセージの一部としてタグが含まれません。したがって、New Relic 側で追加の処理が必要になります。 +Not all metrics have their custom tags as dimensions. Only metrics linked to entities listed in the [entity explorer](/docs/new-relic-one/use-new-relic-one/ui-data/new-relic-one-entity-explorer) have their custom tags associated. The AWS CloudWatch metric stream doesn't include tags as part of the stream message; hence, additional processing is required on the New Relic side. -## メタデータの収集 [#metadata-collection] +## Metadata collection [#metadata-collection] -カスタムタグと同様に、New Relic は関連する AWS サービスからメタデータ情報をプルして、AWS サービス API から収集された強化されたメタデータで AWS CloudWatch メトリクスを装飾します。このメタデータは、AWS CloudWatch によって提供されるメトリクスの追加のディメンションとして、New Relic でアクセスできます。 +Like with custom tags, New Relic also pulls metadata information from relevant AWS services in order to decorate AWS CloudWatch metrics with enriched metadata collected from AWS Services APIs. This metadata is accessible in New Relic as additional dimensions on the metrics provided by AWS CloudWatch. - このオプションの機能は、CloudWatch Metric Streams 統合を補完するものです。このオプション機能を有効にしないと、サービスの検出と監視が不完全になります。 + This optional capability is complementary to the CloudWatch Metric Streams integration. Your service discovery and monitoring will be incomplete if you don't enable this optional capability. -このソリューションは、 [AWS Config](https://docs.aws.amazon.com/config/index.html) に依存しており、お客様のAWSアカウントに追加コストが発生する可能性があります。 AWS Config は、どのサービスやリソースを記録するかを決定するために、 [粒度の高いコントロールを提供します。New Relic は、お客様の AWS アカウントで利用可能なリソースからのみメタデータを取り込みます。](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html) +The solution relies on [AWS Config](https://docs.aws.amazon.com/config/index.html), which might incur in additional costs in your AWS account. AWS Config provides [granular controls](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html) to determine which services and resources are recorded. New Relic will only ingest metadata from the available resources in your AWS account. -[次のサービスと名前空間がサポートされています。](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html) +The following services and namespaces are supported: -* * ALB/NLB +* ALB/NLB +* API Gateway (excluding API v1) +* DynamoDB +* EBS +* EC2 +* ECS +* ELB +* Lambda +* RDS +* S3 - * APIゲートウェイ(API v1を除く) +### Infrastructure agent metrics and EC2 metadata decoration [#infra-data-decoration] - * DynamoDB +As with the EC2 API polling integration, when the infrastructure agent is installed on a host and the EC2 namespace is active via AWS CloudWatch metric stream integration, then all the infrastructure agent events and metrics are decorated with additional metadata. - * EBS +The following attributes will decorate infrastructure samples. Some of these may not be applicable on all environments: `awsAvailabilityZone`, `ec2InstanceId`, `ec2PublicDnsName`, `ec2State`, `ec2EbsOptimized`, `ec2PublicIpAddress`, `ec2PrivateIpAddress`, `ec2VpcId`, `ec2AmiId`, `ec2PrivateDnsName`, `ec2KeyName`, `ec2SubnetId`, `ec2InstanceType`, `ec2Hypervisor`, `ec2Architecture`, `ec2RootDeviceType`, `ec2RootDeviceName`, `ec2VirtualizationType`, `ec2PlacementGroupName`, `ec2PlacementGroupTenancy`. - * EC2 +## Custom metrics and percentiles [#custom-metrics-percentiles] - * ECS +The CloudWatch metric stream integration automatically ingests new metrics configured in the stream, including custom metrics and percentiles. - * ELB +### カスタムメトリクス [#custom-metrics] - * ラムダ +To ingest CloudWatch custom metrics, make sure your custom namespace is visible in the CloudWatch metric stream configuration and it's not being filtered by inclusion or exclusion rules. - * RDS +### Percentiles [#percentiles] - * S3 +AWS CloudWatch allows you to [define additional statistics](https://aws.amazon.com/about-aws/whats-new/2022/04/amazon-cloudwatch-metric-streams-additional-statistics/), including percentiles. -### [インフラストラクチャエージェントのメトリクスとEC2メタデータの装飾 [#infra-data-decoration]](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html) +Follow these steps to add percentiles to any metric available in the CloudWatch stream: -[EC2 APIポーリング統合と同様に、インフラストラクチャエージェントがホストにインストールされ、AWS CloudWatchメトリックストリーム統合によってEC2ネームスペースがアクティブになると、インフラストラクチャエージェントのすべてのイベントとメトリックが追加のメタデータで装飾されます。](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html) +1. On AWS, update the CloudWatch stream configuration (via API, CLI, or AWS Console) with the required percentiles in the `StatisticConfiguration` setting. For example, you can add p90, p95, and p99 percentiles to the `ELB latency metric (aws.elb.Latency)`. -[次の属性は、インフラストラクチャサンプルを装飾します。これらの一部は、すべての環境に適用できるとは限りません: `awsAvailabilityZone` 、 `ec2InstanceId` 、 `ec2PublicDnsName` 、 `ec2State` 、 `ec2EbsOptimized` 、 `ec2PublicIpAddress` 、 `ec2PrivateIpAddress` 、 `ec2VpcId` 、 `ec2AmiId` 、 `ec2PrivateDnsName` 、 `ec2KeyName` 、 `ec2SubnetId` 、 `ec2InstanceType` 、 `ec2Hypervisor` 、 `ec2Architecture` 、 `ec2RootDeviceType` 、 `ec2RootDeviceName` 、 `ec2VirtualizationType` 、 `ec2PlacementGroupName` 、 `ec2PlacementGroupTenancy` 。](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html) - -## [カスタムメトリックとパーセンタイル [#custom-metrics-percentiles]](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html) - -[CloudWatchメトリクスストリーム統合は、カスタムメトリクスやパーセンタイルなど、ストリームに設定された新しいメトリクスを自動的に取り込みます。](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html) - -### [カスタムメトリック [#custom-metrics]](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html) - -[CloudWatchカスタムメトリクスを取り込むには、カスタムネームスペースがCloudWatchメトリクスストリームコンフィギュレーションに表示され、包含ルールまたは除外ルールによってフィルタリングされていないことを確認してください。](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html) - -### [パーセンタイル [#percentiles]](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html) - -[AWS CloudWatchを使用すると、パーセンタイルなどの](https://docs.aws.amazon.com/config/latest/developerguide/select-resources.html)[追加の統計を定義](https://aws.amazon.com/about-aws/whats-new/2022/04/amazon-cloudwatch-metric-streams-additional-statistics/)できます。 - -次の手順に従って、CloudWatchストリームで利用可能なすべてのメトリクスにパーセンタイルを追加します。 - -1. AWSで、CloudWatchストリーム設定を(API、CLI、またはAWSコンソールを介して) `StatisticConfiguration`設定で必要なパーセンタイルで更新します。たとえば、p90、p95、およびp99パーセンタイルを`ELB latency metric (aws.elb.Latency)`に追加できます。 - -2. 数分後、新しい統計がストリームで利用可能になり、NewRelicによって取り込まれるはずです。パーセンタイルは、次の命名規則を使用して照会できます。 +2. After a few minutes, the new statistic should be made available in the stream and ingested by New Relic. Percentiles can be queried using this naming convention: ```sql From Metric select max(aws.elb.Latency.p99) where collector.name = 'cloudwatch-metric-streams' timeseries ``` -AWSは、パーセンタイルを超えるストリーム内の他の統計をサポートしていますが、それらはOpen Telemetryエクスポート形式(JSONのみ)では利用できず、現在NewRelicではサポートされていません。 +Although AWS supports other statistics in the stream beyond percentiles, those aren't made available in the Open Telemetry export format (only JSON) and are currently not supported by New Relic. -価格設定、制限、および事前設定の詳細については、 [AWSのドキュメント](https://aws.amazon.com/about-aws/whats-new/2022/04/amazon-cloudwatch-metric-streams-additional-statistics/)をご覧ください。 +Learn more about pricing, limitations, and advance configurations from the [AWS documentation](https://aws.amazon.com/about-aws/whats-new/2022/04/amazon-cloudwatch-metric-streams-additional-statistics/). ## データの管理 [#manage-data] -New Relic UIは、アカウントに取り込まれているデータを追跡するための[一連のツール](/docs/telemetry-data-platform/ingest-manage-data/manage-data/manage-your-data/)を提供します。すべての詳細を表示するには、設定メニューの**\[データの管理]に移動します**。AWS Metric Streams統合から取り込まれたメトリクスは、**メトリクス**バケットで考慮されます。 +The New Relic UI provides a [set of tools](/docs/telemetry-data-platform/ingest-manage-data/manage-data/manage-your-data/) to keep track of the data being ingested in your account. Go to **Manage your data** in the settings menu to see all details. Metrics ingested from AWS Metric Streams integrations are considered in the **Metric** bucket. -データをより詳細に表示する必要がある場合は、 `Metric` で [`bytecountestimate()` 関数](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts/#byte-count-estimate) を使用して、取り込まれるデータを推定します。たとえば、次のクエリは、過去 30 日間に AWS Metric Streams 統合を介して処理されたすべてのメトリクスから取り込まれたデータを表します (バイト単位)。 +If you need a more granular view of the data, use the [`bytecountestimate()` function](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts/#byte-count-estimate) on `Metric` to estimate the data being ingested. For example, the following query represents data ingested from all metrics processed via AWS Metric Streams integration in the last 30 days (in bytes): ``` FROM Metric SELECT bytecountestimate()/10e8 as 'GB Estimate' WHERE collector.name='cloudwatch-metric-streams' SINCE 30 day ago ``` -AWSサービス/ネームスペースによって取り込まれたデータを表示するには: +To see data ingested by AWS service/namespace: ``` FROM Metric SELECT bytecountestimate()/10e8 as 'GB Estimate' WHERE collector.name='cloudwatch-metric-streams' FACET aws.Namespace ``` -AWSサービス/ネームスペースによって処理された生のメトリックスアップデートの数を確認するには: +To see number of raw metric updates processed by AWS service/namespace: ``` FROM Metric SELECT dataPointCount() WHERE collector.name='cloudwatch-metric-streams' FACET aws.Namespace ``` -インジェストされるデータをコントロールするために、次のような対応をお勧めします。 +We recommend the following actions to control the data being ingested: -* New Relicで監視したいAWSアカウントとリージョンでのみメトリックストリームが有効になっていることを確認します。 -* New Relicによって監視されているサービスまたはネームスペースを選択するには、CloudWatchMetricStreams**の包含フィルターと除外フィルターを使用**します。 -* [ドロップデータルール](/docs/telemetry-data-platform/manage-data/drop-data-using-nerdgraph/)を使用して、カスタムフィルターに基づくメトリックを破棄することを検討してください。(たとえば、名前空間とタグ、タグ値、またはその他の有効なNRQL基準ごとにメトリックを削除します。) +* Make sure metric streams are enabled only on the AWS accounts and regions you want to monitor with New Relic. +* **Use the inclusion and exclusion filters** in the CloudWatch Metric Streams in order to select which services or namespaces are being monitored by New Relic. +* Consider using [drop data rules](/docs/telemetry-data-platform/manage-data/drop-data-using-nerdgraph/) to discard metrics based on custom filters. (For example, drop metrics by namespace and tag, tag value, or any other valid NRQL criteria.) - AWS Metric Streams を介して送信されたメトリクスは、データが取り込まれる New Relic アカウントの Metric API 制限にカウントされます。 + Metrics sent via AWS Metric Streams count against your Metric API limits for the New Relic account where data will be ingested. \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/amazon-integrations/connect/aws-metric-stream.mdx b/src/i18n/content/jp/docs/infrastructure/amazon-integrations/connect/aws-metric-stream.mdx index 56853ccd0ad..57ddb705a43 100644 --- a/src/i18n/content/jp/docs/infrastructure/amazon-integrations/connect/aws-metric-stream.mdx +++ b/src/i18n/content/jp/docs/infrastructure/amazon-integrations/connect/aws-metric-stream.mdx @@ -1,21 +1,21 @@ --- -title: Amazon CloudWatch Metric Streamsの統合の紹介 +title: Amazon CloudWatch Metric Streamsのインテグレーションの概要 tags: - Integrations - Amazon integrations - AWS integrations list metaDescription: Use AWS CloudWatch Metric Streams integration to monitor all CloudWatch metrics from all AWS services. freshnessValidatedDate: never -translationType: machine +translationType: human --- -AWS CloudWatch Metric Streams の統合は、カスタム名前空間を含むすべての AWS サービスからのすべての CloudWatch メトリクスを監視するための主要な推奨ソリューションです。 +当社のAWS Cloudwatch Metric Streamsのインテグレーションは、すべてのAWSサービス(カスタムネームスペースを含む)からのすべてのCloudWatchメトリクスを監視するための推奨ソリューションです。 -**[New Relic で AWS Metric Stream モニタリングを設定する](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup)**方法を学びます。 +**[New RelicでAWSメトリクスストリーム監視を設定する](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup)**方法を学びます。 -## なぜそれが重要なのか? [#why-it-matters] +## これが重要な理由 [#why-it-matters] -CloudWatch Metric Streams が登場する前は、AWS モニタリング パートナーにとっての唯一のソリューションは、ポーリング フリートをデプロイし、複数の AWS API を定期的に呼び出してメトリクスとメタデータを取得することでした。次の表は、両方のソリューションの違いを示しています。 +CloudWatchメトリクスストリームが登場する前は、AWS監視パートナーにとっての唯一のソリューションは、ポーリングフリートをデプロイし、複数のAWS APIを定期的に呼び出してメトリクスとメタデータを取得することでした。次の表は、両方のソリューションの違いを示しています。 @@ -33,111 +33,111 @@ CloudWatch Metric Streams が登場する前は、AWS モニタリング パー
- メトリクスを収集するためには、各AWSサービスとの連携が必要となります。 + メトリクスを収集するには、各AWSサービスとの統合が必要です。 - **すべてのAWSサービスとカスタム名前空間からのすべてのCloudWatchメトリクスは、特定の統合の構築や更新を必要とせずに、New Relicで一度に** 。 + **すべてのAWSサービスのすべてのCloudWatchメトリクスとカスタムネームスペース**は、特定のインテグレーションを構築または更新する必要がなく、New Relicで一度に利用できます。 - 例外が 1 つあります。メトリクスが AWS CloudWatch で利用可能になり、2 時間以上の遅延がある場合、これらのメトリクスはストリームに含まれません。 + 例外が1つあります。メトリクスがAmazon CloudWatchで利用可能になるまでに2時間以上の遅延がある場合、これらのメトリクスはストリームに含まれません。
- これにより、New Relic でアラートとダッシュボードに使用できるメトリクスに遅延が追加されます。最速のポーリング間隔は 5 分です。 + これにより、New Relicでアラートとダッシュボードに使用できるメトリクスに追加の遅延が追加されます。最速のポーリング間隔は5分です。 - メトリクスは AWS CloudWatch で利用できるため、2 分未満でストリーミングされるため、レイテンシーが大幅に改善されます。 + メトリクスはAWS CloudWatchで利用でき、2分未満でストリーミングされるため、レイテンシが大幅に改善しました。
- 大規模なAWS環境では、AWS APIのスロットリングが発生する可能性があります。 + 大規模なAWS環境では、AWS APIのスロットルが発生する可能性があります。 - AWSのAPIスロットルが廃止されました。 + AWS APIのスロットルが排除されます。
-Amazon CloudWatch Metric Streamsの統合を試してみたいですか? [New Relic](https://newrelic.com/signup) にサインアップすれば、永久に無料です。 +Amazon CloudWatchメトリクスストリームのインテグレーションを試してみませんか?[New Relicアカウントにご登録ください](https://newrelic.com/signup)、永久無料です! -## コスト面での配慮 [#cost-considerations] +## コストに関する考慮事項 [#cost-considerations] -AWS CloudWatch メトリックストリームと New Relic の統合のコストを評価する際には、以下の点を考慮してください。 +AWS Cloudwatch Metric StreamsとNew Relicのインテグレーションのコストを評価する際は、次の点を考慮してください。 * [AWS CloudWatchのメトリックの更新](https://aws.amazon.com/cloudwatch/pricing/)。 -* [AWS Kinesis Firehose ingest](https://aws.amazon.com/kinesis/data-firehose/pricing/). -* [AWS Kinesis Firehoseのデータ転送](https://aws.amazon.com/kinesis/data-firehose/pricing/). -* オプション:選択したAWS名前空間のリソースメタデータでメトリクスを強化するために使用される[AWSConfigサービス](https://aws.amazon.com/config/pricing/)。 +* [AWS Kinesis Firehoseの取り込み](https://aws.amazon.com/kinesis/data-firehose/pricing/) +* [AWS Kinesis Firehoseのデータ転送](https://aws.amazon.com/kinesis/data-firehose/pricing/) +* オプション:[AWS Configサービス](https://aws.amazon.com/config/pricing/)は、選択したAWSネームスペースのリソースメタデータでメトリクスを強化するために使用します。 - AWS サービスを検出、識別、監視するには、AWS Config Service にアクセスする必要があります。このアクセス権がなければ、システムを監視したり表現したりすることはできません。 + AWSサービスを検出、識別、監視するには、AWS Configサービスにアクセスする必要があります。このアクセス権がなければ、システムを監視したり表現したりすることはできません。 -AWS や New Relic のフィルターなど、 [データ管理](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup#manage-data)に利用できるメカニズムについて学びます。該当する場合は、必ず実稼働前環境で初期統合を完了し、限られた数の AWS リソースとサービスに基づいてソリューションの総コストを評価してください。 +AWSやNew Relicのフィルターなど、[データ管理](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream-setup#manage-data)に利用できるメカニズムについて学びます。該当する場合は、必ず本番前環境で初期インテグレーションを完了し、限られた数のAWSリソースとサービスに基づいてソリューションの総コストを評価してください。 -## AWS APIポーリング統合からの移行 [#migrating-from-poll-integrations] +## AWS APIポーリングインテグレーションからの移行 [#migrating-from-poll-integrations] -現在、古いポーリングベースの AWS 統合を使用している New Relic のお客様には、新しく改善された統合への移行に関するガイダンスを提供します。 +現在、古いポーリングベースのAWSインテグレーションをご利用のNew Relicのお客様には、新しく改善されたインテグレーションへの移行に関するガイダンスを提供しています。 -両方の形式の統合を設定している場合は、メトリクスが重複する可能性があることに注意してください。例えば、 `sum`または`count`を使用するダッシュボードは、実際の数値の 2 倍を返します。 これには、 `.Sum`接尾辞を持つメトリクスを使用するアラートとダッシュボードが含まれます。 +両方の形式のインテグレーションを設定している場合は、メトリクスが重複する可能性があります。たとえば、`sum`または`count`を使用するとダッシュボードは、実際の数値の2倍を返します。これには、`.Sum`サフィックスを持つメトリクスを使用するアラートとダッシュボードが含まれます。 -安全にテストを実行できる非本番環境の New Relic アカウントにデータを送信することをお勧めします。それができない場合は、AWS CloudWatch Metric Stream フィルターを使用して、問題を引き起こす可能性のある特定の名前空間を含めたり除外したりすることができます。 +安全にテストを実行できる本番環境以外のNew Relicアカウントにデータを送信することをお勧めします。それができない場合は、Amazon CloudWatch Metric Streamsフィルターを使用して、問題を引き起こす可能性のある特定のネームスペースを含めたり除外したりできます。 -または、クエリのフィルタリングを使用して、メトリックストリームからのメトリックとポーリングからのメトリックを区別することもできます。メトリックストリームからのすべてのメトリックは、 `collector.name='cloudwatch-metric-streams'`でタグ付けされています。 +あるいは、クエリのフィルタリングを使用すると、メトリクスストリームからのメトリクスとポーリングからのメトリクスを区別することもできます。メトリクスストリームからのすべてのメトリクスには、`collector.name='cloudwatch-metric-streams'`のタグが付けられます。 -### メトリック ストリームへの移行 [#migration-steps] +### メトリクスストリームへの移行 [#migration-steps] -既存のお客様には、まず開発環境またはステージング環境で API ポーリングから Metric Streams に移行することをお勧めします。一般的なデプロイでは、次の手順に従って AWS Cloudwatch Metric Streams に移行します。 +既存のお客様には、まず開発環境またはステージング環境でAPIポーリングからメトリクスストリームに移行することをお勧めします。一般的なデプロイメントの場合は、次の手順に従ってAmazon CloudWatch Metric Streamsに移行します。 1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**に移動して、ポーリングからメトリクス ストリームに名前空間をレプリケートします。**Migrate to AWS Cloudwatch metric streams** \[AWS Cloudwatch メトリクス ストリームに移行] ボタンをクリックし、AWS Metric Streams アカウントを設定します。 -2. カスタマイズされた CloudFormation テンプレートをダウンロードします。このテンプレートには、既存のポーリング構成に基づく事前構成された名前空間が含まれています。 +2. カスタマイズされたCloudFormationテンプレートをダウンロードします。このテンプレートには、既存のポーリング設定に基づいて事前設定されたネームスペースが含まれています。 3. アカウントの詳細を追加します。 -CloudFormation テンプレートを使用したくない場合は、次の代替オプションがあります。 +CloudFormationテンプレートを使用しない場合は、次の代替オプションがあります。 1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Infrastructure > AWS**に移動します。 **Add an AWS account** \[AWS アカウントを追加] をクリックし、AWS アカウントを追加します。このステップは、AWS アカウントをポーリング統合にすでにリンクしている場合でも必要です。 -2. 最後のオンボーディングステップで、AWS CloudWatch Metric Stream と AWS Kinesis Data Firehose が有効になっていることを確認してください。これにより、メトリクスが New Relic にプッシュされます。AWS CloudWatch ではリージョンごとに 1 つのストリームが必要なので、監視する追加の AWS リージョンについてこの手順を繰り返します。 -3. 接続されているすべてのリージョンとネームスペースからメトリクスが受信されていることを確認します。これには数分かかる場合があります。 -4. 以前の AWS プロバイダー アカウントで不要なポーリング統合をすべて無効にします。 [一部の統合は Metric Streams に完全に置き換えられていないため、引き続き有効にする必要があること](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream#integrations-not-replaced-streams) に注意してください。 +2. 最後のオンボーディング手順で、Amazon CloudWatch Metric StreamsとAWS Kinesis Data Firehoseが有効になっていることを確認してください。これにより、メトリクスがNew Relicにプッシュされます。AWS CloudWatchではリージョンごとに1つのストリームが必要なため、監視対象の追加のAWSリージョンについてこの手順を繰り返します。 +3. 接続されているすべてのリージョンとネームスペースからメトリクスが受信されていることを確認します。多少時間がかかります。 +4. 前のAWSプロバイダーアカウントで不要なポーリングインテグレーションをすべて無効にします。[一部のインテグレーションはメトリクスストリームに完全に置き換えられていないため、引き続き有効にする必要があること](/docs/infrastructure/amazon-integrations/connect/aws-metric-stream#integrations-not-replaced-streams)に注意してください。 -### クエリ、ダッシュボード、アラートに関する考察 [#considerations] +### クエリ、ダッシュボード、アラートに関する考慮事項 [#considerations] -AWS Metric Streams 統合では、Metric API を使用して、メトリクスを [ディメンション メトリクス](/docs/data-apis/understand-data/new-relic-data-types/#dimensional-metrics) 形式でプッシュします。 +当社のAWSメトリクスストリームのインテグレーションは、メトリクスAPIを使用して、メトリクスを[ディメンションメトリクス](/docs/data-apis/understand-data/new-relic-data-types/#dimensional-metrics)形式でプッシュします。 -ポーリングベースの AWS 統合は、 [イベント](/docs/data-apis/understand-data/new-relic-data-types/#events-new-relic) ( `ComputeSample` イベントなど) に基づいてメトリクスをプッシュし、将来的には次元メトリクスに移行される予定です。 +ポーリングベースのAWSインテグレーションは、[イベント](/docs/data-apis/understand-data/new-relic-data-types/#events-new-relic)(`ComputeSample`イベントなど)に基づいてメトリクスをプッシュしますが、将来的にはディメンションメトリクスに移行される予定です。 -この移行を支援するために、私たちは、透過的に任意のフォーマットでクエリーを書くことができるメカニズム(シミングと呼ばれる)を提供しています。そして、これらのクエリは、利用可能なソース(メトリクスまたはイベント)に基づいて期待通りに処理される。このメカニズムは、イベントからメトリクスへ、あるいはその逆と、両方向に機能する。 +この移行を支援するために、任意の形式でクエリを透過的に作成できるメカニズム(シミングと呼ばれる)が用意されています。その後、これらのクエリは、利用可能なソース(メトリクスやイベント)に基づいて期待どおりに処理されます。このメカニズムは、イベントからメトリクスへ、またはその逆の双方向で機能します。 - お客様が AWS CloudWatch Metric Stream 統合 (次元メトリック形式) でイベントベースのクエリ (サンプル) を使用できるようにするクエリ メカニズムの [制限](/docs/query-your-data/nrql-new-relic-query-language/nrql-query-tutorials/query-infrastructure-dimensional-metrics-nrql/#known-limitations) について詳しく説明します。 + 顧客がAmazon CloudWatch Metric Streamsのインテグレーション(ディメンションメトリクス形式)でイベントベースのクエリ(サンプル)を使用できるようにする、クエリメカニズムの[制限](/docs/query-your-data/nrql-new-relic-query-language/nrql-query-tutorials/query-infrastructure-dimensional-metrics-nrql/#known-limitations)について詳しく説明します。 -投票ベースの統合から移行する場合は、次の点を考慮してください。 +ポーリングベースのインテグレーションから移行する場合は、次の点を考慮してください。 -* **ダッシュボード**: カスタム +* **Dashboards**:カスタム - ポーリングベースの AWS 統合イベントを使用するものは、引き続き期待どおりに機能します。 + ポーリングベースのAWSインテグレーションイベントを使用するイベントは、引き続き期待どおりに機能します。 -* **アラート**: ポーリングベースのAWSイベントを使用したアラート条件は引き続き機能します。これらをディメンション・メトリック形式(NRQLをソースとして使用)に適応させることをお勧めします。 +* **Alerts**:ポーリングベースのAWSイベントを使用するアラート条件は引き続き機能します。これらをディメンションメトリクス形式(NRQLをソースとして使用)に適合させることをお勧めします。 * **Entities**\[エンティティ]: 監視対象エンティティのリストには、重複したエンティティが最大 24 時間表示される場合があります。 * **Attributes** \[属性]: ポーリングベースの AWS 統合では、収集されたリソース タグに `label.`プレフィックスが付けられますが、AWS CloudWatch Metric Streams 統合では、収集されたリソース タグに `tags.`というプレフィックスが付けられます。同じ AWS アカウントに対して両方の統合が有効になっている場合、イベント形式を使用するとリソース タグが両方のプレフィックスの下に表示されます。 -## メトリクスストリームに置き換わらない統合機能 [#integrations-not-replaced-streams] +## インテグレーションはメトリクスストリームに完全には置き換えられていない [#integrations-not-replaced-streams] -AWS CloudWatch Metric Streamsの統合は、CloudWatchメトリクスに重点を置いています。その結果、AWSサービスから完全な可視性を得るには、以下の統合を構成して有効にする必要があります。 +Amazon CloudWatch Metric Streamsのインテグレーションは、CloudWatchメトリクスに焦点を当てています。その結果、AWSサービスから完全な可視性を得るには、次のインテグレーションを設定して有効にする必要があります。 -サービスAPIに基づくポーリング統合: +サービスAPIに基づくポーリングインテグレーション: * AWS Billing * AWS CloudTrail @@ -145,13 +145,13 @@ AWS CloudWatch Metric Streamsの統合は、CloudWatchメトリクスに重点 * AWS Trusted Advisor * AWS X-Ray -CloudWatch Logsに基づく統合、 [Lambda経由でNew Relicに転送](/docs/logs/forward-logs/aws-lambda-sending-cloudwatch-logs): +CloudWatchログに基づくインテグレーション、[Lambda経由でNew Relicに転送](/docs/logs/forward-logs/aws-lambda-sending-cloudwatch-logs): -* AWSRDS拡張 +* AWS RDS拡張 * AWS VPC フローログ -## CloudWatchメトリクスストリームでは利用できないメトリクス +## CloudWatch Metric Streamsでは使用できないメトリクス -メトリクスが 2 時間以上の遅延で AWS CloudWatch メトリクス ストリームに利用できる場合、これらのメトリクスはストリームに含まれません。 +メトリクスがAmazon CloudWatch Metric Streamsで利用可能になるまでに2時間以上の遅延がある場合、これらのメトリクスはストリームに含まれません。 -2 時間後に集計および公開されるメトリクスを含む可能性がある AWS 名前空間の例には、AWS DMS、AWS RDS、AWS DocDB、AWS S3、および AWS DAX が含まれます。詳細については、 [AWS のドキュメント](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-metric-streams-setup.html)を参照してください。 \ No newline at end of file +2時間後に集約されて公開されるメトリクスが含まれる可能性のあるAWSネームスペースの例には、AWS DMS、AWS RDS、AWS DocDB、AWS S3、AWS DAXなどがあります。詳細については、[AWSのドキュメント](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-metric-streams-setup.html)を参照してください。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/elastic-container-service-integration/install-ecs-integration.mdx b/src/i18n/content/jp/docs/infrastructure/elastic-container-service-integration/install-ecs-integration.mdx index 7d74a2eb487..9c01996e3ba 100644 --- a/src/i18n/content/jp/docs/infrastructure/elastic-container-service-integration/install-ecs-integration.mdx +++ b/src/i18n/content/jp/docs/infrastructure/elastic-container-service-integration/install-ecs-integration.mdx @@ -6,110 +6,110 @@ tags: - Installation metaDescription: How to install New Relic's Amazon ECS integration. freshnessValidatedDate: never -translationType: machine +translationType: human --- -New Relic の ECS 統合は、Amazon ECS 環境からのパフォーマンス データをレポートおよび表示します。 +New RelicのECSインテグレーションは、Amazon ECS環境からのパフォーマンスデータをレポートおよび表示します。 ## インストールの概要 [#overview] -を [インストールする](#install-options)前に、次の 2 つの起動タイプに対してインフラストラクチャ エージェント (`newrelic-infra`) がどのようにデプロイされるかを概要を理解するのに役立ちます。 +[インストールする](#install-options)前に、次の2つの起動タイプに対してinfrastructureエージェント(`newrelic-infra`)がどのようにデプロイされるかの概要を理解しておくとよいでしょう。 -* **EC2 および外部 (ECS Anywhere) 起動タイプ:** エージェントは、デーモン スケジューリング戦略を使用してサービスとして ECS クラスターにデプロイされます ([こちらの AWS ドキュメントで説明されています](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/scheduling_tasks.html))。これにより、クラスターのすべての EC2 インスタンスにエージェントがインストールされ、ECS と Docker コンテナが監視されます。 -* **AWS Fargate 起動タイプ:** 監視するすべてのタスクで、エージェントはサイドカーとしてデプロイされます。オプション: [AWS がサイドカーを定義する方法について詳しく学びます](https://aws.amazon.com/blogs/compute/nginx-reverse-proxy-sidecar-container-on-amazon-ecs)。 +* **EC2およびEXTERNAL(ECS Anywhere)起動タイプ:**当社のエージェントは、デーモンスケジューリング戦略を使用して、サービスとしてECSクラスタにデプロイされます([こちらのAWSドキュメントで説明](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/scheduling_tasks.html))。これにより、クラスタのすべてのEC2インスタンスにエージェントがインストールされ、ECSとDockerコンテナが監視されます +* **AWS Fargate起動タイプ:**監視するすべてのタスクで、エージェントはサイドカーとしてデプロイされます。オプション:[AWSがサイドカーを定義する方法の詳細をご覧ください](https://aws.amazon.com/blogs/compute/nginx-reverse-proxy-sidecar-container-on-amazon-ecs) ## インストールオプション [#install-options] 必要なインストールを選択します。 -* [AWS CloudFormationによるインストール](#cloud-formation-install) -* [自動スクリプトによるインストール](#auto-script-install) -* [手動インストール](#manual-install) +* [AWS CloudFormationを使用してインストールする](#cloud-formation-install) +* [自動スクリプトを使用してインストールする](#auto-script-install) +* [手動でインストールする](#manual-install) -## CloudFormationによるインストール [#cloud-formation-install] +## CloudFormationを使用してインストールする [#cloud-formation-install] -AWS CloudFormation を使用したインストールを支援するために、EC2、EXTERNAL (ECS Anywhere)、および AWS Fargate 起動タイプの AWS アカウントに ECS 統合をインストールするいくつかの CloudFormation テンプレートが提供されています。 +AWS CloudFormationを使用したインストールを支援するために、EC2、EXTERNAL(ECS Anywhere)、およびAWS Fargate起動タイプのAWSアカウントに、ECSインテグレーションをインストールするCloudFormationテンプレートがいくつか用意されています。 -CloudFormation を使用してインストールするには: +CloudFormationを使用してインストールするには: -1. ECS 統合タスクを登録するには、 [このスタック](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?templateURL=https://nr-downloads-main.s3.amazonaws.com/infrastructure_agent/integrations/ecs/cloudformation/task/master.yaml&stackName=NewRelicECSIntegration)をデプロイします。スタックを目的のリージョンにデプロイしていることを確認してください。このスタックは次のリソースを作成します。 +1. ECSインテグレーションタスクを登録するには、[このスタック](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?templateURL=https://nr-downloads-main.s3.amazonaws.com/infrastructure_agent/integrations/ecs/cloudformation/task/master.yaml&stackName=NewRelicECSIntegration)をデプロイします。スタックを目的のリージョンにデプロイしていることを確認してください。このスタックは次のリソースを作成します。 - * ニューレリックを保存する秘密 + * New Relic - 。 + を保存するシークレット - * ライセンスキーにアクセスするためのポリシーです。 + * ライセンスキーにアクセスするためのポリシー - * ECSタスク`ExecutionRole`として使用されるインスタンスロールで、ライセンスキーにアクセスできます。 + * ライセンスキーへのアクセス権を持つ、ECSタスク`ExecutionRole`として使用されるインスタンスロール - * EC2 および外部 (ECS Anywhere) の起動タイプ: New Relic インフラストラクチャ ECS 統合タスクを登録します。 + * EC2および外部(ECS Anywhere)の起動タイプ:New Relic Infrastructure ECSインテグレーションタスクを登録する -2. お客様のローンチタイプに応じた追加の指示に従ってください。 +2. 起動タイプに応じて追加の手順に従ってください。 - すべてのEC2コンテナ・インスタンスでタスクを実行するサービスを作成するには、 [このスタックをデプロイします](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?templateURL=https://nr-downloads-main.s3.amazonaws.com/infrastructure_agent/integrations/ecs/cloudformation/service.yaml&NewRelicInfraTaskVersion=1). + すべてのEC2コンテナインスタンスでタスクを実行するサービスを作成するには、[このスタック](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?templateURL=https://nr-downloads-main.s3.amazonaws.com/infrastructure_agent/integrations/ecs/cloudformation/service.yaml&NewRelicInfraTaskVersion=1)をデプロイします。 - EC2起動タイプを選択します。次に、 `newrelic-infra`という名前のサービスがクラスターに作成されます。 + EC2起動タイプを選択します。次に、`newrelic-infra`という名前のサービスがクラスタ内に作成されます。 - すべての外部コンテナ・インスタンスでタスクを実行するサービスを作成するには、 [このスタック](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?templateURL=https://nr-downloads-main.s3.amazonaws.com/infrastructure_agent/integrations/ecs/cloudformation/service.yaml&NewRelicInfraTaskVersion=1) をデプロイします。 + すべての外部コンテナインスタンスでタスクを実行するサービスを作成するには、[このスタック](https://console.aws.amazon.com/cloudformation/home#/stacks/create/review?templateURL=https://nr-downloads-main.s3.amazonaws.com/infrastructure_agent/integrations/ecs/cloudformation/service.yaml&NewRelicInfraTaskVersion=1)をデプロイします。 - EXTERNALLaunchtypeを選択します。次に、 `newrelic-infra-external`という名前のサービスがクラスターに作成されます。 + EXTERNAL起動タイプを選択します。次に、`newrelic-infra-external`という名前のサービスがクラスタ内に作成されます。 - 1. デプロイするサイドカー・コンテナを含むタスク定義例をダウンロードします。 + 1. デプロイするサイドカーコンテナを含むタスク定義の例をダウンロードします。 ``` curl -O https://download.newrelic.com/infrastructure_agent/integrations/ecs/newrelic-infra-ecs-fargate-example-latest.json ``` - Gravitonの場合、 `"cpuArchitecture": "X86_64"`を`"cpuArchitecture": "ARM64"`に置き換えます。 + Gravitonの場合は、`"cpuArchitecture": "X86_64"`を`"cpuArchitecture": "ARM64"`に置き換えます。 - 2. このタスク定義の`newrelic-infra`コンテナを、監視するタスク定義のサイドカーとして追加します。このタスク例では、アプリケーションのコンテナーがプレースホルダー`busybox`コンテナーを置き換えます。 + 2. このタスク定義の`newrelic-infra`コンテナを、監視するタスク定義にサイドカーとして追加します。このタスク例では、アプリケーションのコンテナがプレースホルダー`busybox`コンテナを置き換えます。 -完了したら、 [「次のステップ」](#next-steps)を参照してください。 +完了したら、[次の手順](#next-steps)を参照してください。 -## 自動スクリプトによるインストール [#auto-script-install] +## 自動スクリプトでインストールする [#auto-script-install] -[インストールオプション](#install-overview) の一つは、当社のインストールスクリプトを使用することです。自動インストールスクリプトを使用するには +[インストールオプション](#install-overview)の1つは、インストールスクリプトを使用することです。自動インストールスクリプトを使用するには: -1. ECSインテグレーションのインストーラーをダウンロードする。 +1. ECSインテグレーションインストーラをダウンロードします ``` curl -O https://download.newrelic.com/infrastructure_agent/integrations/ecs/newrelic-infra-ecs-installer.sh ``` -2. インストーラーに実行権限を追加する。 +2. インストーラに実行権限を追加します ``` chmod +x newrelic-infra-ecs-installer.sh ``` -3. `-h`で実行して、ドキュメントと要件を確認します。 +3. `-h`で実行してドキュメントと要件を確認します ``` ./newrelic-infra-ecs-installer.sh -h ``` -4. AWSプロファイルがECSクラスターが作成されたのと同じリージョンを指していることを確認します。 +4. AWSプロファイルが ECSクラスタが作成されたのと同じリージョンを指していることを確認します ``` $ aws configure get region @@ -120,7 +120,7 @@ CloudFormation を使用してインストールするには: arn:aws:ecs:us-east-1:YOUR_AWS_ACCOUNT:cluster/YOUR_CLUSTER ``` -5. を指定して、インストーラーを実行します。 およびクラスター名。 +5. とクラスタ名を指定してインストーラを実行します ``` ./newrelic-infra-ecs-installer.sh -c YOUR_CLUSTER_NAME -l YOUR_LICENSE_KEY -e @@ -143,7 +143,7 @@ CloudFormation を使用してインストールするには: ``` ./newrelic-infra-ecs-installer.sh -f -c YOUR_CLUSTER_NAME -l YOUR_LICENSE_KEY @@ -151,32 +151,32 @@ CloudFormation を使用してインストールするには: -6. Fargate 起動タイプ (EC2 起動タイプではない) の追加手順: +6. Fargate起動タイプ(EC2起動タイプではない)の追加手順: - * デプロイするサイドカー・コンテナを含むタスク定義例をダウンロードします。 + * デプロイするサイドカーコンテナを含むタスク定義の例をダウンロードします。 ``` curl -O https://download.newrelic.com/infrastructure_agent/integrations/ecs/newrelic-infra-ecs-fargate-example-latest.json ``` - Gravitonの場合、 `"cpuArchitecture": "X86_64"`を`"cpuArchitecture": "ARM64"`に置き換えます。 + Gravitonの場合は、`"cpuArchitecture": "X86_64"`を`"cpuArchitecture": "ARM64"`に置き換えます。 - 作成したばかりの`NewRelicECSTaskExecutionRole`をタスク実行ロールとして使用する必要があることに注意してください。ロールに関連付けられているポリシー(すべての起動タイプ): + 作成したばかりの`NewRelicECSTaskExecutionRole`をタスク実行ロールとして使用する必要があります。ロールにアタッチされたポリシー(すべての起動タイプ): - * NewRelicSSMLicenseKeyReadAccessは、ライセンスキーを使用してSSMパラメーターにアクセスできるようにします。 + * NewRelicSSMLicenseKeyReadAccessは、ライセンスキーを使用してSSMにアクセスできるようにします * AmazonECSTaskExecutionRolePolicy - * 次に、監視するコンテナをサイドカーとして追加できます。 + * 次に、監視したいコンテナをサイドカーとして追加できます -完了したら、 [「次のステップ」](#next-steps)を参照してください。 +完了したら、[次の手順](#next-steps)を参照してください。 -## マニュアルインストール +## 手動インストール -[インストールオプション](#install-overview)の1つは、[自動インストーラスクリプト](#auto-script-install)によって実行される手順を手動で実行することです。 `awscli`ツールを使用してこれを行う方法を説明します。 +[インストールオプション](#install-overview)の1つは、[自動インストーラスクリプト](#auto-script-install)によって実行される手順を手動で実行することです。`awscli`ツールを使用してこれを行う方法について説明します。 -1. AWSプロファイルがECSクラスターが作成されたのと同じリージョンを指していることを確認します。 +1. AWSプロファイルが ECSクラスタが作成されたのと同じリージョンを指していることを確認します ``` $ aws configure get region @@ -187,7 +187,7 @@ CloudFormation を使用してインストールするには: arn:aws:ecs:us-east-1:YOUR_AWS_ACCOUNT:cluster/YOUR_CLUSTER ``` -2. あなたの保存 Systems Manager (SSM) パラメータとして: +2. をSystems Manager(SSM)パラメーターとして保存します ``` aws ssm put-parameter \ @@ -197,7 +197,7 @@ CloudFormation を使用してインストールするには: --value "NEW_RELIC_LICENSE_KEY" ``` -3. ライセンスキーパラメーターにアクセスするためのIAMポリシーを作成します。 +3. ライセンスキーパラメーターにアクセスするためのIAMポリシーを作成します ``` aws iam create-policy \ @@ -206,7 +206,7 @@ CloudFormation を使用してインストールするには: --description "Provides read access to the New Relic SSM license key parameter" ``` -4. タスク実行ロールとして使用するIAMロールを作成します。 +4. タスク実行ロールとして使用するIAMロールを作成します ``` aws iam create-role \ @@ -215,7 +215,7 @@ CloudFormation を使用してインストールするには: --description "ECS task execution role for New Relic infrastructure" ``` -5. ポリシー`NewRelicSSMLicenseKeyReadAccess`と`AmazonECSTaskExecutionRolePolicy`をロールに添付します。 +5. ポリシー`NewRelicSSMLicenseKeyReadAccess`と`AmazonECSTaskExecutionRolePolicy`をロールにアタッチします ``` aws iam attach-role-policy \ @@ -223,28 +223,28 @@ CloudFormation を使用してインストールするには: --policy-arn "POLICY_ARN" ``` -6. 詳細については、ローンチタイプを選択してください。 +6. 詳細な手順については、以下の起動タイプを選択してください - EC2起動タイプの追加手順 + EC2起動タイプの追加手順: - 1. New Relic ECS統合タスク定義テンプレートファイルをダウンロードします。 + 1. New Relic ECSインテグレーションのタスク定義テンプレートファイルをダウンロードします。 ``` curl -O https://download.newrelic.com/infrastructure_agent/integrations/ecs/newrelic-infra-ecs-ec2-latest.json ``` - 2. テンプレートファイルのタスク実行ロールを、新しく作成したロールで置き換えます。 + 2. テンプレートファイル内のタスク実行ロールを、新しく作成したロールに置き換えます。 ``` "executionRoleArn": "NewRelicECSTaskExecutionRole", ``` - 3. `secret`の`valueFrom`属性をSystemsManagerパラメーターの名前に置き換えます。 + 3. `secret`の`valueFrom`属性をSystems Managerパラメーターの名前に置き換えます。 ``` secrets": [ @@ -261,15 +261,15 @@ CloudFormation を使用してインストールするには: aws ecs register-task-definition --cli-input-json file://newrelic-infra-ecs-ec2-latest.json ``` - 5. 登録したタスクに対して、 [デーモンのスケジューリング](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs_services.html) 戦略でサービスを作成します。 + 5. 登録されたタスクの[デーモンスケジューリング](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs_services.html)戦略を使用してサービスを作成します。 - EC2起動タイプの場合 + EC2起動タイプの場合: ``` aws ecs create-service --cluster "YOUR_CLUSTER_NAME" --service-name "newrelic-infra" --task-definition "newrelic-infra" --scheduling-strategy DAEMON --launch-type EC2 ``` - EXTERNAL(ECS Anywhere)の起動タイプの場合。 + EXTERNAL(ECS Anywhere)起動タイプの場合: ``` aws ecs create-service --cluster "YOUR_CLUSTER_NAME" --service-name "newrelic-infra-external" --task-definition "newrelic-infra" --scheduling-strategy DAEMON --launch-type EXTERNAL @@ -278,61 +278,60 @@ CloudFormation を使用してインストールするには: - AWS Fargateのローンチタイプの追加手順です。 + AWS Fargate起動タイプの追加手順: - 1. デプロイするサイドカー・コンテナを含むタスク定義例をダウンロードします。 + 1. デプロイするサイドカーコンテナを含むタスク定義の例をダウンロードします。 ``` curl -O https://download.newrelic.com/infrastructure_agent/integrations/ecs/newrelic-infra-ecs-fargate-example-latest.json ``` - Gravitonの場合、 `"cpuArchitecture": "X86_64"`を`"cpuArchitecture": "ARM64"`に置き換えます。 + Gravitonの場合は、`"cpuArchitecture": "X86_64"`を`"cpuArchitecture": "ARM64"`に置き換えます。 - 2. このタスク定義の`newrelic-infra`コンテナを、監視するタスク定義のサイドカーとして追加します。このタスク例では、アプリケーションのコンテナーがプレースホルダー`busybox`コンテナーを置き換えます。 + 2. このタスク定義の`newrelic-infra`コンテナを、監視するタスク定義にサイドカーとして追加します。このタスク例では、アプリケーションのコンテナがプレースホルダー`busybox`コンテナを置き換えます。 -完了したら、 [「次のステップ」](#next-steps)を参照してください。 +完了したら、[次の手順](#next-steps)を参照してください。 -## インストール後の手順 [#next-steps] +## インストール後の次の手順 [#next-steps] -この統合をインストールした後: +このインテグレーションをインストールした後: -* 数分待ってから、 [UIでデータを探してみてください](/docs/ecs-integration-understand-use-data) 。 -* 推奨します。ECS クラウド・インテグレーション [をインストールすると、クラスターやサービスに関する情報など、その他の ECS データを取得できます。](/docs/integrations/amazon-integrations/aws-integrations-list/aws-ecsecr-monitoring-integration) -* [](/docs/integrations/amazon-integrations/aws-integrations-list/aws-ecsecr-monitoring-integration) -* [](/docs/integrations/amazon-integrations/aws-integrations-list/aws-ecsecr-monitoring-integration)[推奨される警告条件](/docs/ecs-integration-recommended-alert-conditions) を参照してください。 -* このプロセスで作成される [AWS リソース](#aws-resources) を理解する。 +* 数分待ってから、[UIでデータを探します](/docs/ecs-integration-understand-use-data) +* 推奨:[ECSクラウドインテグレーション](/docs/integrations/amazon-integrations/aws-integrations-list/aws-ecsecr-monitoring-integration)をインストールします。これにより、クラスタやサービスに関する情報を含む他のECSデータが取得されます +* [推奨アラート条件](/docs/ecs-integration-recommended-alert-conditions)を参照してください +* このプロセスによって作成される[AWSリソース](#aws-resources)を理解します ## 作成されたAWSリソース [#aws-resources] -デフォルト/推奨値を使用してECSインテグレーションをインストールすると、AWSで次のようになります。 +デフォルト/推奨値を使用してECSインテグレーションをインストールすると、AWSで次のことが行われます。 -* Systems Manager (SSM) パラメータ`/newrelic-infra/ecs/license-key`を作成します。このシステム パラメータには、New Relic が含まれています。 +* Systems Manager(SSM)パラメーター`/newrelic-infra/ecs/license-key` を作成します。このシステムパラメーターには New Relic - . + が含まれています -* IAMポリシー`NewRelicSSMLicenseKeyReadAccess`を作成します。これにより、ライセンスキーを使用してSSMパラメータにアクセスできるようになります。 +* IAMポリシー`NewRelicSSMLicenseKeyReadAccess`を作成します。これにより、ライセンスキーを使用してSSMライセンスへのアクセスが可能になります -* [タスク実行ロール](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/task_execution_IAM_role.html)として使用されるIAMロール`NewRelicECSTaskExecutionRole`を作成します。役割に関連付けられているポリシー: +* [タスク実行ロール](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/task_execution_IAM_role.html)として使用するIAMロール`NewRelicECSTaskExecutionRole`を作成します。ロールにアタッチされたポリシー: - * `NewRelicSSMLicenseKeyReadAccess` (インストーラーによって作成されます)。 + * `NewRelicSSMLicenseKeyReadAccess` (インストーラにより作成) * `AmazonECSTaskExecutionRolePolicy` -* EC2および外部(ECS Anywhere)起動タイプの`newrelic-infra` ECSタスク定義を登録します。 +* EC2および外部(ECS Anywhere)起動タイプの`newrelic-infra` ECSタスク定義を登録します -* EC2 [launch type](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/launch_types.html) の場合も同様に行われます。 +* EC2[起動タイプ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/launch_types.html)の場合、以下も行われます * [デーモンスケジューリング](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs_services.html)戦略とEC2起動タイプを使用して、登録されたタスクのサービス`newrelic-infra`を作成します。 -* EXTERNAL (ECS Anywhere) [起動タイプ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/launch_types.html) の場合も同様に行います。 +* EXTERNAL(ECS Anywhere)[起動タイプ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/launch_types.html)の場合、以下も行われます - * [デーモンスケジューリング](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs_services.html)戦略とEXTERNAL(ECS Anywhere)起動タイプを使用して、登録されたタスクのサービス`newrelic-infra-external`を作成します。 \ No newline at end of file + * [デーモンスケジューリング](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/ecs_services.html)戦略とEXTERNAL(ECS Anywhere)起動タイプを使用して、登録されたタスクのサービス`newrelic-infra-external`を作成します \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior.mdx b/src/i18n/content/jp/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior.mdx index ce3c4efba92..af8c8bfbd0b 100644 --- a/src/i18n/content/jp/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior.mdx +++ b/src/i18n/content/jp/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior.mdx @@ -90,11 +90,11 @@ Smart verboseモードでは、エラーメッセージが検出されるまで * **エージェントが冗長モードで実行される場合**: DEBUGエージェントのログエントリとしてSTDERRの全行を転送するだけで、\`msg\`フィールド内に統合行のコンテキストを配置します。 * **それ以外の場合**: 想定されるフォーマット(下記参照)に沿って行を解析し、深刻度が \`fatal\` または \`error\` の統合によって生成されたエントリのみをエージェントの ERROR レベルとして記録します。この場合、フィールドは構造化された方法で抽出され、転送されます (したがって、エージェントで JSON 出力が有効な場合、フィールドはクエリ可能になります。 -インフラストラクチャエージェントは、ログ設定で明示的に定義されている統合のエラーをフィルタリングすることもできます。 この例では、エージェント ログがデバッグ以外のレベルにある場合、nri-mssql からのエラーは表示されません。 +デフォルトでは、インフラストラクチャエージェントは、統合の実行を妨げない統合からのエラーをフィルタリングして除外します。 ログレベルが DEBUG に設定されている場合、または統合がログ構成に具体的にリストされている場合にのみ、統合からのすべてのエラーが表示されます。 たとえば、この設定では、ログレベルが INFO であっても、 `nri-mssql`からのすべてのエラーが表示されます。 ```YAML log: - exclude_filters: + include_filters: integration_name: - nri-mssql ``` diff --git a/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/configuration/infrastructure-agent-configuration-settings.mdx b/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/configuration/infrastructure-agent-configuration-settings.mdx index fe9036fb2f2..d186384256c 100644 --- a/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/configuration/infrastructure-agent-configuration-settings.mdx +++ b/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/configuration/infrastructure-agent-configuration-settings.mdx @@ -1,50 +1,50 @@ --- -title: インフラストラクチャエージェントの設定 +title: Infrastructure agent configuration settings tags: - Infrastructure - Install the infrastructure agent - Configuration metaDescription: 'Configuration settings for the New Relic infrastructure agent, including YAML and environment variable names, value, minimum agent version.' freshnessValidatedDate: never -translationType: machine +translationType: human --- -インフラストラクチャ・エージェントには、その動作を微調整するための [の設定が多数用意されています](/docs/infrastructure/new-relic-infrastructure/configuration/configure-infrastructure-agent) 。ここでは +The infrastructure agent has a large set of [configuration settings to fine-tune its behavior](/docs/infrastructure/new-relic-infrastructure/configuration/configure-infrastructure-agent). Here we: -* すべての設定オプションを(YAMLと環境変数名の両方で)一覧表示します。 -* 各設定の役割と使用するタイミングを説明します。 -* 変数のタイプとデフォルト値(ある場合)を指定します。 -* 最低限必要なエージェントのバージョンを該当するものを記載してください。 +* List all the configuration options (in both their YAML and the environment variable names). +* Explain what the settings do and when to use them. +* Give the variable type and default value (if any). +* List the minimum required agent version as applicable. - シークレット管理を使用すると、統合の構成ファイルにプレーン テキストとして機密データ (パスワードなど) を書き込むことなく、機密データ (パスワードなど) を使用するようにエージェントのオンホスト統合をインフラストラクチャと構成できます。詳細については、 [「シークレット管理」](/docs/integrations/host-integrations/installation/secrets-management)を参照してください。 + With secrets management, you can configure the agent on-host integrations with infrastructure to use sensitive data (such as passwords) without having to write them as plain text into the integration's configuration file. For more information, see [Secrets management](/docs/integrations/host-integrations/installation/secrets-management). まだNewRelicアカウントがありませんか?永久に無料で[サインアップ](https://newrelic.com/signup) します。 -## 始めましょう [#requirements] +## スタートガイド [#requirements] -[New Relic アカウント](https://newrelic.com/signup) (永久に無料です)を作成し、 [インフラストラクチャエージェント](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent/) をインストールすると、お客様の環境に合わせてインフラストラクチャエージェントを設定することができます。 +You'll be able to configure our infrastructure agent to suit your environnment after you [create a New Relic account](https://newrelic.com/signup) (it's free, forever) and [install the infrastructure agent](/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent/). -必要な設定は[`license_key`](#license-key)のみです。 +The [`license_key`](#license-key) is the only required setting. -これらすべての変数の使用方法の例については、 [GitHub のサンプル構成テンプレートを](https://github.com/newrelic/infrastructure-agent/blob/master/assets/examples/infrastructure/newrelic-infra-template.yml.example)参照してください。 +For an example of how all these variables can be used, see our [sample configuration template in GitHub](https://github.com/newrelic/infrastructure-agent/blob/master/assets/examples/infrastructure/newrelic-infra-template.yml.example). -## エージェント変数 [#agent-variables] +## Agent variables [#agent-variables] license_key ( REQUIRED)} + title={<>license_key (REQUIRED)} > - を指定します New Relic アカウント用。 エージェントはこのキーを使用して、サーバーのメトリクスを New Relic アカウントに関連付けます。この設定は、標準のインストール プロセスの一部として作成されます。 + Specifies the for your New Relic account. The agent uses this key to associate your server's metrics with your New Relic account. This setting is created as part of the standard installation process.
- YMLオプション名 + YML option name @@ -76,7 +76,7 @@ translationType: machine - ストリング + 文字列 @@ -86,7 +86,7 @@ translationType: machine
- 例: + 例: ```yml license_key: 1234567890abcdefghijklmnopqrstuvwxyz1234 @@ -96,15 +96,15 @@ translationType: machine - Fedrampのエンドポイントを使用するかどうかを指定します。 + Specifies whether Fedramp endpoints should be used.
- YMLオプション名 + YML option name @@ -136,7 +136,7 @@ translationType: machine - ブール値 + boolean @@ -156,15 +156,15 @@ translationType: machine id="max-procs" title="max_procs" > - エージェントが使用できる論理プロセッサの数を指定します。この値を増やすことで、異なるコア間で負荷を分散することができます。 + Specifies the number of logical processors available to the agent. Increasing this value helps to distribute the load between different cores. - `-1`に設定されている場合、エージェントは環境変数`GOMAXPROCS`を読み取ろうとします。この変数が設定されていない場合、デフォルト値はホストで使用可能なコアの総数になります。 + If set to `-1`, the agent will try to read the environment variable `GOMAXPROCS`. If this variable is not set, the default value will be the total number of cores available in the host.
- YMLオプション名 + YML option name @@ -216,17 +216,17 @@ translationType: machine id="payload-compression-level" title="payload_compression_level" > - バージョン[1.0.804](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes/new-relic-infrastructure-agent-10804)以降では、エージェントから送信されるデータはデフォルトで圧縮されています。ペイロードの圧縮を無効にするには、 `payload_compression_level`を0に設定します。 + Since version [1.0.804](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes/new-relic-infrastructure-agent-10804) or higher, data sent from the agent is compressed by default. To disable payload compression, set `payload_compression_level` to 0. - **推奨:** この設定は変更しないでください。 + **Recommendation:** Do not change this setting.
- YMLオプション名 + YML option name @@ -278,15 +278,15 @@ translationType: machine id="startup-connection-retries" title="startup_connection_retries" > - 起動時にNew Relicのプラットフォームの可用性を確認するために、エージェントがエラーを投げる前にリクエストを再試行する回数。 + Number of times the agent will retry the request to check New Relic's platform availability at startup before throwing an error. - **負の値** に設定すると、エージェントは成功するまで接続を確認し続けます。 + If set to a **negative value**, the agent will keep checking the connection until it succeeds.
- YMLオプション名 + YML option name @@ -338,13 +338,13 @@ translationType: machine id="startup-connection-retries" title="startup_connection_retry_time" > - リクエストがタイムアウトした後、エージェントがリクエストの再試行を待つ時間は、起動時にNew Relicのプラットフォームの可用性をチェックするためのものです。 + After a request has timed out, time the agent waits to retry a request to check New Relic's platform availability at startup.
- YMLオプション名 + YML option name @@ -376,7 +376,7 @@ translationType: machine - ストリング + 文字列 @@ -396,13 +396,13 @@ translationType: machine id="startup-connection-timeout" title="startup_connection_timeout" > - 起動時にNew Relicのプラットフォームの可用性を確認するリクエストがタイムアウトしたとみなされるまで、エージェントが待機する時間。 + Time the agent waits until a request to check New Relic's platform availability at startup is considered timed out.
- YMLオプション名 + YML option name @@ -434,7 +434,7 @@ translationType: machine - ストリング + 文字列 @@ -454,13 +454,13 @@ translationType: machine id="self-instrumentation" title="self_instrumentation" > - [エージェントのセルフ インストルメンテーション](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/infrastructure-agent-self-instrumentation)を有効にします。 + Enables [agent's self instrumentation](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/infrastructure-agent-self-instrumentation).
- YMLオプション名 + YML option name @@ -492,7 +492,7 @@ translationType: machine - ストリング + 文字列 @@ -512,13 +512,13 @@ translationType: machine id="logging_retry-limit" title="logging_retry_limit" > - 組み込みの Fluentbit ログ フォワーダーを介した[ログ送信のエージェントの再試行](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/infrastructure-agent-behavior/#retry)を有効にします。整数値は、意図された再試行の回数を表します。その他の可能な値には、再試行回数を無限に設定する`False`や、再試行機能を完全にオフにする`no_retries`があります。 + Enables [Agent Retry for Log Transmission](/docs/infrastructure/install-infrastructure-agent/manage-your-agent/infrastructure-agent-behavior/#retry) via the embedded fluentbit logging forwarder. Integer values are for the number of intended retries. Other possible values include `False` to set the number of retries to infinite and `no_retries` to turn off the retry functionality entirely.
- YMLオプション名 + YML option name @@ -566,25 +566,25 @@ translationType: machine -## クラウド変数 +## Cloud variables -エージェントがクラウドインスタンスで実行されている場合、エージェントはクラウドタイプを検出し、基本的な[メタデータ](/docs/integrations/new-relic-integrations/getting-started/understand-use-data-infrastructure-integrations#overview)を取得しようとします。 [クラウドプロバイダーアカウントをNewRelicに接続する](/docs/infrastructure/infrastructure-integrations/get-started/introduction-infrastructure-integrations#cloud)ときに、メトリックを拡張クラウドメタデータ(カスタムリソースタグを含む)で強化することもできます。 +If the agent is running in a cloud instance, the agent will try to detect the cloud type and fetch basic [metadata](/docs/integrations/new-relic-integrations/getting-started/understand-use-data-infrastructure-integrations#overview). Metrics can also be enriched with extended cloud metadata (including custom resource tags) when [connecting the cloud provider](/docs/infrastructure/infrastructure-integrations/get-started/introduction-infrastructure-integrations#cloud) account with New Relic. - クラウドの検出に失敗した場合に、エージェントが接続を再試行する回数を設定します。 + Sets the number of times the agent retries to connect in case that cloud detection fails. - エージェントの初期化中にクラウド検出が失敗した場合、エージェントは[`CloudRetryBackOffSec`秒](#cloud-retry-backoff-sec)待機した後に再試行します。 + If cloud detection fails during the initialization of the agent, the agent will retry after waiting for [`CloudRetryBackOffSec` seconds](#cloud-retry-backoff-sec).
- YMLオプション名 + YML option name @@ -634,15 +634,15 @@ translationType: machine - エージェントがメタデータを破棄するまでの待ち時間を秒単位で設定します。この時間が経過すると、メタデータは失効し、エージェントは再びメタデータを取得します。 + Sets the interval of time the agent will wait until discarding the metadata, in seconds. After this period metadata expires and the agent will fetch it again.
- YMLオプション名 + YML option name @@ -692,17 +692,17 @@ translationType: machine - クラウドの検出に失敗した場合に、エージェントがクラウドディテクションの再試行を行うまでの時間を秒単位で設定します。 + Sets the interval of time the agent waits between cloud detection retries in case that cloud detection failed, in seconds. - エージェントの初期化中にクラウド検出が失敗した場合、エージェントは[`CloudMaxRetryCount`回](#cloud-max-retry-count)再試行します。 + If cloud detection fails during the initialization of the agent, it will retry for [`CloudMaxRetryCount` times](#cloud-max-retry-count).
- YMLオプション名 + YML option name @@ -752,19 +752,19 @@ translationType: machine - エージェントが実行されているクラウド プロバイダーを指定します。これがデフォルトとは異なる値に設定されている場合、エージェントは、データをバックエンドに送信する前に、クラウド プロバイダーからメタデータ (インスタンス ID) を正常に取得するまで待機します。 + Specifies the cloud provider the agent is running in. When this is set up to a value different from the default, the agent will wait until it successfully acquires metadata (the instance ID) from the cloud provider before submitting any data to the backend. - デフォルトの動作では、エージェントはクラウド プロバイダーの検出とメタデータの取得も試みますが、エージェントをブロックすることはありません。 + With the default behavior, the agent will also try to detect the cloud provider and get the metadata but without blocking the agent. - 許可された値: `""`、 `"aws"`、 `"azure"`、 `"gcp"`、 `"alibaba"` + Allowed values: `""`, `"aws"`, `"azure"`, `"gcp"`, `"alibaba"`
- YMLオプション名 + YML option name @@ -796,7 +796,7 @@ translationType: machine - ストリング + 文字列 @@ -816,13 +816,13 @@ translationType: machine id="disable-cloud-instance-id" title="disable_cloud_instance_id" > - [`DisableCloudMetadata`](#disable-cloud-metadata)に似ていますが、ホストエイリアスプラグインのクラウドメタデータの収集のみを無効にします。 + Similar to [`DisableCloudMetadata`](#disable-cloud-metadata), but it disables the collection of cloud metadata only for the host alias plugin.
- YMLオプション名 + YML option name @@ -854,7 +854,7 @@ translationType: machine - ブール値 + boolean @@ -872,15 +872,15 @@ translationType: machine - クラウドメタデータの収集を無効にします。 + Disables the collection of cloud metadata.
- YMLオプション名 + YML option name @@ -912,7 +912,7 @@ translationType: machine - ブール値 + boolean @@ -928,7 +928,7 @@ translationType: machine -## ドッカー変数 +## Docker variables - キャッシュされたコンテナのメタデータが期限切れになり、エージェントが再度取得する必要が生じるまでの時間(秒単位)。 + Time, in seconds, before the cached containers metadata expires and the agent needs to fetch them again.
- YMLオプション名 + YML option name @@ -994,13 +994,13 @@ translationType: machine id="docker-api-version" title="docker_api_version" > - DockerクライアントのAPIバージョンを指定します。 + Specifies the Docker client API version.
- YMLオプション名 + YML option name @@ -1032,7 +1032,7 @@ translationType: machine - ストリング + 文字列 @@ -1048,21 +1048,21 @@ translationType: machine -## ファイルシステム変数 [#filesystem-variables] +## File system variables [#filesystem-variables] - エージェントがサポートしているファイルシステムの種類のリストです。この値は、デフォルトのリストのサブセットである必要があり、デフォルトのリストにない項目は破棄されます。 + List of the types of file systems that the agent supports. This value needs to be a subset of the default list, and items that are not in the default list will be discarded.
- YMLオプション名 + YML option name @@ -1094,13 +1094,13 @@ translationType: machine - \[]文字列 + \[]string Linux: `["xfs", "btrfs", "ext", "ext2", "ext3", "ext4", "hfs", "vxfs", "zfs"]` - ウィンドウズ: `["NTFS", "ReFS"]` + Windows: `["NTFS", "ReFS"]` @@ -1114,15 +1114,15 @@ translationType: machine - `StorageSample`データを収集するときにエージェントが無視するストレージデバイスのリスト。 + List of storage devices to be ignored by the agent when gathering `StorageSample` data.
- YMLオプション名 + YML option name @@ -1154,7 +1154,7 @@ translationType: machine - \[]文字列 + \[]string @@ -1166,7 +1166,7 @@ translationType: machine
- YAML属性の例。 + Example as a YAML attribute: ```yml file_devices_ignored: @@ -1174,7 +1174,7 @@ translationType: machine - sda2 ``` - 環境変数としての例 + Example as an environment variable: ```ini FILE_DEVICES_IGNORED="sda1,sda2" @@ -1182,7 +1182,7 @@ translationType: machine
-## ホスト名の変数 +## Hostname variables - レポート用に自動生成されたホスト名を上書きします。これは、同じ名前のホストが複数ある場合に便利です。インフラストラクチャモニタリングでは、ホスト名を各ホストの一意の識別子として使用します。この値は、エンティティ名のループバックアドレスの置換にも使用されることに注意してください。 + Overrides the auto-generated hostname for reporting. This is useful when you have multiple hosts with the same name, since our infrastructure monitoring uses the hostname as the unique identifier for each host. Keep in mind this value is also used for the loopback address replacement on entity names. - 詳しくは、 [エンティティ名解決の仕組み](/docs/integrations/integrations-sdk/file-specifications/integration-executable-file-specifications#h2-loopback-address-replacement-on-entity-names) についてのドキュメントをご覧ください。 + For more information, see our documentation on [how entity name resolution works](/docs/integrations/integrations-sdk/file-specifications/integration-executable-file-specifications#h2-loopback-address-replacement-on-entity-names).
- YMLオプション名 + YML option name @@ -1230,11 +1230,11 @@ translationType: machine - ストリング + 文字列 - 空 + empty @@ -1244,7 +1244,7 @@ translationType: machine
- 例: + 例: ```yml display_name: teslaOne @@ -1256,13 +1256,13 @@ translationType: machine id="dns_hostname_resolution" title="dns_hostname_resolution" > - `true`の場合、ホストのアドレスの逆引き参照を実行することにより、完全なホスト名が解決されます。それ以外の場合は、Linuxではhostnameコマンドを使用して、WindowsではレジストリのTCP/IPパラメータから取得されます。 + When `true`, the full hostname is resolved by performing a reverse lookup of the host's address. Otherwise, it will be retrieved with the hostname command on Linux and from the TCP/IP parameters of the registry on Windows.
- YMLオプション名 + YML option name @@ -1294,7 +1294,7 @@ translationType: machine - ブール値 + boolean @@ -1312,15 +1312,15 @@ translationType: machine - 設定されている場合、これは完全なホスト名に対して報告される値であり、そうでない場合は、エージェントは通常の検索動作を行います。 + When set, this is the value that will be reported for the full hostname; otherwise, the agent will perform the normal lookup behavior.
- YMLオプション名 + YML option name @@ -1352,7 +1352,7 @@ translationType: machine - ストリング + 文字列 @@ -1364,7 +1364,7 @@ translationType: machine
- 例: + 例: ``` my.custom-hostname.co.org @@ -1374,15 +1374,15 @@ translationType: machine - 設定されている場合、これはホスト名に対して報告される値です。そうでない場合、エージェントは通常の検索動作を行います。 + When set, this is the value that will be reported for the hostname; otherwise, the agent will perform the normal lookup behavior.
- YMLオプション名 + YML option name @@ -1414,7 +1414,7 @@ translationType: machine - ストリング + 文字列 @@ -1426,7 +1426,7 @@ translationType: machine
- 例: + 例: ``` my.custom-hostname @@ -1434,7 +1434,7 @@ translationType: machine
-## インストール変数 [#installation-variables] +## Installation variables [#installation-variables] - エージェントがキャッシュ、インベントリ、統合などのファイルを保存するディレクトリ。 + Directory where the agent stores files for cache, inventory, integrations, etc.
- YMLオプション名 + YML option name @@ -1480,13 +1480,13 @@ translationType: machine - ストリング + 文字列 Linux: `/var/db/newrelic-infra` - ウィンドウズ: `C:\Program Files\NewRelic\newrelic-infra\` + Windows: `C:\Program Files\NewRelic\newrelic-infra\` @@ -1502,15 +1502,15 @@ translationType: machine id="plugin-dir" title="plugin_dir" > - インテグレーションの設定ファイルを含むディレクトリ。 + Directory containing the configuration files of the integrations. - 各統合には、デフォルトで`-config.yml`という名前の独自の構成ファイルがあり、エージェントが初期化時にロードする事前定義された場所に配置されます。 + Each integration has its own configuration file, named by default `-config.yml`, placed in a predefined location from which the agent loads on initialization.
- YMLオプション名 + YML option name @@ -1542,13 +1542,13 @@ translationType: machine - ストリング + 文字列 Linux: `etc/newrelic-infra/integrations.d/` - ウィンドウズ: `\Program Files\NewRelic\newrelic-infra\inregrations.d` + Windows: `\Program Files\NewRelic\newrelic-infra\inregrations.d` @@ -1562,15 +1562,15 @@ translationType: machine - 統合をインストールするためのカスタムパスを指定します。これにより、統合を`agent_dir`の外部にインストールできます。エージェントがインストール済みの統合を探している場合は、これが優先されます。 + Specifies a custom path to install integrations, which allows to install them outside the `agent_dir`. It has priority when the agent is looking for installed integrations.
- YMLオプション名 + YML option name @@ -1602,11 +1602,11 @@ translationType: machine - ストリング + 文字列 - エンプティ + Empty @@ -1618,7 +1618,7 @@ translationType: machine -## 積算変数 +## Integrations variables - すべての統合に渡される環境変数のリストです。インテグレーションに同じ名前の既存の設定オプションがある場合は、環境変数が優先されます。 + A list of environment variables that will be passed to all integrations. If an integration already has an existing configuration option with the same name, then the environment variable takes precedence. - インフラストラクチャエージェント1.24.1以降、 `passthrough_environment`は変数名の正規表現をサポートします。 + Starting with infrastructure agent 1.24.1 `passthrough_environment` supports regex for variable names.
- YMLオプション名 + YML option name @@ -1666,11 +1666,11 @@ translationType: machine - \[]文字列 + \[]string - エンプティ + Empty @@ -1680,7 +1680,7 @@ translationType: machine
- YAML属性としての例(エージェントの構成ファイル内、デフォルトでは`/etc/newrelic-infra.yml`にあります): + Example as a YAML attribute (inside the agent's configuration file, located by default in `/etc/newrelic-infra.yml`): ```yml passthrough_environment: @@ -1689,13 +1689,13 @@ translationType: machine - NRIA_.* ``` - 環境変数としての例 + Example as an environment variable: ```ini NRIA_PASSTHROUGH_ENVIRONMENT="HOST,PORT,NRIA_.*" ``` - Windows ホストの場合: `PATHEXT`は MS Windows 環境変数です。 この機能は、すべてのコマンドラインから実行可能なファイルにどの拡張子がマークされているかを判断することです。 これにより、一般的な Flex 統合で「... はコマンドレット、関数、スクリプト ファイルの名前として認識されません...」というエラーが報告され、すべて解決されます。 + For Windows hosts: `PATHEXT` is an MS Windows environment variable. The function is to determine which file extensions mark files that are executable from every command line. This will resolve any errors reporting "... is not recognized as the name of a cmdlet, function, script file..." for common Flex integrations: ```yml passthrough_environment: @@ -1706,15 +1706,15 @@ translationType: machine - エージェントは、統合プロトコルのバージョン3に対して、エンティティ名(したがってキー)のループバックアドレス置換を自動的に有効にします。プロトコルのバージョン2を使用していて、この動作が必要な場合は、 `entityname_integrations_v2_update`オプションを有効にします。 + The agent enables loopback-address replacement on the entity name (and therefore key) automatically for version 3 of the integration protocol. If you are using version 2 of the protocol and want this behavior, enable the `entityname_integrations_v2_update` option.
- YMLオプション名 + YML option name @@ -1746,7 +1746,7 @@ translationType: machine - ブール値 + boolean @@ -1766,13 +1766,13 @@ translationType: machine id="http-server-enabled" title="http_server_enabled" > - この構成パラメーターを`true`に設定すると、エージェントはHTTPポート(デフォルトでは`8001` )を開き、NewRelicStatsDバックエンドからデータを受信します。 + By setting this configuration parameter to `true` the agent will open an HTTP port (by default, `8001`) to receive data from the New Relic StatsD backend.
- YMLオプション名 + YML option name @@ -1804,7 +1804,7 @@ translationType: machine - ブール値 + boolean @@ -1824,13 +1824,13 @@ translationType: machine id="http-server-host" title="http_server_host" > - この値を設定すると、エージェントは`HTTPServerPort`のリッスンを開始して、NewRelicStatsDバックエンドからデータを受信します。 + By setting this value, the agent will start listening on the `HTTPServerPort` to receive data from the New Relic StatsD backend.
- YMLオプション名 + YML option name @@ -1862,7 +1862,7 @@ translationType: machine - ストリング + 文字列 @@ -1882,13 +1882,13 @@ translationType: machine id="http-server-port" title="http_server_port" > - New Relic StatsD バックエンドからデータを受信するための http サーバーのポートを設定します。 + Sets the port for the http server to receive data from the New Relic StatsD backend.
- YMLオプション名 + YML option name @@ -1940,15 +1940,15 @@ translationType: machine id="remove-entities-period" title="remove_entities_period" > - この期間に情報が報告されていないエンティティの削除処理を開始します。 + Starts the process of deleting entities that haven't reported information during this interval. - 有効な時間単位: `s` (秒)、 `m` (分)、および`h` (時間)。 + Valid time units: `s` (seconds), `m` (minutes), and `h` (hour).
- YMLオプション名 + YML option name @@ -1980,7 +1980,7 @@ translationType: machine - ストリング + 文字列 @@ -1994,7 +1994,7 @@ translationType: machine
- 例: + 例: ``` 1h @@ -2004,15 +2004,15 @@ translationType: machine - ホスト上に多数のプロセスがある場合、または統合全体で収集された大量のデータがある場合、エージェント キューがオーバーランする可能性があります。キューの深さを増やして、キューがいっぱいになることによるエラー メッセージを防ぎます。 + If you have a large number of processes on the host, or a large volume of data collected across your integrations, the agent queue can overrun. Increase the queue depth to prevent error messages resulting from full queues.
- YMLオプション名 + YML option name @@ -2060,21 +2060,21 @@ translationType: machine -## 在庫変数 +## Inventory variables - キャッシュされたインベントリがこの値よりも古くなった場合(エージェントがオフラインになった場合など)、エージェントは自動的にデルタストアを削除し、再作成します。 + If the cached inventory becomes older than this value (for example, because the agent is offline), the agent automatically removes and recreates the delta store.
- YMLオプション名 + YML option name @@ -2106,7 +2106,7 @@ translationType: machine - ストリング + 文字列 @@ -2124,15 +2124,15 @@ translationType: machine - true に設定すると、インベントリの非同期処理が有効になり、より大きなインベントリ ペイロードを処理できるようになります。 + When set to true, enables the inventory asynchronous processing allowing larger inventory payloads to be processed.
- YMLオプション名 + YML option name @@ -2184,13 +2184,13 @@ translationType: machine id="ignored-inventory" title="ignored_inventory" > - エージェントが無視するインベントリパスのリストです。 + The list of inventory paths ignored by the agent.
- YMLオプション名 + YML option name @@ -2222,7 +2222,7 @@ translationType: machine - 文字列\[] + string\[] @@ -2236,7 +2236,7 @@ translationType: machine
- YAML属性の例。 + Example as a YAML attribute: ```yml ignored_inventory: @@ -2244,7 +2244,7 @@ translationType: machine - files/config/stuff.foo ``` - 環境変数としての例 + Example as an environment variable: ```ini NRIA_IGNORED_INVENTORY="files/config/stuff.bar,files/config/stuff.foo" @@ -2252,7 +2252,7 @@ translationType: machine -## Linuxの変数 [#linux-variables] +## Linux variables [#linux-variables] - エージェントプロセスの`pid`ファイルが作成されるLinux上の場所。起動時に、エージェントの他のインスタンスが実行されていないことを確認するために使用されます。 + Location on Linux where the `pid` file of the agent process is created. It is used at startup to ensure that no other instances of the agent are running.
- YMLオプション名 + YML option name @@ -2298,7 +2298,7 @@ translationType: machine - ストリング + 文字列 @@ -2318,13 +2318,13 @@ translationType: machine id="ignore-reclaimable" title="ignore_reclaimable" > - trueの場合、ホスト仮想メモリの定式化では`SReclaimable`が使用可能なメモリと見なされます。それ以外の場合、 `SReclaimable`は使用済みメモリの一部と見なされます。 + When true, formulation of the host virtual memory considers `SReclaimable` as available memory; otherwise `SReclaimable` will be considered part of the used memory.
- YMLオプション名 + YML option name @@ -2356,7 +2356,7 @@ translationType: machine - ブール値 + boolean @@ -2380,7 +2380,7 @@ translationType: machine id="log" title="ログ" > - Log は、インフラストラクチャ エージェント ロガーの構成に使用されるキーと値のマップです。YAML 属性としての例: + Log is a key-value map used to configure the infrastructure agent logger. Example as a YAML attribute: ```yml log: @@ -2390,7 +2390,7 @@ translationType: machine stdout: false ``` - 環境変数としての例 + Example as an environment variable: ```ini NRIA_LOG_FILE='/var/log/newrelic-infra/newrelic-infra.log' @@ -2405,17 +2405,17 @@ translationType: machine id="file" title="ファイル" > - ログのファイルパスを定義します。 + Defines the file path for the logs. - デフォルトのインストールではログディレクトリが作成され、このファイルパス値が`file`構成オプションに設定されます。このログディレクトリは、以下に示すように、OSごとに異なります。 + The default installation creates a log directory and it sets this filepath value in the `file` configuration option for you. This log directory is different for each OS, as shown below. - この設定オプションを変更して、ログのファイルパスをカスタマイズします。 + Change this configuration option to customize the file path for the logs.
- YMLオプション名 + YML option name @@ -2447,11 +2447,11 @@ translationType: machine - ストリング + 文字列 - 下記参照\*。 + See below\* @@ -2459,17 +2459,17 @@ translationType: machine
- デフォルトのパスです。 + Default paths: - * Linuxです。定義されていない場合は、標準出力にのみログを記録します。 + * Linux: If not defined, it logs only in the standard output. - * Windows、エージェントバージョン1.0.944以上。 + * Windows, agent version 1.0.944 or higher: ``` C:\%ProgramData%\New Relic\newrelic-infra\newrelic-infra.log ``` - ディレクトリの作成ができない場合 + If the directory can't be created: ``` C:\Program Files\New Relic\newrelic-infra\newrelic-infra.log @@ -2481,25 +2481,25 @@ translationType: machine id="level" title="level" > - ログレベルを定義します。利用可能な値: + Defines the log level. Available values: - * `info`:レベルエラー、警告、情報のログメッセージを表示します。 + * `info`: Displays log messages of level error, warn and info. - * `smart`: [スマート冗長モード](/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior/#smart-verbose-mode)を有効にします。スマート冗長モードでは、エラーが記録されると、最後の `smart_level_entry_limit` デバッグ メッセージが記録されます。 + * `smart`: Enables the [smart verbose mode](/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior/#smart-verbose-mode). Smart verbose mode logs the last `smart_level_entry_limit` debug messages when an error is logged. - * `debug`:レベルエラー、警告、情報、およびデバッグのログメッセージを表示します。 + * `debug`: Displays log messages of level error, warn, info and debug. - * `trace`:すべてのログメッセージが表示されます。 + * `trace`: All log messages will be shown. - トレースレベルのログは、大量のデータを非常に迅速に生成できます。問題を再現するために必要な期間だけエージェントをトレースモードで実行してから、 `level: info`を設定し[、エージェントを再起動](/docs/infrastructure/new-relic-infrastructure/configuration/start-stop-restart-check-infrastructure-agent-status)して詳細ログを無効にします。または、 `level` : `smart`を設定して、スマート冗長モードを有効にすることもできます。 + Trace level logging can generate a lot of data very quickly. Run the agent in trace mode only for as long as necessary to reproduce your issue, then set `level: info` and [restart your agent](/docs/infrastructure/new-relic-infrastructure/configuration/start-stop-restart-check-infrastructure-agent-status) to disable verbose logging. Alternatively, you can set `level`: `smart`, which will enable smart verbose mode.
- YMLオプション名 + YML option name @@ -2531,11 +2531,11 @@ translationType: machine - ストリング + 文字列 - 設定されていません + Not set @@ -2547,19 +2547,19 @@ translationType: machine - ログの出力形式を定義します。利用可能な値 + Defines the log output format. Available values: - * `text`:プレーンテキスト出力、ログエントリごとに1行。 + * `text`: Plain text output, one line per log entry. - * `json`:JSON形式の出力、ログエントリごとに1行。 + * `json`: JSON-formatted output, one line per log entry.
- YMLオプション名 + YML option name @@ -2591,7 +2591,7 @@ translationType: machine - ストリング + 文字列 @@ -2609,15 +2609,15 @@ translationType: machine - エージェント ログをログ UI に転送できるようにします。無効にするには、この構成オプションを `false`に設定します。 + Enables forwarding the agent logs to our logs UI. To disable it, set this configuration option to `false`.
- YMLオプション名 + YML option name @@ -2649,7 +2649,7 @@ translationType: machine - ブール値 + boolean @@ -2669,13 +2669,13 @@ translationType: machine id="stdout" title="stdout" > - デフォルトでは、すべてのログは標準出力とログファイルの両方に表示されます。標準出力でログを無効にするには、この構成オプションを`false`に設定します。 + By default all logs are displayed in both standard output and a log file. To disable logs in the standard output, set this configuration option to `false`.
- YMLオプション名 + YML option name @@ -2707,7 +2707,7 @@ translationType: machine - ブール値 + boolean @@ -2727,17 +2727,17 @@ translationType: machine id="smart_level_entry_limit" title="smart_level_entry_limit" > - `smart_level_entry_limit` エラーがログに記録されるときにログに記録される以前のデバッグ メッセージの数を指します。 たとえば、制限が`5`に設定されている場合、デバッグ ログはエラーがログになるまでメモリにキャッシュされ、その時点で以前の 5 つのデバッグ メッセージもログになります。 + `smart_level_entry_limit` refers to the number of previous debug messages that will be logged when an error is logged. For example, if the limit is set to `5`, debug logs will be cached in memory until an error is logged, at which point the previous 5 debug messages will also be logged. - この構成オプションは、 `level`が`smart` (スマートレベルが有効)に設定されている場合にのみ使用されます。 + This configuration option is only used when `level` is set to `smart` (Smart Level enabled).
- YMLオプション名 + YML option name @@ -2787,9 +2787,9 @@ translationType: machine - バージョン[v1.28.0](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes)以降では、組み込みのログローテーション機能を使用できます。デフォルトでは、ログローテーションは無効になっています。これを有効にするには、 `max_size_mb`オプションを使用してログファイルの最大サイズを指定する必要があります。インフラストラクチャエージェントのログファイルがそのサイズに達すると、現在のログファイルが新しいファイルにローテーションされます。 + From version [v1.28.0](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes) on, you can use the built-in log rotation feature. By default, log rotation is disabled. To enable it, you have to specify the maximum size of the log file with the `max_size_mb` option. When the infrastructure agent log file reaches that size, the current log file will be rotated into a new file. ```yml log: @@ -2808,13 +2808,13 @@ translationType: machine id="rotate-max_size_mb" title="max_size_mb" > - `max_size_mb` インフラストラクチャエージェントログファイルの最大サイズをメガバイト単位で指定します。ファイルがこのサイズに達すると、現在のログが新しいファイルにローテーションされます。`max_size_mb`が`0`の場合、組み込みのログローテーションは無効になります。 + `max_size_mb` specifies the maximum size in MegaBytes of the infrastructure agent log file. When the file has reached this size, the current logs will be rotated into a new file. When the `max_size_mb` is `0`, built-in log rotation is disabled.
- YMLオプション名 + YML option name @@ -2850,7 +2850,7 @@ translationType: machine - `0` - 無効 + `0` - Disabled @@ -2864,13 +2864,13 @@ translationType: machine id="rotate-max_files" title="max_files" > - `max_files` 保持するアーカイブログファイルの数を定義します。この値を超えると、古いファイルが削除されます。`max_files`が`0`の場合、ファイル数の制限は無効になります。 + `max_files` defines how many archived log files will be keept. When this value is exceeded, older files will be removed. When the `max_files` is `0` the limit for the number of files is disabled.
- YMLオプション名 + YML option name @@ -2918,19 +2918,19 @@ translationType: machine - `compression_enabled`を`true`に設定すると、ログファイルの圧縮を有効にできます。圧縮がアクティブになっている場合、ローテーションされたファイルは`gzip`形式になり、使用するディスク容量が少なくなります。 + You can enable compression for the log files by setting `compression_enabled` to `true`. If compression is activated, rotated files will have a `gzip` format and will use less disk space. - ログローテーション中に圧縮が有効になっている場合、特に`max_size_mb`値が`1000`より大きい場合、エージェントのCPU使用率が増加する可能性があります。 + During the log rotation, if compression is enabled, the agent CPU usage might increase, especially when `max_size_mb` value is greater than `1000`.
- YMLオプション名 + YML option name @@ -2962,7 +2962,7 @@ translationType: machine - ブール値 + boolean @@ -2980,23 +2980,23 @@ translationType: machine id="rotate-file_pattern" title="file_pattern" > - `file_pattern` アーカイブされたログファイルの名前の形式を指定します。デフォルトでは、新しいファイル名は次の名前パターンを使用します: `original-file_YYYY-MM-DD_hh-mm-ss.log` 。 + `file_pattern` specifies the name format for the archived log files. By default, the new file name will use the following name pattern: `original-file_YYYY-MM-DD_hh-mm-ss.log`. - 次のタイムスタンプフィールドを使用して、ファイル名パターンをカスタマイズできます。 + You can customize the file name pattern with the following timestamp fields: - * `YYYY`: 年 + * `YYYY`: Year - * `MM`: 月 + * `MM`: Month - * `DD`: 日 + * `DD`: Day - * `hh`: 時間 + * `hh`: Hour - * `mm`: 分 + * `mm`: Minute - * `ss`:セカンド + * `ss`: Secound - エージェントは、これらのタイムスタンプフィールドをファイルローテーションの時刻に自動的に置き換えます。例えば: + The agent will automatically replace those timestamp fields with the time of the file rotation. For example: ```yml log: @@ -3011,7 +3011,7 @@ translationType: machine
- YMLオプション名 + YML option name @@ -3043,7 +3043,7 @@ translationType: machine - ストリング + 文字列 @@ -3062,10 +3062,10 @@ translationType: machine - インフラストラクチャ エージェント バージョン 1.28.0 では、ロギング構成の下位互換性の向上が導入されました。従来の設定と、それらを新しい構造にマッピングする方法を理解するには、 [GitHub ドキュメント](https://github.com/newrelic/infrastructure-agent/blob/master/docs/log_configuration.md)を参照してください。 + Infrastructure agent version 1.28.0 introduced backward-compatible improvements in logging configuration. See our [github documentation](https://github.com/newrelic/infrastructure-agent/blob/master/docs/log_configuration.md) to understand the legacy settings and how to map them to the new structure. -## メトリクス変数 [#metrics] +## Metrics variables [#metrics] - カスタム属性は、インフラストラクチャ エージェントからのデータに注釈を付けるために使用されるキーと値のペア (他のツールのタグと同様) です。このメタデータを使用して、エンティティをフィルタリングし、[結果をグループ化し](/docs/infrastructure-group-results-specific-attributes)、データに注釈を付けることができます。たとえば、マシンの環境 (ステージングまたは運用)、マシンがホストするサービス (ログイン サービスなど)、またはそのマシンを担当するチームを指定できます。 + Custom attributes are key-value pairs (similar to tags in other tools) used to annotate the data from the infrastructure agent. You can use this metadata to filter your entities, [group your results](/docs/infrastructure-group-results-specific-attributes), and annotate your data. For example, you might indicate a machine's environment (staging or production), the service a machine hosts (login service, for example), or the team responsible for that machine. - エージェントは、 [デフォルトの属性](/docs/default-infrastructure-events-attributes) の一部として、 [Amazon Elastic Compute Cloud(Amazon EC2)タグ](/docs/default-infrastructure-events-attributes#aws-ec2-attributes) を含む、お客様の環境に関する多くの詳細情報を収集します。 + The agent collects many details about your environment as part of its [default attributes](/docs/default-infrastructure-events-attributes), including [Amazon Elastic Compute Cloud (Amazon EC2) tags](/docs/default-infrastructure-events-attributes#aws-ec2-attributes).
- YMLオプション名 + YML option name @@ -3107,15 +3107,15 @@ translationType: machine - マップ\[文字列]インターフェース{}。 + map\[string]interface{}
- カスタム属性のリストを使用して、このエージェントインスタンスからのデータに注釈を付けます。 `KEY: VALUE`のように、キーと値をコロン`:`で区切り、各キーと値のペアを改行で区切ります。キーは、スラッシュ`/`を除く任意の有効なYAMLにすることができます。値は、スペースを含む任意のYAML文字列にすることができます。 + Use a list of custom attributes to annotate the data from this agent instance. Separate keys and values with colons `:`, as in `KEY: VALUE`, and separate each key-value pair with a line break. Keys can be any valid YAML except slashes `/`. Values can be any YAML string, including spaces. - YAML属性の例。 + Example as a YAML attribute: ```yml custom_attributes: @@ -3124,13 +3124,13 @@ translationType: machine team: alpha-team ``` - 環境変数としての例 + Example as an environment variable: ```ini NRIA_CUSTOM_ATTRIBUTES='{"customAttribute_1":"SOME_ATTRIBUTE","customAttribute_2": "SOME_ATTRIBUTE_2"}' ``` - NRQL の例では、カスタム属性によるフィルタリングを行っています。 + NRQL example filtering by custom attribute: ```sql FROM SystemSample SELECT * WHERE environment = 'production' @@ -3140,27 +3140,27 @@ translationType: machine - インフラストラクチャエージェントのバージョン1.12.0以上が必要です。2020年7月20日以前に作成されたアカウントや、新しいガイド付きインストールを使用してインストールされたインフラストラクチャエージェントは、デフォルトでこの変数が有効になっています。 + Requires infrastructure agent version 1.12.0 or higher. Accounts created before July 20, 2020 and/or infrastructure agents installed using the new Guided Install have this variable enabled by default. - [プロセスメトリクス](/attribute-dictionary/?event=ProcessSample) の New Relic への送信を有効にします。 + Enables the sending of [process metrics](/attribute-dictionary/?event=ProcessSample) to New Relic. - デフォルトでは、インフラストラクチャエージェントはオペレーティングシステムのプロセスに関するデータを送信しません。 `metrics_process_sample_rate`が`-1`に設定されていない限り、エージェントは引き続きそのようなデータを収集します。 + By default, the infrastructure agent doesn't send data about the operating system's processes. The agent still collects such data, unless `metrics_process_sample_rate` is set to `-1`. - すべてのオペレーティングシステムのプロセスに関するメトリックデータをレポートするには、 `enable_process_metrics`を`true`に設定します。無効にするには、 `false`に設定します。 + To report metric data about all the operating system's processes, set `enable_process_metrics` to `true`. To disable, set to `false`. - すべてのプロセスデータを送信すると、NewRelicに送信されるデータの量が増える可能性があります。監視するプロセスを微調整するには、 [`include_matching_metrics`](#include-matching-metrics)を構成します。 + Sending all process data could increase the volume of data sent to New Relic. To fine-tune which processes you want to monitor, configure [`include_matching_metrics`](#include-matching-metrics). - デフォルトでは、低メモリを使用しているプロセスはサンプリングの対象から除外されます。詳しくは、 [disable-zero-mem-process-filter](/docs/infrastructure/install-infrastructure-agent/configuration/infrastructure-agent-configuration-settings#disable-zero-mem-process-filter) をご覧ください。 + By default, processes using low memory are excluded from being sampled. For more information, see [disable-zero-mem-process-filter](/docs/infrastructure/install-infrastructure-agent/configuration/infrastructure-agent-configuration-settings#disable-zero-mem-process-filter).
- YMLオプション名 + YML option name @@ -3192,7 +3192,7 @@ translationType: machine - ブール値 + boolean @@ -3211,14 +3211,14 @@ translationType: machine title="include_matching_metrics" > - 現在のところ、この設定はオペレーティングシステムのプロセスメトリクスにのみ適用されます。 + Currently, this setting only applies to an operating system's processes metrics. - `include_matching_metrics`を設定することで、New Relicに送信されるデータの量を制御できます。これにより、メトリック[属性](/docs/query-your-data/nrql-new-relic-query-language/nrql-query-tutorials/query-infrastructure-dimensional-metrics-nrql#naming-conventions)の値に基づいてメトリックデータの送信を制限できます。 + You can control how much data is sent to New Relic by configuring `include_matching_metrics`, which allows you to restrict the transmission of metric data based on the values of metric [attributes](/docs/query-your-data/nrql-new-relic-query-language/nrql-query-tutorials/query-infrastructure-dimensional-metrics-nrql#naming-conventions). - メトリックの属性のいずれかにリテラル値または部分値を定義することにより、メトリックデータを含めます。たとえば、 `process.name`が`^java`[正規表現](https://github.com/google/re2/wiki/Syntax)と一致するすべてのプロセスの`host.process.cpuPercent`を送信するように選択できます。 + You include metric data by defining literal or partial values for any of the attributes of the metric. For example, you can choose to send the `host.process.cpuPercent` of all processes whose `process.name` match the `^java` [regular expression](https://github.com/google/re2/wiki/Syntax). - この例では、実行ファイルと名前を使ってプロセスメトリクスを含めています。 + In this example, we include process metrics using executable files and names: ```yml include_matching_metrics: # You can combine attributes from different metrics @@ -3229,9 +3229,9 @@ translationType: machine - regex "\\System32\\svchost" # Include all svchost executables ``` - いずれかの値にコマンドライン引数を含める必要がある場合は、 [`strip_command_line`](#strip-command-line)をfalseに設定します(インフラストラクチャエージェントは、シークレットが漏洩しないように、デフォルトでCLI引数を削除します)。 + If you need to include command line arguments in any of the values, set [`strip_command_line`](#strip-command-line) to false (the infrastructure agents removes CLI arguments by default to prevent secrets from leaking). - `include_matching_metrics` [Kubernetes 統合](/docs/integrations/kubernetes-integration)の環境変数として構成するには、それを `env:` オブジェクト内のマニフェストに追加します。 + To configure `include_matching_metrics` as an environment variable for the [Kubernetes integration](/docs/integrations/kubernetes-integration), add it in the manifest inside the `env:` object: ```yml env: @@ -3250,7 +3250,7 @@ translationType: machine
- YMLオプション名 + YML option name @@ -3284,11 +3284,11 @@ translationType: machine metric.attribute: - \- regex"パターン" + \- regex "pattern" - \-"文字列" + \- "string" - \-"文字列-ワイルドカード\*付き" + \- "string-with-wildcard\*" @@ -3302,27 +3302,27 @@ translationType: machine - ネットワーク・インターフェース・フィルター設定を使用すると、使用していないネットワーク・インターフェースや興味のないネットワーク・インターフェースをインフラストラクチャ・エージェントから隠すことができます。これにより、リソースの使用、作業、データのノイズを減らすことができます。 + You can use the network interface filters configuration to hide unused or uninteresting network interfaces from the infrastructure agent. This helps reduce resource usage, work, and noise in your data. - この設定では、環境変数はサポートされていません。 + Environment variables are not supported for this configuration setting. - この設定では、シンプルなパターンマッチングメカニズムを使用しており、いずれかのパターンに続く特定の文字または数字のシーケンスで始まるインターフェースを探すことができます。 + The configuration uses a simple pattern-matching mechanism that can look for interfaces that start with a specific sequence of letters or numbers following either pattern: - * `{name}[other characters]`、ここで`prefix`オプションを使用して名前を指定します + * `{name}[other characters]`, where you specify the name using the `prefix` option - * `[number]{name}[other characters]`、ここで`index-1`オプションを使用して名前を指定します + * `[number]{name}[other characters]`, where you specify the name using the `index-1` option - New Relic のインフラでは、厳選されたデフォルトのフィルターリストが実装されており、 [Linux](#filters-linux) と [Windows](#filters-windows) の両方で利用でき、お客様が変更することも可能です。 + New Relic infrastructure implements a curated default list of filters, available for both [Linux](#filters-linux) and [Windows](#filters-windows), that you can modify.
- YMLオプション名 + YML option name @@ -3350,11 +3350,11 @@ translationType: machine - 対応していません + サポートされていない - マップ\[文字列]\[]文字列 + map\[string]\[]string @@ -3372,13 +3372,13 @@ translationType: machine id="filters-linux" title="Linux" > - Linuxのデフォルトのネットワークインターフェイスフィルタ。 + Default network interface filters for Linux: - * `dummy` 、 `lo` 、 `vmnet` 、 `sit` 、 `tun` 、 `tap` 、または `veth` + * Network interfaces that start with `dummy`, `lo`, `vmnet`, `sit`, `tun`, `tap`, or `veth` - * `tun`またはを含むネットワークインターフェース `tap` + * Network interfaces that contain `tun` or `tap` - 次の例(構成ファイルに追加)は、デフォルトのフィルターをオーバーライドします。これは、 `dummy`または`lo`で始まる、または一連の数字が前に続き、他の文字が続く`tun`を含むネットワークインターフェイスを無視します。 + The following example (added to your configuration file) overrides the default filters. This will ignore network interfaces that start with `dummy` or `lo` , or contain `tun` preceded by a sequence of numbers, and followed by other characters: ```yml network_interface_filters: @@ -3393,13 +3393,13 @@ translationType: machine - Windowsのデフォルトのネットワークインターフェイスフィルタ。 + Default network interface filters for Windows: - * `Loop` 、 `isatap` 、またはで始まるネットワークインターフェイス `Local` + * Network interfaces that start with `Loop`, `isatap`, or `Local` - 次の例(構成ファイルに追加)は、デフォルトのフィルターをオーバーライドします。これは、 `Loop`で始まるネットワークインターフェースを無視します: + The following example (added to your configuration file) overrides the default filters. This will ignore network interfaces that start with `Loop`: ```yml network_interface_filters: @@ -3413,15 +3413,15 @@ translationType: machine - `ZeroRSSFilter`は、メモリを使用していないプロセスをサンプリングから除外します。フィルタを無効にして、エージェントがこれらのプロセスを`ProcessSample`に含めるようにします。 + The `ZeroRSSFilter` excludes processes that are not using memory from being sampled. Disable the filter so that the agent includes these processes in the `ProcessSample`.
- YMLオプション名 + YML option name @@ -3453,7 +3453,7 @@ translationType: machine - ブール値 + boolean @@ -3469,25 +3469,25 @@ translationType: machine -## プラグインの変数 +## Plugins variables - [`DisableAllPlugins`](#disable-all-plugins)を`true`に設定することですべての変数をすばやく無効にし、必要なオプションのみをオンにすることができます。 + You can quickly disable all the variables by setting [`DisableAllPlugins`](#disable-all-plugins) to `true`, and turn on only those options you need. - すべてのプラグインを無効にするには、このオプションを`true`に設定します。 + To disable all the plugins, set this option to `true`.
- YMLオプション名 + YML option name @@ -3519,7 +3519,7 @@ translationType: machine - ブール値 + boolean @@ -3537,19 +3537,19 @@ translationType: machine - `CloudSecurityGroups`プラグインのサンプリング期間(秒単位)。最小値は`30`です。無効にするには、 `-1`に設定します。 + Sampling period for the `CloudSecurityGroups` plugin, in seconds. The minimum value is `30`. To disable it, set it to `-1`. - このプラグインは、エージェントがAWSインスタンスで動作している場合にのみ有効です。 + This plugin is activated only if the agent is running in an AWS instance.
- YMLオプション名 + YML option name @@ -3601,13 +3601,13 @@ translationType: machine id="daemontools-interval-sec" title="daemontools_interval_sec" > - `Daemontools`プラグインのサンプリング期間(秒単位)。最小値は`10`です。無効にするには、 `-1`に設定します。 + Sampling period for the `Daemontools`plugin, in seconds. The minimum value is a `10`. To disable it, set it to `-1`.
- YMLオプション名 + YML option name @@ -3659,17 +3659,17 @@ translationType: machine id="dpkg-interval-sec" title="dpkg_interval_sec" > - `Dpkg`プラグインのサンプリング期間(秒単位)。最小値は`30`です。無効にするには、 `-1`に設定します。パラメータが設定ファイルで明示的に設定されていない場合は、 [`DisableAllPlugins`](#disable-all-plugins)を`true`に設定することで無効にできます。 + Sampling period for the `Dpkg` plugin, in seconds. The minimum value is `30`. To disable it, set it to `-1`. If the parameter is not explicitly set in the config file, it can be disabled by setting [`DisableAllPlugins`](#disable-all-plugins) to `true`. - これは、 [`root`または`privileged`実行モード](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes)および[Debianベースのディストリビューション](/docs/infrastructure/new-relic-infrastructure/installation/install-infrastructure-linux#debian-based-root)でのみアクティブになります。 + This is only activated in [`root` or `privileged` running modes](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes) and on [Debian-based distributions](/docs/infrastructure/new-relic-infrastructure/installation/install-infrastructure-linux#debian-based-root).
- YMLオプション名 + YML option name @@ -3719,15 +3719,15 @@ translationType: machine - `Facter`プラグインのサンプリング期間(秒単位)。最小値は`30`です。無効にするには、 `-1`に設定します。 + Sampling period for the `Facter` plugin, in seconds. The minimum value is `30`. To disable it, set it to `-1`.
- YMLオプション名 + YML option name @@ -3777,19 +3777,19 @@ translationType: machine - `KernelModules`プラグインのサンプリング期間(秒単位)。最小値は`10`です。無効にするには、 `-1`に設定します。 + Sampling period for the `KernelModules` plugin, in seconds. The minimum value is `10`. To disable it, set it to `-1`. - `kernel_modules_refresh_sec` [`root`または`privileged`実行モード](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes)でのみアクティブになります。 + `kernel_modules_refresh_sec` is only activated in [`root` or `privileged` running modes](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes).
- YMLオプション名 + YML option name @@ -3839,15 +3839,15 @@ translationType: machine - `NetworkInterface`プラグインのサンプリング期間(秒単位)。最小値は`30`です。無効にするには、 `-1`に設定します。 + Sampling period for the `NetworkInterface` plugin, in seconds. The minimum value is `30`. To disable it, set it to `-1`.
- YMLオプション名 + YML option name @@ -3899,17 +3899,17 @@ translationType: machine id="rpm-interval-sec" title="rpm_interval_sec" > - `Rpm`プラグインのサンプリング期間(秒単位)。最小値は`30`です。無効にするには、 `-1`に設定します。 + Sampling period for the `Rpm` plugin, in seconds. The minimum value is `30`. To disable it, set it to `-1`. - `rpm_interval_sec` エージェントがRedHat、RedHat AWS、またはSUSEディストリビューションの[ルートモードまたは特権モード](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes)で実行されている場合にのみアクティブになります。 + `rpm_interval_sec` is only activated when the agent runs in [root or privileged modes](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes) for RedHat, RedHat AWS, or SUSE distributions.
- YMLオプション名 + YML option name @@ -3961,17 +3961,17 @@ translationType: machine id="selinux-interval-sec" title="selinux_interval_sec" > - `SELinux`プラグインのサンプリング期間(秒単位)。最小値は`30`です。無効にするには、 `-1`に設定します。 `SelinuxEnableSemodule`がfalseに設定されている場合、このオプションは無視されます。詳細について[は、 `SELinux`モジュールの無効化](/docs/infrastructure/new-relic-infrastructure/troubleshooting/reduce-infrastructure-agents-cpu-footprint)に関するトラブルシューティングドキュメントを参照してください。 + Sampling period for the `SELinux` plugin, in seconds. The minimum value is `30`. To disable it, set it to `-1`. This option is ignored if `SelinuxEnableSemodule` is set to false. For more information, see our troubleshooting doc on [disabling the `SELinux` module](/docs/infrastructure/new-relic-infrastructure/troubleshooting/reduce-infrastructure-agents-cpu-footprint). - `SELinux` エージェントが[ルートモード](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes)で実行されている場合にのみアクティブになります。 + `SELinux` is only activated when the agent runs in [root mode](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes).
- YMLオプション名 + YML option name @@ -4023,13 +4023,13 @@ translationType: machine id="sshd-config-refresh-sec" title="sshd_config_refresh_sec" > - `Sshd`プラグインのサンプリング期間(秒単位)。最小値は`10`です。無効にするには、 `-1`に設定します。 + Sampling period for the `Sshd` plugin, in seconds. The minimum value is `10`. To disable it, set it to `-1`.
- YMLオプション名 + YML option name @@ -4079,15 +4079,15 @@ translationType: machine - `Supervisor`プラグインのサンプリング期間(秒単位)。最小値は`10`です。無効にするには、 `-1`に設定します。 + Sampling period for the `Supervisor` plugin, in seconds. The minimum value is `10`. To disable it, set it to `-1`.
- YMLオプション名 + YML option name @@ -4139,13 +4139,13 @@ translationType: machine id="sysctl-interval-sec" title="sysctl_interval_sec" > - `Sysctl`プラグインのサンプリング期間(秒単位)。最小値は`30`です。無効にするには、 `-1`に設定します。 + Sampling period for the `Sysctl` plugin, in seconds. The minimum value is `30`. To disable it, set it to `-1`.
- YMLオプション名 + YML option name @@ -4197,13 +4197,13 @@ translationType: machine id="systemd-interval-sec" title="systemd_interval_sec" > - `Systemd`プラグインのサンプリング期間(秒単位)。最小値は`10`です。無効にするには、 `-1`に設定します。 + Sampling period for the `Systemd` plugin, in seconds. The minimum value is `10`. To disable it, set it to `-1`.
- YMLオプション名 + YML option name @@ -4255,13 +4255,13 @@ translationType: machine id="sysvinit-interval-sec" title="sysvinit_interval_sec" > - `sysv`プラグインのサンプリング期間(秒単位)。最小値は`10`です。無効にするには、 `-1`に設定します。 + Sampling period for the `sysv` plugin, in seconds. The minimum value is `10`. To disable it, set it to `-1`.
- YMLオプション名 + YML option name @@ -4313,13 +4313,13 @@ translationType: machine id="upstart-interval-sec" title="upstart_interval_sec" > - `Upstart`プラグインのサンプリング期間(秒単位)。最小値は`10`です。無効にするには、 `-1`に設定します。 + Sampling period for the `Upstart` plugin, in seconds. The minimum value is `10`. To disable it, set it to `-1`.
- YMLオプション名 + YML option name @@ -4371,13 +4371,13 @@ translationType: machine id="users-refresh-sec" title="users_refresh_sec" > - `Users`プラグインのサンプリング期間(秒単位)。最小値は`10`です。無効にするには、 `-1`に設定します。 + Sampling period for the `Users` plugin, in seconds. The minimum value is `10`. To disable it, set it to `-1`.
- YMLオプション名 + YML option name @@ -4429,13 +4429,13 @@ translationType: machine id="supervisor-rpc-sock" title="supervisor_rpc_sock" > - [スーパーバイザー](http://www.supervisord.org/) のソケットの位置。 + Location of the [supervisor](http://www.supervisord.org/) socket.
- YMLオプション名 + YML option name @@ -4467,7 +4467,7 @@ translationType: machine - ストリング + 文字列 @@ -4485,15 +4485,15 @@ translationType: machine - [Puppet'sFacter](https://puppet.com/docs/puppet/latest/puppet_index.html)の`HOME`環境変数を設定します。定義されていない場合、デフォルトで現在のユーザーのホームディレクトリになります。 + Sets the `HOME` environment variable for [Puppet's Facter](https://puppet.com/docs/puppet/latest/puppet_index.html). If not defined, it defaults to the current user's home directory.
- YMLオプション名 + YML option name @@ -4525,7 +4525,7 @@ translationType: machine - ストリング + 文字列 @@ -4539,9 +4539,9 @@ translationType: machine -## 代理変数 +## Proxy variables -インフラストラクチャーエージェントのバージョン1.3.1以降では、プロキシ設定の優先順位が +For infrastructure agent version 1.3.1 or higher, the precedence of the proxy configuration settings is: * `NRIA_PROXY` * `proxy` @@ -4554,13 +4554,13 @@ translationType: machine id="proxy" title="proxy" > - お使いのシステムには、エージェントがプロキシを使用して New Relic と通信することを要求するファイアウォール ルールがある場合があります。その場合、プロキシ URL を https://user:password@hostname:port の形式で設定します。 HTTP または HTTPS にすることができます。 + Your system may have firewall rules that require the agent to use a proxy to communicate with New Relic. If so, set the proxy URL in the form https://user:password@hostname:port. It can be HTTP or HTTPS.
- YMLオプション名 + YML option name @@ -4592,11 +4592,11 @@ translationType: machine - ストリング + 文字列 - エンプティ + Empty @@ -4606,7 +4606,7 @@ translationType: machine
- 例: + 例: ``` https://proxy_user:access_10@proxy_01:1080 @@ -4618,13 +4618,13 @@ translationType: machine id="ignore-system-proxy" title="ignore_system_proxy" > - `true`に設定すると、 `HTTPS_PROXY`および`HTTP_PROXY`環境変数は無視されます。これは、エージェントがメトリックコレクターに直接接続し、既存のシステムプロキシをスキップする必要がある場合に役立ちます。 + When set to `true`, the `HTTPS_PROXY` and `HTTP_PROXY` environment variables are ignored. This is useful when the agent needs to connect directly to the metrics collector and skip the existing system proxy.
- YMLオプション名 + YML option name @@ -4656,7 +4656,7 @@ translationType: machine - ブール値 + boolean @@ -4674,15 +4674,15 @@ translationType: machine - `HTTPS_PROXY`オプションが自己署名証明書を持つプロキシを参照している場合、このオプションは、プロキシ証明書が使用可能なディレクトリへのパスを指定します。ディレクトリ内の証明書は、 `.pem`拡張子で終わる必要があります。 + If the `HTTPS_PROXY` option references to a proxy with self-signed certificates, this option specifies the path to the the directory where the proxy certificate is available. The certificates in the directory must end with the `.pem` extension.
- YMLオプション名 + YML option name @@ -4714,7 +4714,7 @@ translationType: machine - ストリング + 文字列 @@ -4730,15 +4730,15 @@ translationType: machine - `HTTPS_PROXY`オプションが自己署名証明書を持つプロキシを参照している場合、このオプションは証明書ファイルへのパスを指定します。 + If the `HTTPS_PROXY` option references to a proxy with self-signed certificates, this option specifies the path to the certificate file.
- YMLオプション名 + YML option name @@ -4770,7 +4770,7 @@ translationType: machine - ストリング + 文字列 @@ -4786,19 +4786,19 @@ translationType: machine - `true`に設定されている場合、プロキシがHTTPS接続を使用するように構成されていると、次の場合にのみ機能します。 + If set to `true`, when the proxy is configured to use an HTTPS connection, it will only work: - * HTTPS プロキシに有効な認証局からの証明書がある場合。 + * If the HTTPS proxy has certificates from a valid Certificate Authority. - * `ca_bundle_file`または`ca_bundle_dir`構成プロパティにHTTPSプロキシ証明書が含まれている場合。 + * If the `ca_bundle_file` or `ca_bundle_dir` configuration properties contain the HTTPS proxy certificates.
- YMLオプション名 + YML option name @@ -4830,7 +4830,7 @@ translationType: machine - ブール値 + boolean @@ -4850,7 +4850,7 @@ translationType: machine id="proxy-config-plugin" title="proxy_config_plugin" > - 以下のプロキシ設定情報をインベントリとして送信します。 + Sends the following proxy configuration information as inventory: * `HTTPS_PROXY` @@ -4868,7 +4868,7 @@ translationType: machine
- YMLオプション名 + YML option name @@ -4900,7 +4900,7 @@ translationType: machine - ブール値 + boolean @@ -4916,9 +4916,9 @@ translationType: machine -プロキシの設定に問題がある場合は、 [プロキシのトラブルシューティング](/docs/infrastructure/new-relic-infrastructure/troubleshooting/https-proxy-configuration-missing) を参照してください。 +If you are having problems with proxy configuration, see [Proxy troubleshooting](/docs/infrastructure/new-relic-infrastructure/troubleshooting/https-proxy-configuration-missing). -## サンプル変数 +## Samples variables - ネットワークサンプルのサンプルレート(秒単位)。最小値は`10`です。無効にするには、 `-1`に設定します。 + Sample rate of network samples, in seconds. Minimum value is `10`. To disable it, set it to `-1`.
- YMLオプション名 + YML option name @@ -4982,15 +4982,15 @@ translationType: machine - プロセスサンプルのサンプルレート(秒単位)。最小値は`20`です。プロセスサンプルを完全に無効にするには、 `metrics_process_sample_rate`を`-1`に設定します。 + Sample rate of process samples, in seconds. Minimum value is `20`. To disable process samples entirely, set `metrics_process_sample_rate` to `-1`.
- YMLオプション名 + YML option name @@ -5040,15 +5040,15 @@ translationType: machine - ストレージサンプルのサンプルレート(秒単位)。最小値は`5`です。無効にするには、 `-1`に設定します。 + Sample rate of storage samples, in seconds. Minimum value is `5`. To disable it, set it to `-1`.
- YMLオプション名 + YML option name @@ -5098,15 +5098,15 @@ translationType: machine - システムサンプルのサンプルレート(秒単位)。最小値は`5`です。無効にするには、 `-1`に設定します。 + Sample rate of system samples, in seconds. Minimum value is `5`. To disable it, set it to `-1`.
- YMLオプション名 + YML option name @@ -5156,15 +5156,15 @@ translationType: machine - NFSストレージサンプルのサンプルレート(秒単位)。最小値は`5`です。無効にするには、 `-1`に設定します。 + Sample rate of NFS storage samples, in seconds. Minimum value is `5`. To disable it, set it to `-1`.
- YMLオプション名 + YML option name @@ -5214,15 +5214,15 @@ translationType: machine - 詳細な NFS メトリクス。有効にすると、エージェントは NFS メトリクスの完全なリストを提供します。 + Detailed NFS metrics. When enabled, the agent will provide a complete list of NFS metrics.
- YMLオプション名 + YML option name @@ -5254,7 +5254,7 @@ translationType: machine - ブール値 + boolean @@ -5269,11 +5269,11 @@ translationType: machine
- ## NTP オフセット変数 + ## NTP Offset variables - `ntp_metrics` 時間オフセット メトリックを構成するために使用されるキーと値のマップです。有効にして NTP ホスト リストが提供されている場合、エージェントはホストの `ntp offset` メトリクスを秒単位で提供します。この値は、提供された NTP ホスト プールに対して `interval` 分ごとにチェックされます (デフォルトおよび最小値は 15 分です)。間隔の間に、最後の既知のオフセットが報告されます。報告されたオフセットが数秒を超える場合、アラート条件、NRQL クエリ、ダッシュボードのデータ ギャップに関する問題が発生する可能性があります。 + `ntp_metrics` is a key-value map used to configure the time offset metric. When enabled and an NTP Hosts list is provided, the agent will provide the host's `ntp offset` metric (in seconds). This value is checked against the provided NTP hosts pool every `interval` minutes (the default and the minumum value is 15 minutes). Between intervals, the last known offset is reported. If the reported offset is greater than few seconds it can cause issues with alert conditions, NRQL queries and data gaps in dashboards. - YAML属性の例。 + Example as a YAML attribute: ```yml ntp_metrics: @@ -5285,7 +5285,7 @@ translationType: machine timeout: 10 ``` - 環境変数としての例 + Example as an environment variable: ```ini NRIA_NTP_METRICS_POOL='time.cloudflare.com,time.google.com' @@ -5299,13 +5299,13 @@ translationType: machine id="ntp-enabled" title="ntp_metrics.enabled" > - NTP オフセット メトリックを有効/無効にするフラグ。 + Flag to enable/disable the NTP Offset metric.
- YMLオプション名 + YML option name @@ -5337,7 +5337,7 @@ translationType: machine - ブール値 + boolean @@ -5357,13 +5357,13 @@ translationType: machine id="ntp-pool" title="ntp_metrics.pool" > - 照会する NTP ホストのリストを定義します。複数のホストが定義されている場合、それらすべてが照会され、レポートされるメトリックはそれらの間の平均値になります。 + Defines list of NTP Hosts to query. When multiple hosts are defined, all of them will be queried and the reported metrics will be the average value between them.
- YMLオプション名 + YML option name @@ -5395,11 +5395,11 @@ translationType: machine - \[]文字列 + \[]string - 空の。[公開 NTP サーバー](https://timetoolsltd.com/information/public-ntp-server/)を確認してください。 + Empty. Check out the [public NTP servers](https://timetoolsltd.com/information/public-ntp-server/). @@ -5415,13 +5415,13 @@ translationType: machine id="ntp-interval" title="ntp_metrics.interval" > - 提供されたプールから NTP オフセットを要求する間隔を分単位で定義します。 + Defines the interval in minutes to request NTP Offset from the provided pool.
- YMLオプション名 + YML option name @@ -5473,13 +5473,13 @@ translationType: machine id="ntp-timeout" title="ntp_metrics.timeout" > - NTP ホストに対する要求のタイムアウトを秒単位で定義します。 + Defines the timeout in seconds for the requests made to the NTP hosts.
- YMLオプション名 + YML option name @@ -5527,7 +5527,7 @@ translationType: machine -## セキュリティ変数 +## Security variables - SEModule を使用してインストールされたポリシーモジュールのバージョンを取得します。無効にした場合、SELinuxプラグインはSEStatusを使ってステータスを取得するだけです。 + Get versions of policy modules installed using SEModule. If disabled, the SELinux plugin will only retrieve the status using SEStatus.
- YMLオプション名 + YML option name @@ -5573,7 +5573,7 @@ translationType: machine - ブール値 + boolean @@ -5591,19 +5591,19 @@ translationType: machine - `true`の場合、エージェントは`ProcessSample`の`commandLine`属性からコマンド引数を削除します。 + When `true`, the agent removes the command arguments from the `commandLine` attribute of the `ProcessSample`. - これは、機密情報の漏洩を防ぐためのセキュリティ対策です。 + This is a security measure to prevent leaking sensitive information.
- YMLオプション名 + YML option name @@ -5635,7 +5635,7 @@ translationType: machine - ブール値 + boolean @@ -5651,17 +5651,17 @@ translationType: machine -## ステータスエンドポイント変数 +## Status endpoint variables - ローカルの正常性情報を提供するエージェント上のステータス サーバーを有効にします。利用可能なエンドポイントは次のとおりです。 + Enables the status server on the agent providing local health information. The available endpoints are: - メイン ステータス エンドポイントの例 (エラーなし): + Main status endpoint example (with no errors): ```bash curl http://localhost:8003/v1/status @@ -5692,7 +5692,7 @@ translationType: machine } ``` - メイン ステータス エンドポイント (エラーあり): + Main status endpoint (with errors): ```bash curl http://localhost:8003/v1/status @@ -5724,7 +5724,7 @@ translationType: machine } ``` - エラーエンドポイントの例: + Errors endpoint example: ```bash curl http://localhost:18003/v1/status/errors @@ -5744,9 +5744,9 @@ translationType: machine } ``` - これはメイン ステータス エンドポイントに似ていますが、エラーのあるエンドポイントのみをフィルターします。 + This is similar to the main status endpoint but filtering those with errors only. - エンティティエンドポイントの例: + Entity endpoint example: ```bash curl http://localhost:8003/v1/status/entity @@ -5756,13 +5756,13 @@ translationType: machine } ``` - エージェント/ホスト エンティティに関する情報を返します。エージェントがエージェント/ホスト エンティティに関する情報をまだ持っていない場合、応答ステータス コード_204_ (「コンテンツなし」) が返されます。したがって、エージェントがエンティティ データを提供するまでに、いくつかのリクエストが必要になる場合があります。 + Returns information about the agent/host entity. A response status code _204_ ("No Content") will be returned when the agent still has no information about the agent/host entity. Therefore, it may take several requests to until the agent provides entity data.
- YMLオプション名 + YML option name @@ -5794,7 +5794,7 @@ translationType: machine - ブール値 + boolean @@ -5812,15 +5812,15 @@ translationType: machine - ステータス サーバー エンドポイントのポートを定義します。 + Defines the port for the status server endpoint.
- YMLオプション名 + YML option name @@ -5868,7 +5868,7 @@ translationType: machine -## Windows変数 +## Windows variables - Windowsサービスプラグインのサンプリング期間(秒単位)。最小値は`10`です。無効にするには、 `-1`に設定します。 + Sampling period for the Windows services plugin, in seconds. The minimum value is `10`. To disable it, set it to `-1`.
- YMLオプション名 + YML option name @@ -5934,13 +5934,13 @@ translationType: machine id="windows-updates-refresh-sec" title="windows_updates_refresh_sec" > - Windows Updateプラグインのサンプリング期間(秒単位)。最小値は`10`です。無効にするには、 `-1`に設定します。 + Sampling period for the Windows updates plugin, in seconds. The minimum value is `10`. To disable it, set it to `-1`.
- YMLオプション名 + YML option name @@ -5992,19 +5992,19 @@ translationType: machine id="app-data-dir" title="app_data_dir" > - データをプログラムファイルのディレクトリとは別のパスに格納することを定義します。 + Defines the path to store data in a different path than the program files directory: - * `%AppDir%/data`:デルタデータの保存に使用されます + * `%AppDir%/data`: Used for storing the delta data - * `%AppDir%/user_data`:ユーザーが生成したJSONファイルの外部ディレクトリ + * `%AppDir%/user_data`: External directory for user-generated JSON files - * `%AppDir%/newrelic-infra.log`:ログファイル設定オプションが定義されていない場合は、このディレクトリパスをデフォルトとして使用します。 + * `%AppDir%/newrelic-infra.log`: If log file config option is not defined, then we use this directory path as default.
- YMLオプション名 + YML option name @@ -6036,13 +6036,13 @@ translationType: machine - ストリング + 文字列 - ウィンドウズ: `env(ProgramData)\New Relic\newrelic-infra` + Windows: `env(ProgramData)\New Relic\newrelic-infra` - Linux: 適用されません + Linux: Not applicable @@ -6056,15 +6056,15 @@ translationType: machine - ホストにインストールされているHotfixの一覧を取得するWindows Updateプラグインを有効にします。 + Enables the Windows updates plugin, which retrieves the lists of hotfixes that are installed on the host.
- YMLオプション名 + YML option name @@ -6096,7 +6096,7 @@ translationType: machine - ブール値 + boolean @@ -6114,15 +6114,15 @@ translationType: machine - `true`の場合、エージェントはWindows WMI(Windowsのメトリックを取得するためのエージェントのレガシーメソッド。たとえば、 `StorageSampler` )を使用するように強制され、新しいメソッド(PDHライブラリを使用する)を無効にします。 + If `true`, the agent will be forced to use Windows WMI (the agent's legacy method to grab metrics for Windows; for example, `StorageSampler`) and will disable the new method (which uses the PDH library).
- YMLオプション名 + YML option name @@ -6154,7 +6154,7 @@ translationType: machine - ブール値 + boolean @@ -6172,7 +6172,7 @@ translationType: machine id="win-process-priority-class" title="win_process_priority_class" > - この設定オプションを使用すると、 `newrelic-infra.exe`プロセスの優先度を次のいずれかの値に上げることができます。 + This configuration option allows to increase the `newrelic-infra.exe` process priority to any of the following values: * `Normal` @@ -6190,7 +6190,7 @@ translationType: machine
- YMLオプション名 + YML option name @@ -6222,7 +6222,7 @@ translationType: machine - ストリング + 文字列 @@ -6234,7 +6234,7 @@ translationType: machine
- 例: + 例: ``` Normal @@ -6246,13 +6246,13 @@ translationType: machine id="win-removable-drives" title="win_removable_drives" > - リムーバブルドライブとしてマップされている場合、Windowsエージェントがドライブ`A:`および`B:`を報告できるようにします。 + Enables the Windows agent to report drives `A:` and `B:` when they are mapped as removable drives.
- YMLオプション名 + YML option name @@ -6284,7 +6284,7 @@ translationType: machine - ブール値 + boolean @@ -6304,13 +6304,13 @@ translationType: machine id="wmi_proc_data" title="wmi_proc_data" > - true に設定すると、WMI からプロセス情報を取得し、制限された環境でのクエリ アクセス チェックをスキップします。 + If you set it to true, you'll get process information from WMI and you'll skip the query access check on a restricted environment. diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic.mdx index 116c894948b..8cb97091219 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic.mdx @@ -107,7 +107,7 @@ Prometheusサーバーをすでにお持ちの場合、リモート書き込み ## Kubernetes用のPrometheusエージェント [#Agent] -New RelicのPrometheusエージェントを使用すると、KubernetesクラスタからPrometheusメトリクスを簡単に抽出できます。サービスディスカバリーとKubernetesラベルを活用することで、最も一般的なワークロードのメトリクス、ダッシュボード、アラートに即座にアクセスできます。 +New RelicのPrometheusエージェントを使用すると、KubernetesクラスタからPrometheusメトリクスを簡単に抽出できます。サービスディスカバリーとKubernetesラベルを活用することで、最も一般的なワークロードのメトリクス、ダッシュボード、に即座にアクセスできます。 次の2つのモードでPrometheusエージェントをインストールできます。 diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-remote-write/set-your-prometheus-remote-write-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-remote-write/set-your-prometheus-remote-write-integration.mdx index 94d332bf279..859a6efdc8a 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-remote-write/set-your-prometheus-remote-write-integration.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-remote-write/set-your-prometheus-remote-write-integration.mdx @@ -19,15 +19,17 @@ translationType: human kubectl -n YOUR_PROM_NAMESPACE create secret generic nr-license-key --from-literal=value=YOUR_LICENSE_KEY ``` -次に、Prometheus CRD(`kind:Prometheus`)に以下を追加します。 +次に、[Helmチャート](https://github.com/prometheus-community/helm-charts/blob/main/charts/kube-prometheus-stack/values.yaml)の対応するフィールドのPrometheus CRD(`kind:Prometheus`)に以下を追加します。 ``` - remoteWrite: - - url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=YOUR_CLUSTER_NAME - authorization: - credentials: - key: value - name: nr-license-key + prometheus: + prometheusSpec: + remoteWrite: + - url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=YOUR_CLUSTER_NAME + authorization: + credentials: + key: value + name: nr-license-key ``` ## インテグレーションの設定 [#setup] diff --git a/src/i18n/content/jp/docs/logs/forward-logs/aws-lambda-sending-cloudwatch-logs.mdx b/src/i18n/content/jp/docs/logs/forward-logs/aws-lambda-sending-cloudwatch-logs.mdx index 6ab0c2dd365..77ce304e5f4 100644 --- a/src/i18n/content/jp/docs/logs/forward-logs/aws-lambda-sending-cloudwatch-logs.mdx +++ b/src/i18n/content/jp/docs/logs/forward-logs/aws-lambda-sending-cloudwatch-logs.mdx @@ -1,43 +1,41 @@ --- -title: CloudWatchのログを送信するためのAWS Lambda +title: CloudWatchログ送信用のAWS Lambda tags: - Logs - Enable log management in New Relic - Enable log monitoring in New Relic metaDescription: 'Install and configure New Relic logging for AWS Lambda with CloudWatch logs, so you can use enhanced log management capabilities.' freshnessValidatedDate: never -translationType: machine +translationType: human --- -AWS Lambda関数`newrelic-log-ingestion`を使用して、 [AmazonCloudWatchログ](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/WhatIsCloudWatchLogs.html)をNewRelicに送信できます。これは、AWSサーバーレスアプリケーションリポジトリから簡単にデプロイできます。 +AWS Lambda関数`newrelic-log-ingestion`を使用して、New Relicに[Amazon CloudWatchログ](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/WhatIsCloudWatchLogs.html)を送信できます。これは、AWSサーバーレスアプリケーションリポジトリから簡単にデプロイできます。 -CloudWatch ログを New Relic に転送すると、機能が強化されますログ データの収集、処理、探索、クエリ、およびアラートを実行する機能。 +CloudWatchログをNew Relicに転送すると、ログデータの収集、処理、探索、クエリ、アラートを実行する機能が強化されます。 -## CloudWatch ログ Lambda 関数をインストールして設定する [#install-function] +## CloudWatchログでのLambda関数のインストールと設定 [#install-function] -以下の設定は、環境変数を設定するための一つの方法です。 [Functions](https://docs.aws.amazon.com/lambda/latest/dg/configuration-envvars.html) のページからも設定できます。 +次の設定は、環境変数を設定するための1つのアプローチを示しています。[関数](https://docs.aws.amazon.com/lambda/latest/dg/configuration-envvars.html)ページから設定することもできます。 次の項目を完了します。 -1. あなたが持っていることを確認してください +1. - + があることを確認してください。 - . +2. ブラウザで[AWS Serverless Application Repository](https://serverlessrepo.aws.amazon.com/applications)を開きます -2. [AWS Serverless Application Repository](https://serverlessrepo.aws.amazon.com/applications) をブラウザで開きます。 +3. `newrelic`を検索し、**Show apps that create custom IAM roles or resource policies** \[カスタムIAMロールまたはリソースポリシーを作成するアプリを表示する]をオンにして、`newrelic-log-ingestion`を見つけます -3. `newrelic`を検索し、 **\[カスタムIAMロールまたはリソースポリシーを作成するアプリを表示する]をオン**にして、 `newrelic-log-ingestion`を見つけます。 +4. `newrelic-log-ingestion`の詳細を開き、**Deploy**をクリックします。 -4. `newrelic-log-ingestion`の詳細を開き、\[**デプロイ**]をクリックします。 - -5. 機能の **Configure** メニューの **Environment Variables** に進み、以下の環境変数を使ってログフォワーディングを設定します。 +5. 関数の**Configure** \[設定]メニューで**Environment Variables** \[環境変数]に移動し、次の環境変数を使用してログ転送を設定します。
- YMLオプション名 + YML option name @@ -6342,7 +6342,7 @@ translationType: machine - ブール値 + boolean @@ -6358,9 +6358,9 @@ translationType: machine -## HTTPクライアント +## HttpClient -バックエンド通信に使用するHTTPクライアントを構成します。 +Configure the HTTP client used for backend communication. - New Relic バックエンドへのすべてのリクエストに含めるカスタム HTTP ヘッダー。 + Custom HTTP headers to include in all requests to the New Relic backend. ```yml http: @@ -6380,7 +6380,7 @@ translationType: machine
- YMLオプション名 + YML option name @@ -6408,7 +6408,7 @@ translationType: machine - キーと値のマップ + key-value map @@ -6420,10 +6420,10 @@ translationType: machine -## 次は何ですか? +## 次のステップ -もできます。 +You can also: -* さらに理解を深めるために [エージェントの構成](/docs/infrastructure/new-relic-infrastructure/configuration/configure-infrastructure-agent) 。 -* [テンプレートを使用して構成ファイル](https://github.com/newrelic/infrastructure-agent/blob/master/assets/examples/infrastructure/newrelic-infra-template.yml.example)を作成します。 -* [エージェントを管理する方法をご覧ください](/docs/infrastructure/new-relic-infrastructure/configuration/start-stop-restart-check-infrastructure-agent-status) 。 \ No newline at end of file +* Further understand [the configuration of the agent](/docs/infrastructure/new-relic-infrastructure/configuration/configure-infrastructure-agent). +* Create a [configuration file using our template](https://github.com/newrelic/infrastructure-agent/blob/master/assets/examples/infrastructure/newrelic-infra-template.yml.example). +* See how you can [manage the agent](/docs/infrastructure/new-relic-infrastructure/configuration/start-stop-restart-check-infrastructure-agent-status). \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent.mdx b/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent.mdx index 8265bf024f0..708b2fdc6f5 100644 --- a/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent.mdx +++ b/src/i18n/content/jp/docs/infrastructure/install-infrastructure-agent/get-started/install-infrastructure-agent.mdx @@ -1,5 +1,5 @@ --- -title: インフラストラクチャエージェントをインストールします +title: Infrastructureエージェントをインストールする tags: - Infrastructure - Install the infrastructure agent @@ -8,7 +8,7 @@ metaDescription: An overview of installation methods for New Relic's infrastruct signupBanner: text: Monitor and improve your entire stack. 100GB free. Forever. freshnessValidatedDate: never -translationType: machine +translationType: human --- import osAnsibleRed from 'images/os_icon_ansible-red.webp' @@ -23,15 +23,15 @@ import infrastructureAngetsandNr from 'images/infrastructure_diagram_angets-and- import osDocker from 'images/os_icon_docker.webp' -New Relic のインフラストラクチャ監視エージェントは、ホストに関するデータを収集する [軽量の](/docs/infrastructure/new-relic-infrastructure/getting-started/infrastructure-agent-performance-overhead) 実行可能ファイルです。また、 [一部のサードパーティ サービス](/docs/infrastructure/host-integrations/installation/install-infrastructure-host-integrations)からのデータも報告します (有効になっている場合)。また、 [ログ データ](/docs/logs/enable-log-monitoring-new-relic/enable-log-monitoring-new-relic/forward-your-logs-using-infrastructure-agent)も報告します。 +New Relicのinfrastructureモニタリングエージェントは、ホストに関するデータを収集する[軽量](/docs/infrastructure/new-relic-infrastructure/getting-started/infrastructure-agent-performance-overhead)の実行可能ファイルです。また、[一部のサードパーティサービス](/docs/infrastructure/host-integrations/installation/install-infrastructure-host-integrations)からのデータも報告します(有効になっている場合)。また、[ログデータ](/docs/logs/enable-log-monitoring-new-relic/enable-log-monitoring-new-relic/forward-your-logs-using-infrastructure-agent)も報告します。 -インフラストラクチャー・モニタリング・エージェントは、現在、多くのLinuxディストリビューション、Windows、macOS上で動作させることができます。エージェントのインストールとデプロイには、セットアップとニーズに応じて複数の方法があります。このドキュメントでは、インフラストラクチャーモニタリングエージェントの動作とインストール方法について説明します。New Relic のアカウントが必要です。まだお持ちでない方は、 [](https://newrelic.com/signup)を作成し、永久に無料でご利用ください。 +infrastructureモニタリングエージェントは現在、多くのLinuxディストリビューション、Windows、およびmacOS上で実行できます。エージェントをインストールしてデプロイする方法は、セットアップとニーズによって異なります。このドキュメントでは、infrastructureモニタリングエージェントの仕組みとインストール方法について説明します。New Relicアカウントが必要なので、まだアカウントをお持ちでない場合は、[作成してください](https://newrelic.com/signup)。永久無料です。 ## クイック・スタート:ガイド付きインストールを使用 [#quick] -インフラストラクチャ監視エージェントの使用を開始する最も簡単な方法は、ガイド付きインストールを使用することです。ガイド付きインストールでは、インフラストラクチャ エージェントをインストールするだけでなく、環境内のサービスとログ ソースの検出も試行し、どれを計測するかを推奨します。 +Infrastructureモニタリングエージェントを最も迅速に使い始めるには、ガイド付きインストールを使用します。当社のガイド付きインストールでは、infrastructureエージェントをインストールするだけでなく、環境内のサービスとログソースの検出も試行し、どれをインストゥルメントすべきかを推奨します。 -始める準備はできていますか?[New Relic データセンターのリージョン](/docs/accounts/accounts-billing/account-setup/choose-your-data-center)に基づいてボタンをクリックします。 +始める準備はできていますか?[New Relicデータセンターの地域](/docs/accounts/accounts-billing/account-setup/choose-your-data-center)に基づいてボタンをクリックします。 - 米国地域向けのガイド付きインストール + ガイド付きインストール(米国地域) - EU 地域向けのガイド付きインストール + ガイド付きインストール(EU地域) -ガイド付きインストールはほとんどのセットアップで機能します。ただし、ニーズに合わない場合は、 [以下の他の方法](#install)を見つけることができます。 +ガイド付きインストールは、ほとんどの設定と連動します。ただし、ご希望にそえない場合は、[以下の方法](#install)から選択できます。 -エージェントを実行できる場所の詳細については、 [互換性と要件の](/docs/infrastructure/infrastructure-monitoring/get-started/compatibility-requirements-infrastructure-agent) ページを確認してください。 +エージェントを実行できる場所の詳細については、[互換性と要件](/docs/infrastructure/infrastructure-monitoring/get-started/compatibility-requirements-infrastructure-agent)ページを確認してください。 - [New Relic UI](https://one.newrelic.com)を使用してエージェントをインストールする場合、[インフラストラクチャステータスAPI](https://github.com/newrelic/infrastructure-agent/blob/master/docs/status_api.md)はデフォルトで有効になっています。 + [New Relic UI](https://one.newrelic.com)を使用してエージェントをインストールする場合、[インフラストラクチャステータスAPI](https://github.com/newrelic/infrastructure-agent/blob/master/docs/status_api.md)はデフォルトで有効になります。 - New Relic CLI は FedRAMP サーバーをサポートしません。FedRAMP をご利用の場合は、 [Linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux/)または[Windows](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows/)用のインフラストラクチャ エージェントの手動インストール手順を参照してください。 + New Relic CLIはFedRAMPサーバーをサポートしません。FedRAMP顧客の場合は、[Linux](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux/)または[Windows](/docs/infrastructure/install-infrastructure-agent/windows-installation/install-infrastructure-monitoring-agent-windows/)のinfrastructureエージェントマニュアルのインストール手順を参照してください。 -## インフラストラクチャ・モニタリング・エージェントのインストール [#install] +## Infrastructureモニタリングエージェントのインストール [#install] ### Linux [#Linux] -New Relic のアカウントをまだお持ちでない場合は、ガイド付きインストールは機能しません。手動で手続きを行いたい場合は、 [チュートリアル](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux/) をご覧ください。 +New Relicアカウントをまだお持ちでない場合は、ガイド付きインストールは機能しません。この手順を手動で実行する場合は、[チュートリアルを参照してください](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-monitoring-agent-linux/)。 -### ウィンドウズ [#Windows] +### Windows [#Windows] -New Relic のアカウントをお持ちでない場合、ガイド付きインストールは機能しません。MSI インストーラーを使って手動で手順を進めたい場合は、 [チュートリアル](/docs/infrastructure/install-configure-manage-infrastructure/windows-installation/install-infrastructure-windows-server-using-msi-installer) をご覧ください。 +New Relicアカウントをまだお持ちでない場合は、ガイド付きインストールは機能しません。この手順をMSIインストーラを使用して手動で実行する場合は、[チュートリアルを参照してください](/docs/infrastructure/install-configure-manage-infrastructure/windows-installation/install-infrastructure-windows-server-using-msi-installer)。 -### その他のインストールシナリオ [#others] +### その他のインストレーションシナリオ [#others] -インフラストラクチャ・モニタリング・エージェントは、いくつかの設定管理ツールやデプロイツールを使ってプログラム的に導入することができます。 +Infrastructureモニタリングエージェントは、いくつかの設定管理とデプロイツールを使用して、プログラミングでデプロイできます。 * Ansible @@ -87,7 +87,7 @@ New Relic のアカウントをお持ちでない場合、ガイド付きイン * Docker - [Docker ](/docs/infrastructure/install-infrastructure-agent/linux-installation/docker-container-infrastructure-monitoring)(コンテナーとしてインストール) + [Docker](/docs/infrastructure/install-infrastructure-agent/linux-installation/docker-container-infrastructure-monitoring)(コンテナとしてインストール) * EBS @@ -97,15 +97,15 @@ New Relic のアカウントをお持ちでない場合、ガイド付きイン [Puppet](/docs/infrastructure/new-relic-infrastructure/config-management-tools/configure-new-relic-infrastructure-puppet) -インフラストラクチャーは、macOS [にも展開することができます](/docs/infrastructure/install-infrastructure-agent/macos-installation/install-infrastructure-monitoring-agent-macos/) 。 +インフラストラクチャは[macOSでもデプロイ](/docs/infrastructure/install-infrastructure-agent/macos-installation/install-infrastructure-monitoring-agent-macos/)できます。 -## 1つのエージェント、多くの機能 [#overview] +## 1つのエージェントで多くの機能を実現 [#overview] -インフラ監視エージェントは、有効化されたホスト(オンプレミスまたは仮想化)のシステムリソースおよびプロセスに関するパフォーマンスおよびヘルスデータを収集します。同時に、次の2種類のデータのフォワーダーとしても機能します。コアサービスのメトリクスは、 [オンホスト統合](/docs/integrations/host-integrations/getting-started/introduction-host-integrations) 、 [ログ](/docs/logs/enable-log-monitoring-new-relic/enable-log-monitoring-new-relic/forward-your-logs-using-infrastructure-agent) によって収集されます。 +当社のinfrastructureモニタリングエージェントは、それが有効になっているホスト(オンプレミスまたは仮想化)のシステムリソース、プロセスに関するパフォーマンスと正常性のデータを収集します。それと同時に、2種類のデータ、すなわち[オンホストインテグレーション](/docs/integrations/host-integrations/getting-started/introduction-host-integrations)で収集されるコアサービスメトリクスと[ログ](/docs/logs/enable-log-monitoring-new-relic/enable-log-monitoring-new-relic/forward-your-logs-using-infrastructure-agent)のフォワーダーとして機能します。 -ホスト上で実行されているコアサービスに関するデータを収集したい場合は、まず [インフラストラクチャ監視エージェント](#install) をインストールし、次に [オンホスト統合をインストールまたは有効にする](/docs/integrations/host-integrations/installation/install-infrastructure-host-integrations) が必要です。 +ホスト上で実行されているコアサービスに関するデータを収集する場合は、まず[infrastructureモニタリングエージェントをインストール](#install)し、次に[オンホストインテグレーションをインストールまたは有効にする](/docs/integrations/host-integrations/installation/install-infrastructure-host-integrations)必要があります。
- 当社のインフラストラクチャ監視エージェントとその統合により、システムとコアサービスからデータが収集されます。また、 [ログをNewRelicに転送する](/docs/logs/enable-log-monitoring-new-relic/enable-log-monitoring-new-relic/forward-your-logs-using-infrastructure-agent)こともできます。バックエンドアプリケーションメトリック(APM)は、個別[の言語エージェント](/docs/apm/new-relic-apm/getting-started/introduction-apm)によって収集されます。各統合とフォワーダーがNewRelicデータベース(NRDB)の[さまざまなデータ型](/docs/using-new-relic/data/understand-data/new-relic-data-types)にどのようにフィードするかに注目してください。 + 当社のinfrastructureモニタリングエージェントとそのインテグレーションは、システムとコアサービスからデータを収集します。New Relicに[ログ転送](/docs/logs/enable-log-monitoring-new-relic/enable-log-monitoring-new-relic/forward-your-logs-using-infrastructure-agent)できます。バックエンドアプリケーションメトリクス(APM)は、別の[言語エージェント](/docs/apm/new-relic-apm/getting-started/introduction-apm)が収集します。各インテグレーションとフォワーダーがNew Relicデータベース(NRDB)でどのように[異なるデータタイプ](/docs/using-new-relic/data/understand-data/new-relic-data-types)をフィードするかに注意してください。
-## ソースコードを確認してください [#source-code] +## ソースコードのチェック [#source-code] -インフラストラクチャ・モニタリング・エージェントは、オープンソース・ソフトウェアです。つまり、 [そのソースコードを閲覧することができます。](https://github.com/newrelic/infrastructure-agent) 、 [改良点を送信することができます。](https://github.com/newrelic/infrastructure-agent/blob/master/CONTRIBUTING.md) また、自分でフォークを作成してビルドすることもできます。詳細については、 [README](https://github.com/newrelic/infrastructure-agent/blob/master/README.md) をご覧ください。 +infrastructureモニタリングエージェントはオープンソースソフトウェアです。つまり、[ソースコードを参照](https://github.com/newrelic/infrastructure-agent)して[改善を送信](https://github.com/newrelic/infrastructure-agent/blob/master/CONTRIBUTING.md)したり、独自のフォークを作成して構築したりできます。詳細については、[README](https://github.com/newrelic/infrastructure-agent/blob/master/README.md)を参照してください。 ## 次のステップ -インフラストラクチャー・モニタリング・エージェントのインストールが完了したら +infrastructureモニタリングエージェントをインストールした後: -* [エージェントを設定する方法](/docs/infrastructure/install-configure-infrastructure/configuration/configure-infrastructure-agent) または [コンフィグテンプレートを編集する方法](https://github.com/newrelic/infrastructure-agent/blob/master/assets/examples/infrastructure/newrelic-infra-template.yml.example) をご覧ください。 -* [オン・ホスト・インテグレーション](/docs/integrations/host-integrations/getting-started/introduction-host-integrations) (例えば、Apache や MySQL)をインストールします。 -* [インフラストラクチャエージェントを使用したログフォワーディングの有効化](/docs/logs/enable-new-relic-logs/1-enable-logs/forward-your-logs-using-new-relic-infrastructure). -* [エージェントの管理方法を学ぶ](/docs/infrastructure/install-infrastructure-agent/manage-your-agent) 。 \ No newline at end of file +* [エージェントを設定する](/docs/infrastructure/install-configure-infrastructure/configuration/configure-infrastructure-agent)方法、または[設定テンプレート](https://github.com/newrelic/infrastructure-agent/blob/master/assets/examples/infrastructure/newrelic-infra-template.yml.example)を編集する方法を学びます +* [オンホストインテグレーション](/docs/integrations/host-integrations/getting-started/introduction-host-integrations)(ApacheやMySQLなど)をインストールします +* [infrastructureエージェントを使用したログの転送を有効にします](/docs/logs/enable-new-relic-logs/1-enable-logs/forward-your-logs-using-new-relic-infrastructure) +* [エージェントの管理](/docs/infrastructure/install-infrastructure-agent/manage-your-agent)方法を学びます \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/manage-your-data/data-instrumentation/default-infrastructure-monitoring-data.mdx b/src/i18n/content/jp/docs/infrastructure/manage-your-data/data-instrumentation/default-infrastructure-monitoring-data.mdx index 0d366686b56..e9cbb797fa8 100644 --- a/src/i18n/content/jp/docs/infrastructure/manage-your-data/data-instrumentation/default-infrastructure-monitoring-data.mdx +++ b/src/i18n/content/jp/docs/infrastructure/manage-your-data/data-instrumentation/default-infrastructure-monitoring-data.mdx @@ -153,7 +153,7 @@ AWSインテグレーションが有効になっている場合、インフラ [インフラストラクチャデータをクエリ](/docs/using-new-relic/data/understand-data/query-new-relic-data)することで、問題のトラブルシューティング、チャートの作成、または使用できるデータを把握できます。たとえば、`ProcessSample`に添付されたデータが何か確認するには、このNRQLクエリを実行します。 -``` +```sql SELECT * FROM ProcessSample ``` diff --git a/src/i18n/content/jp/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-service-bus-monitoring-integration.mdx b/src/i18n/content/jp/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-service-bus-monitoring-integration.mdx index bc2fefe71eb..a0764603c42 100644 --- a/src/i18n/content/jp/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-service-bus-monitoring-integration.mdx +++ b/src/i18n/content/jp/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-service-bus-monitoring-integration.mdx @@ -191,7 +191,7 @@ Azure Service Bus の統合によって報告されるメトリクスにはい
- Queue/Topicにあるアクティブなメッセージの数。 + キュー/トピック内で配信の準備ができているアクティブなメッセージの数。
@@ -65,7 +63,7 @@ CloudWatch ログを New Relic に転送すると、機能が強化されます< @@ -75,7 +73,7 @@ CloudWatch ログを New Relic に転送すると、機能が強化されます< @@ -85,9 +83,9 @@ CloudWatch ログを New Relic に転送すると、機能が強化されます< @@ -97,7 +95,7 @@ CloudWatch ログを New Relic に転送すると、機能が強化されます< @@ -107,60 +105,60 @@ CloudWatch ログを New Relic に転送すると、機能が強化されます<
- 鍵 + キー @@ -53,7 +51,7 @@ CloudWatch ログを New Relic に転送すると、機能が強化されます< - CloudWatchコンソールにデバッグメッセージを出力するかどうかを決定するブール値です。 **任意です。** + CloudWatchコンソールにデバッグメッセージを出力するかどうかを決定するブール値。**Optional \[オプション]。** デバッグログをオンにするには、これを`true`に設定します。デフォルトは`false`です。 - New Relic にデータを送信するために使用されます。 **必要。** + はNew Relicへのデータ送信に使用します。**Required \[必須]。**
- ログをNewRelicに転送するかどうかを決定します。**必須。**ロギングをオンにするには、これを`true`に設定します。 + ログをNew Relicに転送するかどうかを決定します。**Required \[必須]。**ログ記録を有効にするには、これを`true`に設定します。
- すべてのログイベントに追加するタグを指定します。 **オプションです。** + すべてのログイベントに付加するタグを指定します。**Optional \[オプション]。** - 各タグは、コロンで区切られたキーと値で構成されます。複数のキーと値のペアはセミコロンで区切られます。たとえば、 `env:prod;team:myTeam` 。 + 各タグは、コロンで区切られたキーと値で構成されます。複数のキーの値のペアはセミコロンで区切られます(`env:prod;team:myTeam`など)。
- `/aws/lambda`とは異なるパスを使用するようにLambdaロググループを設定した場合は、この変数で指定できます。**オプション。** + `/aws/lambda`とは異なるパスを使用するようにLambdaロググループを設定している場合は、この変数を使用して指定できます。**Optional \[オプション]。**
- `/aws/vpc/flow-log`とは異なるパスを使用するようにVPCロググループを設定した場合は、この変数で指定できます。**オプション。** + `/aws/vpc/flow-log`とは異なるパスを使用するようにVPCロググループを設定している場合は、この変数を使用して指定できます。**Optional \[オプション]。**
-6. アプリがカスタムIAMロールを作成することを確認してから、 **Deploy** をクリックします。 +6. アプリがカスタムIAMロールを作成することを確認したら、**Deploy**をクリックします。 処理が完了したら、 [Lambdaトリガーを作成して](#create-trigger)、Lambda関数とCloudWatchログを連携させます。 ## Lambdaトリガーの作成 [#create-trigger] -取り込み機能では、ログサブスクリプションではなく、必ずトリガーを設定してください。Lambdaコンソールでサブスクリプションが設定されている場合、これにより、ログが生成されてNewRelicに転送されるカスケードが発生する可能性があります。 +取り込み機能では、ログサブスクリプションではなく、必ずトリガーを設定してください。サブスクリプションがLambdaコンソールで設定されていると、一連のログが生成され、New Relicに転送される可能性があります。 -ログをNew Relicにストリーミングするには、Lambdaにトリガーを取り付けます。 +ログをNew Relicにストリーミングするには、Lambdaにトリガーをアタッチします。 -1. 左側のメニューから「 **Functions** 」を選択します。 -2. 以前に作成した`newrelic-log-ingestion`関数を見つけて選択します。 +1. 左側のメニューから**Functions**を選択します。 +2. 以前に作成した`newrelic-log-ingestion`関数を見つけて選択します 3. **Triggers** \[トリガー]で**Add Triggers** \[トリガーの追加]をクリックし、ドロップダウンから**CloudWatch Logs**を選択します。 -4. お客様のアプリケーションに適切な **Log group** を選択してください。 +4. アプリケーションに適切な**Log group**を選択します。 5. フィルターの名前を入力します。 -6. オプションです。 [フィルターパターンを入力](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/FilterAndPatternSyntax.html). -7. **Enable trigger** のチェックボックスをチェックし、 **Add** をクリックしてトリガーを作成します。 +6. オプション:[フィルターパターン](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/FilterAndPatternSyntax.html)を入力します。 +7. **Enable trigger**チェックボックスをオンにし、**Add**をクリックしてトリガーを作成します。 -## オプション: さまざまなログ エンドポイントを構成する [#config-endpoints] +## オプション:さまざまなログエンドポイントの設定 [#config-endpoints] -必要に応じてカスタム ロギング エンドポイントを設定できます。これにより、たとえば、FedRAMP 準拠のエンドポイントを使用できるようになります。 +必要に応じてカスタムログエンドポイントを設定できます。これにより、たとえば、FedRAMP準拠のエンドポイントを使用できるようになります。 -そのためには、上記で説明したアプリケーションをデプロイしてから、次のことを行う必要があります。 +そのためには、上で説明したアプリケーションをデプロイしてから、次のことを行う必要があります。 -1. AWS で最近デプロイされたラムダ関数ビューに移動します。 +1. AWSに最近デプロイされたLambda関数ビューに移動します。 -2. 下にスクロールして `Configuration` タブをクリックします。 +2. 下にスクロールして、`Configuration`タブをクリックします。 -3. `Configuration` タブ内の左側のメニューで、 `Environment Variables`をクリックします。 +3. `Configuration`タブ内の左側のメニューで、`Environment Variables`をクリックします。 4. ここで、既存の環境変数のリストを確認できます。 `Environment Variables` テーブルの右上にある **Edit**\[編集] をクリックするだけです。 -5. 適切なエンドポイントで `NR_LOGGING_ENDPOINT` を更新します。 +5. 適切なエンドポイントで`NR_LOGGING_ENDPOINT`を更新します。 - * _米国_の場合: `https://log-api.newrelic.com/log/v1` - * _EU_の場合: `https://log-api.eu.newrelic.com/log/v1` - * _FedRAMP_の場合: `https://gov-log-api.newrelic.com/log/v1` + * _米国_の場合 : `https://log-api.newrelic.com/log/v1` + * _EU_の場合: `https://log-api.eu.newrelic.com/log/v1` + * _FedRAMP_の場合: `https://gov-log-api.newrelic.com/log/v1` -6. クリック **保存**. +6. **Save**をクリックします。 -## オプション: 再試行を構成する [#config-retries] +## オプション:再試行の設定 [#config-retries] -通信の問題で機能がデータの送信に失敗した場合に実行するリトライの回数を設定することができます。推奨数は3回ですが、以下のパラメーターを変更することで、リトライの動作を変更することができます。 +通信の問題により関数がデータの送信に失敗した場合に、実行する再試行の回数を設定できます。推奨される再試行回数は3回ですが、以下のパラメーターを変更することで再試行動作を変更できます。 - リトライの回数が多いほど、関数の実行時間が長くなります。そのため、Lambdaのコストが高くなる確率が高くなります。しかし、リトライ回数を減らすと、データ損失の可能性が高くなります。 + 再試行の回数が増えると、関数の実行時間が長くなる可能性があります。これにより、Lambdaのコストが高くなる可能性が高くなります。ただし、再試行の回数を減らすと、データ損失の可能性が高まる可能性があります。 ``` @@ -170,36 +168,36 @@ BACKOFF_MULTIPLIER = 2 # Time multiplier between the retries As an example, in default above configuration, first retry will happen after 1 second, second retry after 2 seconds and third retry will happen after 4 seconds. ``` -## SAMテンプレートで作成されたリソース [#sam-resources] +## SAMテンプレートで作成したリソース [#sam-resources] -リポジトリからアプリケーションを作成すると、以下のリソースも作成されます。 +リポジトリからアプリケーションを作成すると、次のリソースも作成されます。 -* ラムダ関数自体 -* CloudWatch Logsに基づいてLambda関数に実行権限を与えるために使用されるロールです。 +* Lambda関数自体 +* CloudWatchログに基づいてLambda関数に実行権限を与えるために使用されるロール -記載されていないその他のLambdaの設定は、デフォルトのままで構いません。 +リストされていない他のすべてのLambda設定はデフォルトのままにすることができます。 -## ログデータを表示する [#find-data] +## ログデータの表示 [#find-data] -すべてが正しく構成され、データが収集されている場合は、次の両方の場所にログ データが表示されるはずです。 +すべてが正しく設定され、データが収集されている場合は、次の両方の場所にログデータが表示されます。 -* [ログUI](https://one.newrelic.com/launcher/logger.log-launcher) -* [NRQLクエリ](/docs/chart-builder/use-chart-builder/choose-data/use-advanced-nrql-mode-specify-data)を実行するための新しいRelicツール。たとえば、次のようなクエリを実行できます。 +* Our [logs UI](https://one.newrelic.com/launcher/logger.log-launcher) +* [NRQLクエリ](/docs/chart-builder/use-chart-builder/choose-data/use-advanced-nrql-mode-specify-data)を実行するためのNew Relicツール。たとえば、次のようなクエリを実行できます。 ``` SELECT * FROM Log ``` -ログ管理機能を有効にしてもデータが表示されない場合は、[標準のログトラブルシューティング手順](/docs/logs/log-management/troubleshooting/no-log-data-appears-ui/)に従ってください。 +If no data appears after you enable our log management capabilities, follow our [standard log troubleshooting procedures](/docs/logs/log-management/troubleshooting/no-log-data-appears-ui/). -## 次は何ですか? [#what-next] +## 次のステップ [#what-next] -[プラットフォーム全体のログデータを調べます](/docs/logs/log-management/ui-data/use-logs-ui/)。 +[プラットフォーム全体のロギングデータ](/docs/logs/log-management/ui-data/use-logs-ui/)を調べます。 -* [ログインコンテキスト](/docs/logs/enable-log-management-new-relic/configure-logs-context/configure-logs-context-apm-agents/)機能を使用してログを転送することにより、アプリケーションとプラットフォームのパフォーマンスデータの両方をより深く把握できます。 -* [アラートを](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-alert-conditions/)設定します。 -* [データをクエリ](/docs/query-your-data/explore-query-data/get-started/introduction-querying-new-relic-data/)し、[ダッシュボードを作成します](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/)。 +* Get deeper visibility into both your application and your platform performance data by forwarding your logs with our [logs in context](/docs/logs/enable-log-management-new-relic/configure-logs-context/configure-logs-context-apm-agents/) capabilities. +* Set up [alerts](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-alert-conditions/). +* [Query your data](/docs/query-your-data/explore-query-data/get-started/introduction-querying-new-relic-data/) and [create dashboards](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/). -## ログ転送を無効にする [#disable] +## Disable log forwarding [#disable] -ログ転送機能を無効にするには、 [Amazon CloudWatch documentation](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/WhatIsCloudWatchLogs.html) の標準的な手順に従います。New Relic では、他に何もする必要はありません。 \ No newline at end of file +ログ転送機能を無効にするには、[Amazon CloudWatchドキュメント](https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/WhatIsCloudWatchLogs.html)の標準手順に従ってください。New Relicでは特に何もする必要はありません。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/logs/forward-logs/enable-log-management-new-relic.mdx b/src/i18n/content/jp/docs/logs/forward-logs/enable-log-management-new-relic.mdx index 54f1cab3322..d7fe0dc33d5 100644 --- a/src/i18n/content/jp/docs/logs/forward-logs/enable-log-management-new-relic.mdx +++ b/src/i18n/content/jp/docs/logs/forward-logs/enable-log-management-new-relic.mdx @@ -1,5 +1,5 @@ --- -title: ログをNew Relicに転送する +title: New Relicへのログ転送 tags: - Logs - Enable log management in New Relic @@ -8,14 +8,14 @@ metaDescription: How to forward your logs into New Relic so you can use enhanced signupBanner: text: Monitor and improve your entire stack. 100GB free. Forever. freshnessValidatedDate: never -translationType: machine +translationType: human --- import logsNRLogsinContext from 'images/logs_diagram_NR-logs-in-context.webp' import logsLogForwardOptions from 'images/logs_diagram_log-forward-options.webp' -私たちのこれらの機能は、ログ データの収集、処理、探索、クエリ、およびアラートに役立ちます。ログを New Relic に取得するには、次のオプションのいずれかを使用できます。 +当社の機能は、ログデータの収集、処理、探索、クエリ、およびアラートに役立ちます。ログをNew Relicに取り込むには、次のオプションのいずれかを使用できます。 -さまざまなロギング ソリューションの概要については、[ログ](/docs/logs/get-started/get-started-log-management#integrate-logs)の概要 を参照してください。 +さまざまなログソリューションの概要については、[ログの概要](/docs/logs/get-started/get-started-log-management#integrate-logs)を参照してください。 - ログがたくさんありますか? [それらを最適化および管理する方法については、チュートリアル](/docs/tutorial-large-logs/get-started-managing-large-logs/)をご覧ください。 + Got lots of logs? Check out our [tutorial on how to optimize and manage them](/docs/tutorial-large-logs/get-started-managing-large-logs/). -特定のユースケースを達成する方法の詳細を次に示します。 +特定の使用例を実現する方法の詳細をいくつか示します。 @@ -47,11 +47,11 @@ import logsLogForwardOptions from 'images/logs_diagram_log-forward-options.webp' @@ -61,23 +61,23 @@ import logsLogForwardOptions from 'images/logs_diagram_log-forward-options.webp'
- これをやりたいなら...。 + これを実現したい場合は... - 次のログ転送オプションのいずれかを使用します + これらのログ転送オプションのいずれかを使用
- ディスク上のローカル ファイルに書き込まれたログを収集する + ディスク上のローカルファイルに書き込まれるログを収集する - 当社のソリューションを使用して、インフラストラクチャ監視エージェント、Fluent Bit、Fluentd、Logstash、syslog/TCP などの[オペレーティング システムからログを転送し](#forward-infra)ます。アプリとホストのログの軽量データ コレクターとして、[インフラストラクチャ モニタリングのガイド付きインストールを](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent)使用します。 + infrastructureモニタリングエージェント(Fluent Bit、Fluentd、Logstash、syslog/TCPなど)のソリューションを使用して、[OSからログを転送](#forward-infra)します。[infrastructureモニタリング用のガイド付きインストール](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent)を、アプリとホストのログの軽量データコレクターとして使用します。
- [Amazon AWS](#forward-amazon) 、 [Google Cloud Platform](/docs/logs/forward-logs/google-cloud-platform-log-forwarding) 、 [Microsoft Azure](/docs/logs/forward-logs/azure-log-forwarding) 、 [Heroku](/docs/logs/forward-logs/heroku-log-forwarding/)などのクラウド プラットフォームから、サービスレベル ログ、アプリケーション ログ、インフラストラクチャ ログ、または上記のすべてを収集します。 + クラウドプラットフォーム([Amazon AWS](#forward-amazon)、[Google Cloud Platform](/docs/logs/forward-logs/google-cloud-platform-log-forwarding)、[Microsoft Azure](/docs/logs/forward-logs/azure-log-forwarding)、[Heroku](/docs/logs/forward-logs/heroku-log-forwarding/)など)から、サービスレベルログ、アプリケーションログ、インフラストラクチャログ、または上記のすべてを収集します。
- スタンドアロンまたは Kubernetes の使用時に、Docker コンテナーで実行されているアプリからログを収集します + スタンドアロンまたはKubernetesの使用時に、 Dockerコンテナで実行されているアプリからログを収集する - Kubernetes 環境の場合は、 [Kubernetes プラグイン](/docs/logs/forward-logs/kubernetes-plugin-log-forwarding/)を使用してください。 + Kubernetes環境の場合は、[Kubernetesプラグイン](/docs/logs/forward-logs/kubernetes-plugin-log-forwarding/)を使用します。 - Docker 環境の場合、いくつかのオプションが提供されています。 + Docker環境の場合、いくつかのオプションが用意されています。 - * [コンテキスト内で APM ログを](/docs/apm/new-relic-apm/getting-started/get-started-logs-context)使用する + * [APM logs in context](/docs/apm/new-relic-apm/getting-started/get-started-logs-context)を使用する - * インフラストラクチャ エージェントを使用してホストレベルのログを収集します。 `logging.yml` 構成ファイルでは、必ず `/var/log/containers/*.log` ディレクトリを末尾に追加してください。例えば: + * infrastructureエージェントを使用して、ホストレベルのログを収集します。`logging.yml`設定ファイルでは、必ず`/var/log/containers/*.log`ディレクトリを末尾に追加してください。例: ```yml logs: @@ -85,130 +85,130 @@ import logsLogForwardOptions from 'images/logs_diagram_log-forward-options.webp' file: /var/log/containers/*.log # Path to Docker log files ``` - * [スタンドアロン Docker イメージ](https://hub.docker.com/r/newrelic/newrelic-fluentbit-output)を使用する + * [スタンドアロンのDockerイメージ](https://hub.docker.com/r/newrelic/newrelic-fluentbit-output)を使用する
- ホストされている場所に関係なく、アプリから直接ログを収集します + ホストされている場所に関係なく、アプリから直接ログを収集する - 私たちを使用してください エージェントとインフラ監視エージェント。アプリの APM エージェントがログ データを New Relic に直接転送し、 [コンテキスト内の APM ログを](/docs/apm/new-relic-apm/getting-started/get-started-logs-context)使用できるようにします。追加のサードパーティ ソフトウェアをインストールまたは維持する必要はありません。 + 弊社のエージェントとinfrastructureモニタリングエージェント。アプリのAPMエージェントにより、[APM logs in context](/docs/apm/new-relic-apm/getting-started/get-started-logs-context)を使ってログデータをNew Relicに直接転送できるようになります。追加のサードパーティソフトウェアのインストールや保守は必要はありません。
- 他のことをする + その他 - ログ転送オプションがニーズを満たさない場合は、次のことができます。 + ログ転送オプションがニーズを満たさない場合は、次のことを行えます。 - * [Log API](/docs/logs/log-api/introduction-log-api) を利用して、HTTP経由でログを転送します。 + * [Log API](/docs/logs/log-api/introduction-log-api)を使用して、HTTP経由でログを転送します。 * [TCPエンドポイント](/docs/logs/log-api/use-tcp-endpoint-forward-logs-new-relic)を介してログを転送するには、syslogプロトコルを使用します。 - * [他の利用可能なオプション](#forward-other)を使用してください。 + * [他の利用可能なオプション](#forward-other)を使用する
-## ログフォワーダーを始めよう [#compatibility-requirements] +## ログフォワーダーを使ってみる [#compatibility-requirements] -ログは、インフラストラクチャ エージェントまたはサポートされているサードパーティのログ サービスのいずれかを介して転送できます。方法は次のとおりです。 +ログは、infrastructureエージェントまたはサポートされているサードパーティログサービスのいずれかを介して転送できます。その方法は次のとおりです。 1. New Relicアカウントをまだお持ちでない場合は、New Relicアカウントを新たに作成します。永久無料です。 -2. New Relicを手に入れよう +2. ログを報告するアカウントのNew Relic - ログを報告するアカウントの準備ができました。 + を準備します。 -3. [互換性のあるログフォワーダーのインストール](#log-forwarding). +3. [互換性のあるログフォワーダー](#log-forwarding)をインストールしてください -4. TCP ポート 443 でのアウトバウンド接続が、 [CIDR 範囲](/docs/using-new-relic/cross-product-functions/install-configure/networks/#infrastructure) ( [地域](/docs/using-new-relic/welcome-new-relic/get-started/our-eu-us-region-data-centers) に一致)に対して許可されていることを確認してください。 +4. TCPポート443でのアウトバウンド接続が、[ 地域](/docs/using-new-relic/welcome-new-relic/get-started/our-eu-us-region-data-centers)に一致する[CIDR範囲](/docs/using-new-relic/cross-product-functions/install-configure/networks/#infrastructure)に使用できることを確認します -5. アカウント データが New Relic に保存されている場所に応じて、構成に DNS 名`log-api.newrelic.com`または`log-api.eu.newrelic.com`を使用します。 +5. New Relic内のアカウントデータの保存場所に応じて、設定にはDNS名、`log-api.newrelic.com`または`log-api.eu.newrelic.com`を使用します。 -6. 該当する場合は、アプリの +6. 該当する場合は、[手動のLogs in Context](/docs/logs/enable-log-management-new-relic/configure-logs-context/configure-logs-context-apm-agents/)手順に従って、アプリの - [手動ログ イン コンテキスト](/docs/logs/enable-log-management-new-relic/configure-logs-context/configure-logs-context-apm-agents/) 手順に従って、エージェントを削除します。 + エージェントを設定します。 -## ログフォワーディングオプション [#log-forwarding] +## ログ転送オプション [#log-forwarding] -[APM エージェント](/docs/apm/new-relic-apm/getting-started/get-started-logs-context)以外にも、ログを New Relic に転送するためのソリューションをいくつか提供しています。 +[APMエージェント](/docs/apm/new-relic-apm/getting-started/get-started-logs-context)の他に、ログをNew Relicに転送するための他のソリューションもいくつか用意しています。 -### インフラストラクチャ エージェント (推奨) と OS ソリューション [#forward-infra] +### infrastructureエージェント(推奨)とOSソリューション [#forward-infra] -インフラストラクチャ エージェントを使用することは、強力なログ レポートと構成オプションを提供するため、ログ管理に推奨される方法の 1 つです。この設定の詳細については、「[インフラストラクチャ エージェント ログ](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent)」を参照してください。 +弊社のinfrastructureエージェントを使用すると、強力なログレポートと設定オプションを提供できるため、ログ管理に推奨される方法の1つです。この設定の詳細については、[infrastructureエージェントのログ](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent)を参照してください。 -インフラストラクチャ ログ転送に自動的に含まれるホスト メトリクスが必要ない場合、またはログ フォワーダーが既にある場合は、次のオプションのいずれかを使用して、ログを New Relic に転送できます。 +インフラストラクチャのログ転送に自動的に含まれるホストメトリクスが必要ない場合、または既にログフォワーダーがある場合は、次のオプションのいずれかを使用してログをNew Relicに転送できます。 * [Fluent Bitプラグイン](/docs/logs/forward-logs/fluent-bit-plugin-log-forwarding) * [Fluentdプラグイン](/docs/logs/forward-logs/fluentd-plugin-log-forwarding) * [Logstashプラグイン](/docs/logs/forward-logs/logstash-plugin-log-forwarding/) -* [シスログ/TCP](/docs/logs/log-management/log-api/use-tcp-endpoint-forward-logs-new-relic) +* [Syslog/TCP](/docs/logs/log-management/log-api/use-tcp-endpoint-forward-logs-new-relic) -### アマゾン [#forward-amazon] +### Amazon [#forward-amazon] 次のAmazonログフォワーダーをサポートしています。 -* [AWS CloudFront プラグイン](/docs/logs/forward-logs/cloudfront-web-logs) +* [AWS CloudFrontプラグイン](/docs/logs/forward-logs/cloudfront-web-logs) * [AWS CloudWatchプラグイン](/docs/logs/forward-logs/aws-lambda-sending-cloudwatch-logs/) * [AWS FireLensプラグイン](/docs/logs/forward-logs/aws-firelens-plugin-log-forwarding/) * [AWS Kinesis Firehose](/docs/logs/forward-logs/stream-logs-using-kinesis-data-firehose/) -* [S3からのログ送信のためのAWS Lambda](/docs/logs/forward-logs/aws-lambda-sending-logs-s3/) +* [S3からログを送信するためのAWS Lambda](/docs/logs/forward-logs/aws-lambda-sending-logs-s3/) -### マイクロソフト [#forward-microsoft] +### Microsoft [#forward-microsoft] 次のMicrosoftログフォワーダーをサポートしています。 -* [Azure ARM テンプレート](/docs/logs/forward-logs/azure-log-forwarding/) +* [Azure ARMテンプレート](/docs/logs/forward-logs/azure-log-forwarding/) -### その他のサポートされているログフォワーダー [#forward-other] +### サポートされているその他のログフォワーダー [#forward-other] -次のログ フォワーダーをサポートしています。これらのオプションの一部にはクイックスタートが付属しており、すぐに使用できます とアラート。ログ転送を設定した後、クイックスタートをインストールできます。 +以下のログフォワーダーをサポートしています。これらのオプションの一部には、すぐに使用できるとアラートを提供するクイックスタートが付属しています。ログ転送を設定した後、クイックスタートをインストールできます。 -* アカマイ データストリーム 2: +* Akamai DataStream 2: - * [アカマイの指示](https://techdocs.akamai.com/datastream2/docs/stream-new-relic) + * [Akamai手順](https://techdocs.akamai.com/datastream2/docs/stream-new-relic) * [クイックスタート](https://newrelic.com/instant-observability/datastream2/cb995039-39d8-44d9-97c3-58174a1337f2) -* [クラウドフレア Logpush](/docs/logs/forward-logs/cloudflare-logpush-forwarding) +* [CloudflareのLogpush](/docs/logs/forward-logs/cloudflare-logpush-forwarding) -* 素早く: +* Fastly: - * [Fastly の手順](https://docs.fastly.com/en/guides/log-streaming-newrelic-logs) + * [Fastly手順](https://docs.fastly.com/en/guides/log-streaming-newrelic-logs) * [クイックスタート](https://newrelic.com/instant-observability/fastly-cdn/c5c5dd30-dcdf-46b6-9412-f9a1bba5a600) * [Google Cloud Platform Pub/Sub](/docs/logs/forward-logs/google-cloud-platform-log-forwarding) -* [Herokuのログストリーミング](/docs/logs/forward-logs/heroku-log-forwarding/) +* [Herokuログストリーミング](/docs/logs/forward-logs/heroku-log-forwarding/) * [Kubernetesプラグイン](/docs/logs/forward-logs/kubernetes-plugin-log-forwarding/) -* [ベクタープラグイン](/docs/logs/forward-logs/vector-output-sink-log-forwarding) +* [Vectorプラグイン](/docs/logs/forward-logs/vector-output-sink-log-forwarding) ## TCPエンドポイント [#enable-endpoint] -状況によっては、ログフォワーダーがない場合があります。たとえば、CDN、ハードウェアデバイス、またはマネージドサービスを使用します。 `rsyslog`や`syslog-ng`などのsyslogプロトコルを使用して、 [TCPエンドポイント](/docs/logs/log-management/log-api/use-tcp-endpoint-forward-logs-new-relic/)を介してログをNewRelicに転送できます。 +状況によっては、ログフォワーダーがない場合があります。たとえば、CDN、ハードウェアデバイス、マネージドサービスなどです。`rsyslog`や`syslog-ng`などのsyslogプロトコルを使用すると、[TCPエンドポイント](/docs/logs/log-management/log-api/use-tcp-endpoint-forward-logs-new-relic/)を介してログをNew Relicに転送できます。 ## ログのAPI [#enable-api] -プラグインをインストールせずにNew Relicに接続したい場合は、HTTP入力の統合を提供しています。このオプションは、 [Log API](/docs/logs/log-api/introduction-log-api) を介して、監視対象のログデータを直接 New Relic に送信します。 +プラグインをインストールせずにNew Relicに接続するには、HTTP入力インテグレーションがあります。このオプションは、[Log API](/docs/logs/log-api/introduction-log-api)経由でモニターログデータをNew Relicに直接送信します。 ## ログ転送の仕組み [#enable] -次の図は、アプリのログ メッセージのライフサイクルを示しています。 エージェント メタデータ (コンテキスト ログ)、ログ データのフォーマットと New Relic への転送。 +次の図は、エージェントのメタデータによる強化(コンテキストに基づくロギング)から、ログデータのフォーマットとNew Relicへの転送まで、アプリのログメッセージのライフサイクルを示しています。 -標準のログフォーマッタは、ログイベントを、ダウンストリームのユーザーやプロセスが使用できる意味のある出力(テキストファイルなど)に変換します。 `NewRelicFormatter`は、ログイベントをNewRelicが期待するJSON形式に変換します。これらのファイルには、ログ情報と拡張メタデータが含まれています。 +標準のログフォーマッターは、ログイベントを下流のユーザーやプロセスが使用できる意味のある出力(テキストファイルなど)に変換します。`NewRelicFormatter`は、ログイベントをNew Relicが期待するJSON形式に変換します。これらのファイルには、ログ情報と拡張メタデータが含まれています。 -ログフォワーダ(当社のインフラ監視エージェント、Fluentd、Logstashなど)を設定すると、ログデータを拡張し、エンリッチすることもできます。 [ログをコンテキスト](/docs/logs/enable-log-management-new-relic/configure-logs-context/configure-logs-context-apm-agents/) に設定することで、ログエンリッチャーは、フォーマットされたログデータを、アプリケーションやホストからの追加のトランザクション情報とリンクさせます。 +ログフォワーダー(infrastructureモニタリングエージェント、Fluentd、Logstashなど)を設定するときに、ログデータを拡張および強化することもできます。[Logs in Context](/docs/logs/enable-log-management-new-relic/configure-logs-context/configure-logs-context-apm-agents/)を設定すると、ログエンリッチャーは、フォーマットされたログデータをアプリケーションまたはホストからの追加のトランザクション情報にリンクします。 -これにより、ログファイルは、強化されたメタデータとコンテクストのあるロギングデータで強化されます。あなたのログフォワーダーは、ファイルを私たちのロギングエンドポイントに送って処理します。そこからは、New Relic のログ管理機能を使って、ログの表示、照会、アラートの設定などを行うことができます。 +これで、ログファイルは拡張メタデータとコンテキストに基づくロギングデータで強化されました。ログフォワーダーは、処理のためにファイルをログエンドポイントに送信します。そこからログ管理機能を使用して、New Relicで表示、クエリ、アラートの設定などを行うことができます。 -## 次は何ですか? [#what-next] +## 次のステップ [#what-next] -ログフォワーダーを有効にした後は、ログ管理機能を使ってNew Relicのデータを最大限に活用しましょう。 +ログフォワーダーを有効にしたら、ログ管理機能を使用してNew Relicのデータを最大限に活用します。 -* [ログ UI](/docs/logs/ui-data/use-logs-ui)を使用して、プラットフォーム全体のログ データを探索します。 -* [APM UI](/docs/logs/ui-data/use-logs-ui/#links) で、ログをアプリのパフォーマンスの文脈で見ることができます。 [エラーのトラブルシューティング](/docs/apm/apm-ui-pages/error-analytics/errors-page-find-fix-verify-problems/) [分散トレース](/docs/apm/distributed-tracing/ui-data/understand-use-distributed-tracing-data) 、スタックトレース、アプリケーションログ、その他。 -* [インフラ監視エージェント](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/) でログを転送している場合、アプリケーションとプラットフォームの両方のパフォーマンスデータについてより深い可視性を得ることができます。UI で [インフラストラクチャ・ログ](/docs/logs/ui-data/use-logs-ui/#links) を確認します。 -* [アラートを](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-alert-conditions/)設定します。 -* [データを照会する](/docs/query-your-data/explore-query-data/get-started/introduction-querying-new-relic-data/) と [ダッシュボードを作成する](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/).例えば、 [データパーティションルール](/docs/apis/nerdgraph/examples/nerdgraph-data-partition-rules-tutorial) と [ログ解析ルール](/docs/apis/nerdgraph/examples/nerdgraph-log-parsing-rules-tutorial) の問い合わせと管理については、NerdGraph のチュートリアルをご覧ください。 \ No newline at end of file +* [Logs UI](/docs/logs/ui-data/use-logs-ui)を使用して、プラットフォーム全体のロギングデータを調べます。 +* [APM UI](/docs/logs/ui-data/use-logs-ui/#links)でアプリのパフォーマンスのコンテキストでログを確認する。[ディストリビューティッド(分散)トレーシング](/docs/apm/distributed-tracing/ui-data/understand-use-distributed-tracing-data)、スタックトレース、アプリケーションログなどを使用して、[エラー](/docs/apm/apm-ui-pages/error-analytics/errors-page-find-fix-verify-problems/)をトラブルシューティングします +* [infrastructureモニタリングエージェント](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/)を使用してログを転送すると、アプリケーションとプラットフォームのパフォーマンスデータをより深く可視化することができます。UIで[インフラストラクチャログ](/docs/logs/ui-data/use-logs-ui/#links)を確認します +* Set up [alerts](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-alert-conditions/). +* [データをクエリ](/docs/query-your-data/explore-query-data/get-started/introduction-querying-new-relic-data/)し、[ダッシュボードを作成](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/)します。たとえば、[データパーティションルール](/docs/apis/nerdgraph/examples/nerdgraph-data-partition-rules-tutorial)と[ログ解析ルール](/docs/apis/nerdgraph/examples/nerdgraph-log-parsing-rules-tutorial)のクエリと管理については、NerdGraphチュートリアルを参照してください \ No newline at end of file diff --git a/src/i18n/content/jp/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent.mdx b/src/i18n/content/jp/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent.mdx index 549dfdd0945..82af5cdfb5f 100644 --- a/src/i18n/content/jp/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent.mdx +++ b/src/i18n/content/jp/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent.mdx @@ -1,5 +1,5 @@ --- -title: インフラストラクチャエージェントを使用してログを転送する +title: Forward your logs using the infrastructure agent tags: - Logs - Enable log management in New Relic @@ -8,7 +8,7 @@ metaDescription: 'How to forward your logs to New Relic using our infrastructure signupBanner: text: Monitor and improve your entire stack. 100GB free. Forever. freshnessValidatedDate: never -translationType: machine +translationType: human --- import logsHostLogsUi from 'images/logs_screenshot-full_host-logs-ui.webp' @@ -31,7 +31,7 @@ import infrastructureWindows from 'images/infrastructure_logo_windows.webp' import osAnsibleRed from 'images/os_icon_ansible-red.webp' -ログを New Relic に転送すると、すべてのログ データが 1 か所で利用できるようになり、アプリケーションとプラットフォームのパフォーマンス データの両方をより詳細に可視化できます。ログを 1 か所にまとめて、ログ データで見つかったエラーや異常を収集、処理、調査、クエリ、およびアラートできます。 +Forwarding your logs to New Relic makes all of your logging data available in one location, providing deeper visibility into both your application and your platform performance data. With your logs in one spot, you can collect, process, explore, query, and alert on errors or anomalies found in your log data.
- ホストの UI から、選択した期間のイベントのコンテキストにログが配置されます。強調表示された属性の詳細データにドリルダウンできます。 + From your host's UI, your logs are placed in context of events for the selected time period. You can drill down into detailed data for any of the highlighted attributes.
-インフラストラクチャ エージェントはログ転送機能を有効にするため、ログの転送方法はインフラストラクチャ エージェントのインストール方法によって異なります。次の方法でインフラストラクチャ エージェントをインストールできます。 +How you forward your logs depends on how you installed the infrastructure agent, since the infrastructure agent enables the log forwarding feature. You can install the infrastructure agent via: -* ガイド付きインストール (ほとんどのユーザーに推奨) -* 手動インストール -* Linux ターボール +* Guided install (recommended for most users) +* 手動インストレーション +* Linux tarball - Linux バージョンのインフラストラクチャ エージェント、具体的にはバージョン 1.42.0 は、td-agent-bit パッケージの使用から Fluent-bit パッケージに移行しました。この変更は、メジャー バージョン 2.x アップデートの後、fluent-bit が td-agent-bit フレーバーで配布されなくなったため、必要になりました。 + The Linux version of infrastructure agent, specifically version 1.42.0, has transitioned from using the td-agent-bit package to the fluent-bit package. This change was necessitated by the fact that fluent-bit is no longer distributed in the td-agent-bit flavour after the major version 2.x update. - スムーズな操作を確保し、fluent-bit パッケージに問題が発生した場合に td-agent-bit に戻すオプションを提供するために、インフラストラクチャ エージェントは両方のパッケージ (td-agent-bit と fluent-bit) をインストールするようになりました。デフォルトでは、エージェントは Fluent-bit を使用するように構成されています。 + To ensure smooth operations and provide the option to revert to td-agent-bit in the event of any issues with the fluent-bit package, the infrastructure agent now installs both packages (td-agent-bit and fluent-bit). By default, the agent is configured to use fluent-bit. - ロールバック方法の詳細については [、「Fluent Bit 1.9 へのロールバック」](#rollback-after-fluent-bit-2) を参照してください。 + See [Rollback to Fluent Bit 1.9](#rollback-after-fluent-bit-2) for more information about how to rollback. - ログがたくさんありますか? [それらを最適化および管理する方法については、チュートリアル](/docs/tutorial-large-logs/get-started-managing-large-logs/)をご覧ください。 + Got lots of logs? Check out our [tutorial on how to optimize and manage them](/docs/tutorial-large-logs/get-started-managing-large-logs/). -## システム要求 [#system] +## システム要件 [#system] -* インフラストラクチャ・エージェント・バージョン1.11.4以上 -* [流暢なビット](https://fluentbit.io/)。インフラストラクチャエージェントは、すでに最新バージョンをインストールしています。特定のバージョンに更新またはダウングレードするには、FluentBitの[インストール](#install-fb-version)手順を参照してください。 -* OpenSSL ライブラリ 1.1.0以上 -* LinuxシステムでのARM64アーキテクチャ(AWS Gravitonアーキテクチャなど)の組み込みサポートがインフラストラクチャエージェント[1.20.6](https://github.com/newrelic/infrastructure-agent/releases/tag/1.20.6)に追加されました。 -* Amazon Linux 2 および 2023 (ARM64 は 2023 ではサポートされません) -* CentOS バージョン 7、8、および 9 ストリーム (Rocky Linux および AlmaLinux もサポートされています) -* RedHat バージョン 7、8、9 -* Debian バージョン 9 (ストレッチ)、10 (バスター)、および 11 (ブルズアイ)。 -* SUSE Linux Enterprise Server (SLES) バージョン 12 および 15 (ARM64 はサポートされていません)。 -* Ubuntu バージョン 16.04.x、18.04.x、20.04.x、22.04.x(LTS バージョン)。 -* Windows Server 2012、2016、2019、2022、およびそれらのサービスパック。 -* Windows 10、Windows 11。 +* Infrastructure agent version 1.11.4 or higher +* [Fluent Bit](https://fluentbit.io/). The infrastructure agent already installs the latest version for you. To update or downgrade it to a specfic version, refer to the [Fluent Bit installation](#install-fb-version) procedures. +* OpenSSL library 1.1.0 or higher +* Built-in support for ARM64 architecture on Linux systems (for example, AWS Graviton architecture) added in infrastructure agent [1.20.6](https://github.com/newrelic/infrastructure-agent/releases/tag/1.20.6). +* Amazon Linux 2 and 2023 (ARM64 not supported for 2023) +* CentOS version 7, 8 and 9 Stream (Rocky Linux and AlmaLinux are also supported) +* RedHat version 7, 8 and 9 +* Debian version 9 (Strech), 10 (Buster) and 11 (Bullseye). +* SUSE Linux Enterprise Server (SLES) version 12 and 15 (ARM64 not supported). +* Ubuntu versions 16.04.x, 18.04.x, 20.04.x, 22.04.x (LTS versions). +* Windows Server 2012、2016、2019、2022およびサービスパック +* Windows 10, Windows 11. -## ガイド付きインストールによるログの自動転送 [#infra] +## Automatically forward logs with guided install [#infra] -ガイド付きインストールを使用してインフラストラクチャ エージェントをインストールすると、インストール プロセス中にログ転送機能が自動的に構成されます。まだお持ちでない場合は、以下で無料の New Relic アカウントを作成して、今すぐデータの監視を開始してください。 +When you use our guided install to install the infrastructure agent, the log forwarding feature is automatically configured during the install process. If you haven't already, create your free New Relic account below to start monitoring your data today. -インストールを開始するには、展開方法を選択します。 +To initiate your install, choose your deployment method: -## 手動でインストールされたエージェントでログ転送を有効にする [#manual] +## Enable log forwarding on agent installed manually [#manual] -インフラストラクチャ エージェントを手動でインストールするには、 [チュートリアルに従ってパッケージ マネージャーをインストールする](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-agent-linux-using-package-manager)か、 [MSI インストーラー](/docs/infrastructure/install-configure-manage-infrastructure/windows-installation/install-infrastructure-windows-server-using-msi-installer)(Windows) を確認してください。 +To install the infrastructure agent manually, follow our [tutorial to install the package manager](/docs/infrastructure/install-infrastructure-agent/linux-installation/install-infrastructure-agent-linux-using-package-manager), or check out our [MSI installer](/docs/infrastructure/install-configure-manage-infrastructure/windows-installation/install-infrastructure-windows-server-using-msi-installer) (Windows). -### 手順 1.インフラストラクチャ エージェントを構成する +### Step 1. Configure the infrastructure agent -構成ファイルは、New Relic に表示するログ ソースをシステムに転送するように指示します。構成ファイルはいくつでも追加できます。インフラストラクチャ エージェントは、 `.yml`ファイルを使用してロギングを構成します。UI の \[[データの追加\]](https://one.newrelic.com/marketplace?state=78678a7f-91c5-ca40-ac55-e6b74a50085c)からインフラストラクチャ エージェントをインストールすると、ファイル`logging.yml`が自動的に作成されます。 +Configuration files direct your system to forward the log sources you want to appear in New Relic. You can add as many config files as you want. Our infrastructure agent uses `.yml` files to configure logging. If you install the infrastructure agent via [Add data](https://one.newrelic.com/marketplace?state=78678a7f-91c5-ca40-ac55-e6b74a50085c) in the UI, the file `logging.yml` is created automatically. -ログ転送機能の新しい構成ファイルを追加するには、次のようにします。 +To add a new configuration file for the log forwarding feature: -1. ログフォワーダー構成フォルダーに移動します。 +1. Navigate to the log forwarder configuration folder: * Linux: `/etc/newrelic-infra/logging.d/` - * ウィンドウズ: `C:\Program Files\New Relic\newrelic-infra\logging.d\` + * Windows: `C:\Program Files\New Relic\newrelic-infra\logging.d\` -2. `logging.yml` 構成ファイルを作成し、必要なパラメータを追加します。 `logging.d` ディレクトリには、参照または開始点として使用できるさまざまな `.yml.example` ファイルがあります。Windows の例については、 [Github リポジトリを](https://github.com/newrelic/infrastructure-agent/tree/master/assets/examples/logging/windows)参照してください。 +2. Create a `logging.yml` configuration file, and add the parameters you need. The `logging.d` directory has various `.yml.example` files you can use as a reference or starting point. For Windows examples, see [our Github repo](https://github.com/newrelic/infrastructure-agent/tree/master/assets/examples/logging/windows). ```yml # Log forwarder configuration file example @@ -194,22 +194,22 @@ import osAnsibleRed from 'images/os_icon_ansible-red.webp' pattern: WARN|ERROR ``` -エージェントは、インフラストラクチャ監視サービスを再起動しなくても、新しい構成ファイルを自動的に処理します。これに対する唯一の例外は、カスタムFluentBit構成を構成する場合です。 +The agent automatically processes new configuration files without having to restart the infrastructure monitoring service. The only exception to this is when configuring a custom Fluent Bit configuration. -### ステップ 2. ログ転送パラメーターを設定する [#parameters] +### Step 2. Set log forwarding parameters [#parameters] -ログ転送`.yml`構成ファイルで`name`およびログ ソース パラメータを設定する必要があります。まず、New Relic に転送するログの`name`を定義します。 +You're required to set up a `name` and log source parameter in the log forwarding `.yml` config file. To start, define a `name` of the log or logs you want to forward to New Relic. -ログ ソースに何を使用するかは、ログのソースとなる場所によって異なります。ログ ソースに使用できるオプションは次のとおりです。 +What you use for the log source depends on the location your logs are sourced from. Available options for the log source include: - ログ ファイルへのパス。エージェントは、 `tail -f`シェルと同様の方法でログ ファイルの変更を追跡します。 + Path to the log file or files. The agent tracks changes on the log files in a way similar to `tail -f` shell. - **例:** + **例:** ```yml logs: @@ -219,9 +219,9 @@ import osAnsibleRed from 'images/os_icon_ansible-red.webp' file: /var/log/example-two.log # Path to another single log file ``` - `file`パラメータは、名前と拡張子に適用されるワイルドカードを使用して、特定のログファイルまたは複数のファイルを指すことができます。たとえば、 `/logs/*.log` 。ファイルパス内のディレクトリの代わりにワイルドカードを使用できます。これを使用して、別のディレクトリにあるファイルを調整できます。 + The `file` parameter can point to a specific log file or multiple files by using wildcards applied to names and extensions; for example, `/logs/*.log`. You can use wildcards in place of directories in a file path, which can be used to tail files located in different directories. - **例:** + **例:** ```yml logs: @@ -230,17 +230,17 @@ import osAnsibleRed from 'images/os_icon_ansible-red.webp' ``` - ワイルドカードを使用すると、ファイル記述子の数が大幅に増加し、Fluent Bitプロセスが開いたままになるのを監視します。これにより、ホストのファイル記述子の制限に達した場合にログの収集が妨げられる可能性があります。多数のファイルをテーリングするには、ファイル記述子の最大数を増やし、オペレーティングシステムで許可されているウォッチャーをinotifyする必要がある場合があります。ログファイルを増やす方法の詳細については[、大量のログファイルをテーリングするときのエラーを](#too-many-files)参照してください。 + Use of wildcards may significantly increase the number of file descriptors and inotify watches the Fluent Bit process keeps open, which can interfere with log collection if the host's file descriptor limit is reached. Tailing a large number of files may require you to increase the maximum number of file descriptors and inotify watchers allowed by the operating system. Please refer to [Errors when tailing a large amount of log files](#too-many-files) for more details on how to increase them. - Linux環境で`journald`デーモンによって収集されたログメッセージを転送するには、 `systemd`パラメーターを使用します。この入力タイプでは、エージェントが[ルートモード](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes)で実行されている必要があります。 + Use the `systemd` parameter to forward log messages that are collected by the `journald` daemon in Linux environments. This input type requires the agent to run in [root mode](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes). - **例:** + **例:** ```yml logs: @@ -251,22 +251,22 @@ import osAnsibleRed from 'images/os_icon_ansible-red.webp' - Syslogデータソース。 + Syslog data source. - **パラメーター:** + **Parameters:** - * `uri:` Syslogソケット。形式はプロトコルによって異なります。 + * `uri:` Syslog socket. Format varies depending on the protocol: - * TCP / UDPネットワークソケット: `[tcp/udp]://LISTEN_ADDRESS:PORT` - * Unixドメインソケット: `unix_[tcp/udp]:// + /socket/path` + * TCP/UDP network sockets: `[tcp/udp]://LISTEN_ADDRESS:PORT` + * Unix domain sockets: `unix_[tcp/udp]:// + /socket/path` - * `parser:` Syslogパーサー。デフォルトは`rfc3164`です。メッセージに秒の小数部が含まれている場合は、 `rfc5424`を使用します。注: `rfc3164`は現在SuSEでは機能しません。 + * `parser:` Syslog parser. Default is `rfc3164`. Use `rfc5424` if your messages include fractional seconds. Note: `rfc3164` currently does not work on SuSE. - * `unix_permissions:` ドメインソケットのデフォルトは`0644`です。これにより、エントリは root として実行されるプロセスに制限されます。`0666`を使用すると、root 以外のプロセスをリッスンできます (自己責任で)。 + * `unix_permissions:` Default is `0644` for domain sockets. This limits entries to processes running as root. You can use `0666` to listen for non-root processes (at your own risk). - エージェントを[特権モード](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes)で実行する場合、他のプロセスがソケットにログを書き込むことができるように、ポートとソケットは、 `nri-agent`によって使用可能または所有されており、 `0666`ファイル権限を持つ必要があります。 + When running the agent in [privileged mode](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes), ports and sockets must be available or owned by `nri-agent` and with `0666` file permissions so that other processes can write logs to the sockets. ```yml logs: @@ -297,15 +297,15 @@ import osAnsibleRed from 'images/os_icon_ansible-red.webp' id="tcp" title="tcp" > - TCP接続を介して取得されたログ。 + Logs retrieved over TCP connections. - **パラメーター:** + **Parameters:** - * `uri:` 受信データをリッスンするための TCP/IP ソケット。URI 形式は`tcp://LISTEN_ADDRESS:PORT`です。 + * `uri:` TCP/IP socket to listen for incoming data. The URI format is `tcp://LISTEN_ADDRESS:PORT`. - * `format:` データの形式。`json`または`none`を指定できます。 + * `format:` Format of the data. It can be `json` or `none`. - * `separator:` `format: none`を使用する場合は、レコードを分割するための区切り文字列を定義できます(デフォルト: `\n` )。 + * `separator:` If `format: none` is used, you can define a separator string for splitting records (default: `\n`). ```yml logs: @@ -327,26 +327,26 @@ import osAnsibleRed from 'images/os_icon_ansible-red.webp' title="winevtlog" > - インフラストラクチャ エージェント v.1.24.3 以降で利用可能Windows Server 2019 以降とのみ互換性があります。以前のバージョンでは代わりに[winlog を](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/#winlog)使用してください。 + Available since infrastructure agent v.1.24.3 Only compatible with Windows Server 2019 and later. Use [winlog](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent/#winlog) instead for prior versions. - [winevtlog Fluent Bitプラグイン](https://docs.fluentbit.io/manual/pipeline/inputs/windows-event-log-winevtlog)を使用して、新しいWindowsイベントログAPIを使用してWindowsログチャネルからイベントを収集します。 + Collect event from Windows log channels using new Windows Event Log API using the [winevtlog Fluent Bit plugin](https://docs.fluentbit.io/manual/pipeline/inputs/windows-event-log-winevtlog). - **パラメーター:** + **Parameters:** - * `channel`: ログが収集されるチャネルの名前。 + * `channel`: Name of the channel logs will be collected from. - * `collect-eventids`: 収集され、New Relic に転送される Windows イベント ID のリスト。イベント ID の範囲がサポートされています。 + * `collect-eventids`: List of Windows Event IDs to be collected and forwarded to New Relic. Event ID ranges are supported. - * `exclude-eventids`: 収集から除外する Windows イベント ID のリスト。イベント ID の範囲がサポートされています。 + * `exclude-eventids`: List of Windows Event IDs to be excluded from collection. Event ID ranges are supported. - * `use-ansi`: winevtlog メッセージには ANSI エンコードを使用します。Windows Server 2016 以前のバージョンではデフォルトで ANSI エンコードを使用し、新しいバージョンでは UTF-8 を使用します。これらのデフォルトがユースケースに適合しない場合は、この構成パラメータでこの動作をオーバーライドできます。 + * `use-ansi`: Use ANSI encoding on winevtlog messages. We use ANSI encoding by default on Windows Server 2016 and older versions, and UTF-8 on newer ones. You can override this behavior with this configuration parameter if these defaults do not suit your use case. - デフォルトでは、すべてのイベントは指定されたチャネルから収集されます。New Relicアカウントに不要なログが送信されないように、 `collect-eventids`セクションと`exclude-eventids`セクションを構成します。 + All events are collected from the specified channel by default. Configure the `collect-eventids` and `exclude-eventids` sections to avoid sending unwanted logs to your New Relic account. - イベントIDまたは範囲を`collect-eventids`または`exclude-eventids`に追加して、特定のイベントを転送またはドロップします。同じイベントIDが両方のセクションに存在する場合、 `exclude-eventids`は`collect-eventids`よりも優先されます。 + Add event IDs or ranges to `collect-eventids` or `exclude-eventids` to forward or drop specific events. `exclude-eventids` takes precedence over `collect-eventids` if the same event ID is present in both sections. - **例:** + **例:** ```yml logs: @@ -392,26 +392,26 @@ import osAnsibleRed from 'images/os_icon_ansible-red.webp' title="winlog" > - Winlog は従来のイベント ログのみを収集できます。他のユーザーをキャプチャしようとすると、サイレント モードでアプリケーション ログが収集されます。 + Winlog can only collect classic Event logs. Attempting to capture others will silently collect the Applications log. - Windowsログチャネルからイベントを収集します。 + Collect events from Windows log channels. - **パラメーター:** + **Parameters:** - * `channel`: ログが収集されるチャネルの名前。カスタムチャンネルでは機能しません。 + * `channel`: Name of the channel logs will be collected from. It doesn't work for custom channels. - * `collect-eventids`: 収集され、New Relic に転送される Windows イベント ID のリスト。イベント ID の範囲がサポートされています。 + * `collect-eventids`: List of Windows Event IDs to be collected and forwarded to New Relic. Event ID ranges are supported. - * `exclude-eventids`: 収集から除外する Windows イベント ID のリスト。イベント ID の範囲がサポートされています。 + * `exclude-eventids`: List of Windows Event IDs to be excluded from collection. Event ID ranges are supported. - * `use-ansi`: winlog メッセージに ANSI エンコードを使用します。Windows Server 2016 以前のバージョンではデフォルトで ANSI エンコードを使用し、新しいバージョンでは UTF-8 を使用します。これらのデフォルトがユースケースに適合しない場合は、この構成パラメータでこの動作をオーバーライドできます。 + * `use-ansi`: Use ANSI encoding on winlog messages. We use ANSI encoding by default on Windows Server 2016 and older versions, and UTF-8 on newer ones. You can override this behavior with this configuration parameter if these defaults do not suit your use case. - デフォルトでは、すべてのイベントは指定されたチャネルから収集されます。New Relicアカウントに不要なログが送信されないように、 `collect-eventids`セクションと`exclude-eventids`セクションを構成します。 + All events are collected from the specified channel by default. Configure the `collect-eventids` and `exclude-eventids` sections to avoid sending unwanted logs to your New Relic account. - イベントIDまたは範囲を`collect-eventids`または`exclude-eventids`に追加して、特定のイベントを転送またはドロップします。同じイベントIDが両方のセクションに存在する場合、 `exclude-eventids`は`collect-eventids`よりも優先されます。 + Add event IDs or ranges to `collect-eventids` or `exclude-eventids` to forward or drop specific events. `exclude-eventids` takes precedence over `collect-eventids` if the same event ID is present in both sections. - **例:** + **例:** ```yml logs: @@ -453,24 +453,24 @@ import osAnsibleRed from 'images/os_icon_ansible-red.webp' -### ステップ 3. 主要な属性を定義する [#optional-config] +### Step 3. Define key attributes [#optional-config] -これらの構成パラメータは必須ではありませんが、これらの構成を`logging.yml`ファイルに適用して、ログ転送を最大限に活用することをお勧めします。 +Although these configuration parameters aren't required, we still recommend you apply these configurations to your `logging.yml` file so you get the most out of log forwarding. - キーと値のペアとして指定されたカスタム属性のリスト。ログとともに追加のデータを送信するために使用でき、その後クエリを実行できます。`attributes`構成パラメーターは、任意のログソースで使用できます。 + List of custom attributes specified as key-value pairs that can be used to send additional data with the logs which you can then query. The `attributes` configuration parameter can be used with any log source. - `attributes`構成パラメーターは、外部Fluent Bit構成を介して(たとえば、 `fluentbit`構成パラメーターを使用して)転送されるログにカスタム属性を追加しません。このシナリオでは、 [FluentBitドキュメント](https://docs.fluentbit.io/manual/)の`record_modifier`オプションを参照する必要があります。 + The `attributes` configuration parameter does not add custom attributes to logs forwarded via external Fluent Bit configuration (for example, using the `fluentbit` configuration parameter). In this scenario, you should refer to the `record_modifier` option in the [Fluent Bit documentation](https://docs.fluentbit.io/manual/). - `attributes`構成パラメータの一般的な使用法の 1 つは、 `logtype`属性を指定することです。この属性により、New Relic がサポートする[組み込みの解析ルール](/docs/logs/log-management/ui-data/parsing/#built-in-rules)の 1 つを利用できるようになります。 能力。 + One common use of the `attributes` configuration parameter is to specify the `logtype` attribute. This attribute allows leveraging one of the [built-in parsing rules](/docs/logs/log-management/ui-data/parsing/#built-in-rules) supported by New Relic's capabilities. - **例:** + **例:** ```yml logs: @@ -493,9 +493,9 @@ import osAnsibleRed from 'images/os_icon_ansible-red.webp' - インフラストラクチャエージェントは、便宜上、ログ属性を自動的に挿入します。それらのいくつかはログレコードに挿入されますが、その他はログフォワーダーのセットアップ中に使用した構成パラメーターに依存します。 + The infrastructure agent automatically inserts log attributes for your convenience. Some of them are inserted for any log record, while others depend on the configuration parameters you used while setting up the log forwarder. @@ -517,11 +517,11 @@ import osAnsibleRed from 'images/os_icon_ansible-red.webp' @@ -531,9 +531,9 @@ import osAnsibleRed from 'images/os_icon_ansible-red.webp' @@ -543,9 +543,9 @@ import osAnsibleRed from 'images/os_icon_ansible-red.webp' @@ -555,9 +555,9 @@ import osAnsibleRed from 'images/os_icon_ansible-red.webp' @@ -567,9 +567,9 @@ import osAnsibleRed from 'images/os_icon_ansible-red.webp' @@ -580,9 +580,9 @@ import osAnsibleRed from 'images/os_icon_ansible-red.webp' id="pattern" title="パターン" > - レコードをフィルタリングするための正規表現。`tail` 、 `systemd` 、 `syslog` 、および`tcp` (形式`none`の場合のみ)のソースでのみサポートされます。 + Regular expression for filtering records. Only supported for the `tail`, `systemd`, `syslog`, and `tcp` (only with format `none`) sources. - このフィールドは、Unixシステムの`grep -E`と同じように機能します。たとえば、キャプチャされている特定のファイルについて、次を使用して`WARN`または`ERROR`のいずれかを含むレコードをフィルタリングできます。 + This field works in a way similar to `grep -E` in Unix systems. For example, for a given file being captured, you can filter for records containing either `WARN` or `ERROR` using: ```yml - name: only-records-with-warn-and-error @@ -590,50 +590,50 @@ import osAnsibleRed from 'images/os_icon_ansible-red.webp' pattern: WARN|ERROR ``` - デフォルトでは、フィルタリングは適用されません。 + No filtering is applied by default. - ログエントリ/行の最大サイズ(KB単位)。ログエントリが制限を超えると、スキップされます。デフォルトは`128`です。 + Maximum size of log entries/lines in KB. If log entries exceed the limit, they are skipped. Default is `128`. - 外部[FluentBit](https://fluentbit.io/)構成およびパーサーファイル。定義されている場合、それらはインフラストラクチャエージェントによって生成された既存の構成ファイルおよびパーサーファイルとマージされます。 + External [Fluent Bit](https://fluentbit.io/) configuration and parser files. If defined, they are merged with the existing configuration and parser files generated by the infrastructure agent. - インフラストラクチャエージェントは、 `logging.d`ディレクトリにある構成ファイルを処理し、適切な`[INPUT]` 、 `[FILTER]` 、および`[OUTPUT]`セクションを含むランタイムFluentBit構成ファイルを生成します。オプションで、 `fluentbit`オプションを介して外部Fluent Bit構成ファイルを提供した場合は、 `@INCLUDE`も宣言します。 + The infrastructure agent processes the configuration files located in the `logging.d` directory and will generate a run-time Fluent Bit configuration file that contains the appropriate `[INPUT]`, `[FILTER]` and `[OUTPUT]` sections. Optionally, it will also declare an `@INCLUDE` in case you provided an external Fluent Bit configuration file via the `fluentbit` option. - ランタイム ファイルで[`[SERVICE]`セクション](https://docs.fluentbit.io/manual/administration/configuring-fluent-bit/classic-mode/configuration-file)が定義されていないため、すべてのデフォルトの Fluent Bit 構成値が残されています。外部の Fluent Bit 構成ファイルで独自の`[SERVICE]`セクションを定義し、 `fluentbit`オプションを介して含めることで、Fluent Bit のデフォルト設定をオーバーライドできます。 + The runtime file does not define a [`[SERVICE]` section](https://docs.fluentbit.io/manual/administration/configuring-fluent-bit/classic-mode/configuration-file), leaving all default Fluent Bit configuration values. You can still override Fluent Bit's default settings by defining your own `[SERVICE]` section in your external Fluent Bit configuration file and include it via the `fluentbit` option. - **パラメーター:** + **Parameters:** - `config_file:` 既存の Fluent Bit 構成ファイルへのパス。重複するソースがあると、ログ UI で重複したメッセージが表示されることに注意してください。 + `config_file:` path to an existing Fluent Bit configuration file. Note that any overlapping source results in duplicate messages in our logs UI. - `parsers_file:` 既存のFluentBitパーサーファイルへのパス。次のパーサー名が予約されています: `rfc3164` 、 `rfc3164-local` 、および`rfc5424` 。 + `parsers_file:` path to an existing Fluent Bit parsers file. The following parser names are reserved: `rfc3164`, `rfc3164-local` and `rfc5424`. - このドキュメントで説明されているように、インフラストラクチャ エージェントでは、 `logging.d/`ディレクトリ内の YAML ファイルに単純なログ転送構成を定義することで、最も一般的なユースケースのログを転送できます。これらのファイルは、正しい形式と適切な構成デフォルトを備えた Fluent Bit 構成ファイルに内部で変換されます。New Relic は、生成された設定ファイルが正しく動作することを保証するため、これらの設定オプションの公式サポートを提供します。 + The infrastructure agent allows forwarding logs for the most common use cases by defining simple log forwarding configurations in the YAML files in the `logging.d/` directory, as described in this document. These files are internally translated into Fluent Bit configuration files with the correct format and sane configuration defaults. New Relic provides official support for these configuration options since we ensure that the generated configuration files are correct and operative. - ただし、サポートされている構成オプションでカバーされていないユースケースについては、 `fluentbit` 、 `config_file` 、および`parsers_file`オプションを使用して、外部で生成された Fluent Bit 構成およびパーサー ファイルを使用する可能性を提供します。 + Nevertheless, for those use cases not covered by our supported configuration options, we provide the possibility to use an externally-generated Fluent Bit configuration and parsers file using the `fluentbit`, `config_file`, and `parsers_file` options. - 注: 提供された構成は完全に任意であり、エージェントによって生成/検証されていないため、この場合、転送されたログが正しく動作することは保証できません。したがって、New Relic は、これらのオプションで指定された外部構成に対する公式サポートを提供しません。 + Note: We cannot guarantee the correct operation of the log forwarded in this case, given that the provided configurations are completely arbitrary and are not being generated/validated by the agent. Therefore, New Relic does not provide official support for the external configurations specified via these options. -### サンプル構成ファイル [#running-modes] +### Sample configuration file [#running-modes] -YAML形式の`logging.d/`構成ファイルの例を次に示します。その他の構成例[については、インフラストラクチャエージェントリポジトリを参照してください](https://github.com/newrelic/infrastructure-agent/tree/master/assets/examples/logging)。 +Here is an example of a `logging.d/` configuration file in YAML format. For more configuration examples, [see the infrastructure agent repository](https://github.com/newrelic/infrastructure-agent/tree/master/assets/examples/logging). ```yml # Remember to only use spaces for indentation @@ -703,11 +703,11 @@ YAML形式の`logging.d/`構成ファイルの例を次に示します。その -### ステップ 4. ログデータを表示する [#find-data] +### Step 4. View your log data [#find-data] -すべてが正しく構成され、データが収集されている場合は、次の場所にログと関連するテレメトリデータが表示されます。 +If everything is configured correctly and your data is being collected, you should see logs and related telemetry data in these places: -* [ログUI](https://one.newrelic.com/launcher/logger.log-launcher) +* Our [logs UI](https://one.newrelic.com/launcher/logger.log-launcher) * インフラストラクチャ UI で、ホスト テーブルから、 @@ -715,28 +715,28 @@ YAML形式の`logging.d/`構成ファイルの例を次に示します。その 特定のホストの アイコンをクリックし、 **View logs** \[ログの表示]をクリックします。 -* [NRQL クエリ](/docs/chart-builder/use-chart-builder/choose-data/use-advanced-nrql-mode-specify-data)を実行するためのツール。たとえば、次のようなクエリを実行できます。 +* Our tools for running [NRQL queries](/docs/chart-builder/use-chart-builder/choose-data/use-advanced-nrql-mode-specify-data). For example, you can execute a query like this: ```sql SELECT * FROM Log ``` -## オンホスト統合のログを有効にする [#on-host] +## Enable logging for your on-host integrations [#on-host] -インフラストラクチャエージェントをインストールすると、最も一般的なオンホスト統合の自動ログ解析と転送を1つのステップで有効にできます。この機能を有効にするには、 `on-host-log.yml.example`ファイルの名前を`on-host-log.yml`に変更します。完了すると、統合のログが自動的に解析され、NewRelicに送信されます。 +With the infrastructure agent installed, you can enable automatic log parsing and forwarding for our most popular on-host integrations with one step. To enable this feature, rename the `on-host-log.yml.example` file to `on-host-log.yml`. Once done, your integration's logs are automatically parsed and sent to New Relic. -このオプションは、[サポートされているLinuxプラットフォーム](#requirements)で使用できます。 +This option is available for our [supported Linux platforms](#requirements). -オンホスト統合ログ転送機能を有効にするには: +To enable the on-host integration log forwarding feature: - `elasticsearch-log.yml.example`ファイルをコピーするか、名前を`elasticsearch-log.yml`に変更して、Elasticsearch JSON 形式のログの自動解析と New Relic への転送を有効にします。エージェントを再起動する必要はありません。 + Copy or rename the `elasticsearch-log.yml.example` file to `elasticsearch-log.yml` to enable automatic Elasticsearch JSON formatted log parsing and forwarding to New Relic. No need to restart the agent. - **例:** + **例:** ```bash sudo cp /etc/newrelic-infra/logging.d/elasticsearch-log.yml.example /etc/newrelic-infra/logging.d/elasticsearch-log.yml @@ -745,11 +745,11 @@ SELECT * FROM Log - MySQL エラー ログの自動解析と New Relic への転送を有効にするには、 `mysql-log.yml.example`ファイルをコピーするか名前を`mysql-log.yml`に変更します。エージェントを再起動する必要はありません。 + Copy or rename the `mysql-log.yml.example` file to `mysql-log.yml` to enable automatic MySQL error log parsing and forwarding to New Relic. No need to restart the agent. - **例:** + **例:** ```bash sudo cp /etc/newrelic-infra/logging.d/mysql-log.yml.example /etc/newrelic-infra/logging.d/mysql-log.yml @@ -758,11 +758,11 @@ SELECT * FROM Log - `nginx-log.yml.example`ファイルをコピーするか、名前を`nginx-log.yml`に変更して、自動 NGINX アクセスとエラー ログの解析と New Relic への転送を有効にします。エージェントを再起動する必要はありません。 + Copy or rename the `nginx-log.yml.example` file to `nginx-log.yml` to enable automatic NGINX access and error log parsing and forwarding to New Relic. No need to restart the agent. - **例:** + **例:** ```bash sudo cp /etc/newrelic-infra/logging.d/nginx-log.yml.example /etc/newrelic-infra/logging.d/nginx-log.yml @@ -771,11 +771,11 @@ SELECT * FROM Log - `rabbitmq-log.yml.example`ファイルをコピーするか、名前を`rabbitmq-log.yml`に変更して、Rabbitmq エラー ログの自動解析と New Relic への転送を有効にします。エージェントを再起動する必要はありません。 + Copy or rename the `rabbitmq-log.yml.example` file to `rabbitmq-log.yml` to enable automatic Rabbitmq error log parsing and forwarding to New Relic. No need to restart the agent. - **例:** + **例:** ```bash sudo cp /etc/newrelic-infra/logging.d/rabbitmq-log.yml.example /etc/newrelic-infra/logging.d/rabbitmq-log.yml @@ -784,11 +784,11 @@ SELECT * FROM Log - Redis エラー ログの自動解析と New Relic への転送を有効にするには、 `redis-log.yml.example`ファイルをコピーするか名前を`redis-log.yml`に変更します。エージェントを再起動する必要はありません。 + Copy or rename the `redis-log.yml.example` file to `redis-log.yml` to enable automatic Redis error log parsing and forwarding to New Relic. No need to restart the agent. - **例:** + **例:** ```bash sudo cp /etc/newrelic-infra/logging.d/redis-log.yml.example /etc/newrelic-infra/logging.d/redis-log.yml @@ -796,50 +796,50 @@ SELECT * FROM Log -## Linuxtarballを使用してインストールされたエージェントでログ転送を有効にする [#tarball-install] +## Enable log forwarding on agent installed using Linux tarball [#tarball-install] -インフラストラクチャ監視用のカスタム Linux インストール プロセスを使用すると、インストール プロセスのあらゆる側面を調整し、マシン上にファイルやフォルダを配置できます。[支援](/docs/infrastructure/install-infrastructure-agent/linux-installation/tarball-assisted-install-infrastructure-agent-linux)または[手動の](/docs/infrastructure/install-infrastructure-agent/linux-installation/tarball-manual-install-infrastructure-agent-linux)tarball インストール プロセスを選択した場合は、次の手順に従ってログ フォワーダー機能を実装します。 +Our custom Linux installation process for infrastructure monitoring allows you to tailor all aspects of the installation process, and to place files and folders on your machine. If you choose the [assisted](/docs/infrastructure/install-infrastructure-agent/linux-installation/tarball-assisted-install-infrastructure-agent-linux) or [manual](/docs/infrastructure/install-infrastructure-agent/linux-installation/tarball-manual-install-infrastructure-agent-linux) tarball installation process, follow these steps to implement the log forwarder feature: -1. 次のディレクトリを作成します。 +1. Create the following directories: * `/var/db/newrelic-infra/newrelic-integrations/logging` * `/etc/newrelic-infra/logging.d` -2. 次のようなコマンドを実行して、New Relicの[fluent-bit-package(RPM)](https://github.com/newrelic/fluent-bit-package/releases)をダウンロードしてインストールします。 +2. Download and install New Relic's [fluent-bit-package (RPM)](https://github.com/newrelic/fluent-bit-package/releases) by running a command similar to: ```shell yum localinstall fluent-bit-.rpm` ``` -3. New Relicの[fluentbitプラグイン](https://github.com/newrelic/newrelic-fluent-bit-output/releases)をダウンロードし、 `/var/db/newrelic-infra/newrelic-integrations/logging/out_newrelic.so`として保存します。 +3. Download New Relic's [fluentbit plugin](https://github.com/newrelic/newrelic-fluent-bit-output/releases) and save it as `/var/db/newrelic-infra/newrelic-integrations/logging/out_newrelic.so`. -4. [この Github リポジトリ](https://github.com/newrelic/fluent-bit-package/blob/main/parsers.conf)から`parsers.conf`ファイルをダウンロードまたはコピーし、 `/var/db/newrelic-infra/newrelic-integrations/logging/parsers.conf`として保存します。 +4. Download or copy the `parsers.conf` file from [this Github repository](https://github.com/newrelic/fluent-bit-package/blob/main/parsers.conf), and save it as `/var/db/newrelic-infra/newrelic-integrations/logging/parsers.conf`. ## トラブルシューティング [#troubleshoot] -ログフォワーダーの構成で問題が発生した場合は、次のトラブルシューティングのヒントを試してください。 +If you encounter problems with configuring your log forwarder, try these troubleshooting tips. - ログ管理機能を有効にしてもデータが表示されない場合は、[標準のログトラブルシューティング手順](/docs/logs/log-management/troubleshooting/no-log-data-appears-ui/)に従ってください。 + If no data appears after you enable our log management capabilities, follow our [standard log troubleshooting procedures](/docs/logs/log-management/troubleshooting/no-log-data-appears-ui/). - ログ転送機能では、エージェントがデータソースを読み取るためのアクセス許可を持っている必要があります。インフラストラクチャエージェントを[特権モードまたは非特権モード](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes)で実行する場合は、転送するログファイル(およびそのパス内の中間ディレクトリ)が、 `nri-agent`を実行しているユーザーが読み取れることを確認してください。 + The log forwarding feature requires the agent to have permission to read the data sources. When running the infrastructure agent in [privileged or non-privileged modes](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes), make sure that the log files you want to forward (and any intermediary directory in its path) are readable by the user running `nri-agent`. - **例:Linuxでのファイルアクセスの確認** + **Example: Check file access under Linux** - `nri-agent`ユーザーがファイル`/var/log/restrictedLogs/logFile.log`を監視できるかどうかを確認しましょう。Linuxでは、 `namei`コマンドを使用して簡単なチェックを行うことができます。 + Let's check whether the file `/var/log/restrictedLogs/logFile.log` can be monitored by the `nri-agent` user. In Linux, you can do a quick check with the `namei` command: ```bash sudo -u nri-agent namei -ml /var/log/restrictedLogs/logFile.log @@ -851,15 +851,15 @@ SELECT * FROM Log logFile.log - No such file or directory ``` - ファイルが`nri-agent`ユーザーに表示されないため、このコマンドは失敗しました。前の出力を調べることにより、 `restrictedLogs`ディレクトリに`others`の実行フラグがないことを検出できます。 + This command failed because the file is not visible to the `nri-agent` user. By inspecting the previous output, we can detect that the `restrictedLogs` directory is missing the execution flag for `others`. - これを修正するには、次を実行します。 + To fix this, execute: ```bash sudo chmod 755 /var/log/restrictedLogs ``` - 次に、ファイルアクセスを再度確認します。 + And then check for file access again: ```bash # sudo -u nri-agent namei -ml /var/log/restrictedLogs/logFile.log @@ -871,66 +871,66 @@ SELECT * FROM Log -rw-r----- vagrant vagrant logFile.log ``` - これで、ファイルは`nri-agent`ユーザーに表示されます。`nri-agent`ユーザーもファイルを読み取れるようにする必要があります。これを確認するには、次を使用します。 + The file is now visible to the `nri-agent` user. You must ensure that the file is also readable by the `nri-agent` user. To check this, use: ```bash # sudo -u nri-agent head /var/log/restrictedLogs/logFile.log head: cannot open '/var/log/restrictedLogs/logFile.log' for reading: Permission denied ``` - この例では、ファイルに`others`グループ( `vagrant`および`vagrant`ユーザーグループ以外のユーザー)の読み取り権限がありません。`others`に読み取り権限を付与することでこれを修正できますが、アプリケーションは再起動時にこれらの権限を変更する可能性があります。 + In this example, the file is missing the read rights for the `others` group (users other than `vagrant` and the `vagrant` user group). You could fix this by granting read permissions to `others`, but the application could change these permissions upon restart. - これを回避するには、 `nri-agent`ユーザーを`vagrant`ユーザーグループに追加することをお勧めします。 + To avoid this, a better approach is to add the `nri-agent` user to the `vagrant` user group. - ログ転送機能には、エージェントがデータソースを読み取る権限を持っている必要があります。インフラストラクチャエージェントを[特権モードまたは非特権モード](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes)で実行する場合: + The log forwarding feature requires that the agent has permission to read the data sources. When running the infrastructure agent in [privileged or non-privileged modes](/docs/infrastructure/install-configure-infrastructure/linux-installation/linux-agent-running-modes): * Unixドメインソケットファイルを使用している場合は、`nri-agent`ユーザーがこれらのファイルにアクセスできること(前のセクションを参照してください)と、他のユーザーが読み取りおよび書き込み権限(`666`)を持っていることを確認してください。 `nri-agent`よりも多くのユーザーが書き込み可能です。 - * IPソケットを使用している場合は、使用しているポートがシステムで予約されているポートではないことを確認してください(たとえば、ポート`80`など)。 + * If you're using IP sockets, ensure that the port that you are using is not a system reserved one (like port `80`, for example). - ログ管理を有効にしてもデータが表示されない場合は、[標準のログ管理のトラブルシューティング手順](/docs/logs/new-relic-logs/troubleshooting/no-data-appears-logs)に従ってください。 + If no data appears after you enable log management, follow [standard log management troubleshooting procedures](/docs/logs/new-relic-logs/troubleshooting/no-data-appears-logs). - [インフラストラクチャ エージェントの構成ガイドライン](/docs/infrastructure/install-infrastructure-agent/configuration/infrastructure-agent-configuration-settings#proxy)で説明されているように、 `proxy`パラメータは HTTP または HTTPS を使用し、 `https://user:password@hostname:port`の形式にする必要があります。エージェントは HTTP または HTTPS を使用せずにパラメーターを解析できますが、ログ フォワーダーは解析できません。エージェントの詳細ログに次のようなエラーが表示されます。 + As explained in the [infrastructure agent configuration guidelines](/docs/infrastructure/install-infrastructure-agent/configuration/infrastructure-agent-configuration-settings#proxy), the `proxy` parameter must use either HTTP or HTTPS and be in the form `https://user:password@hostname:port`. The agent can parse the parameter without the HTTP or HTTPS, but the log forwarder cannot. You will see an error like the following in the agent verbose logs: ``` [ERROR] building HTTP transport: parse \"hostname:port\": first path segment in URL cannot contain colon ``` - この問題を解決するには、 `newrelic-infra.yml`ファイルをチェックし、 `proxy`パラメータがこのフォームに準拠していることを確認してください。 + To solve this problem, check your `newrelic-infra.yml` file, and ensure the `proxy` parameter adheres to this form. - 証明書を指定するために`caBundleFile`または`caBundleDir`を使用している場合は、OSごとに以下のルールに従うことをお勧めします。 + If you're using `caBundleFile` or `caBundleDir` in order to specify any certificate, we recommend to follow the below rules for each OS: - **Linux** `HTTP`プロキシの場合、証明書を設定する必要はありません。プラグインはシステム証明書をロードし、NewRelicはログをロギングエンドポイントに送信します。ただし、 `caBundleFile`または`caBundleDir`パラメータのいずれかを使用して、プロキシ自己署名証明書(PEMファイル)を指定できます。 + **Linux** For `HTTP` proxies you don't need to setup any certificates. The plugin loads the system certificates and New Relic sends logs into the logging endpoint. However, you can specify the proxy self-signed certificate (PEM file) using either the `caBundleFile` or `caBundleDir` parameters. - **ウィンドウズ** + **Windows** - * `HTTP`プロキシの場合、証明書を設定する必要はありません。プラグインはシステム証明書をロードします。 + * For `HTTP` proxies you don't need to setup any certificates. The plugin loads the system certificates. - * `HTTPS`の場合、次のいずれかの方法で構成できます。 + * For `HTTPS`, you can configure it in one of the following ways: - * (推奨) プロキシ証明書をシステム プールにインポートします。MMC ツールを使用して、プロキシ自己署名証明書 (PEM ファイル) をインポートします。[このリンク](https://www.ssls.com/knowledgebase/how-to-import-intermediate-and-root-certificates-via-mmc/)を参照し、**ステップ 2**で、それを`Intermediate Certification Authorities`ではなく`Trusted Root Certification Authorities`にインポートしてください。 - * `caBundleFile`および`caBundleDir`パラメータを使用する Windows では、システム証明書プールからの証明書と、 `caBundleFile` `caBundleDir`パラメータで指定された証明書の両方をロードすることはできません。したがって、 `caBundleFile`または`caBundleDir`を使用している場合は、次の証明書が同じ PEM ファイル ( `caBundleFile`を使用する場合) または同じディレクトリ ( `caBundleDir`を使用する場合) に配置されていることを確認してください。 + * (Recommended) Import the proxy certificate to the system pool. Import the proxy self-signed certificate (PEM file) by using the MMC tool. Refer to [this link](https://www.ssls.com/knowledgebase/how-to-import-intermediate-and-root-certificates-via-mmc/), and in **Step 2** ensure to import it in your `Trusted Root Certification Authorities` instead of in the `Intermediate Certification Authorities`. + * Use the `caBundleFile` and `caBundleDir` parameters On Windows, we cannot load both the certificates from the system certificate pool and the ones specified with the `caBundleFile` `caBundleDir` parameters. So, if you are using `caBundleFile` or `caBundleDir`, ensure that the following certificates are placed in the same PEM file (when using `caBundleFile`) or in the same directory (when using `caBundleDir`): - * プロキシ証明書 ( `HTTPS`プロキシであるため)。 + * The proxy certificate (because it's an `HTTPS` proxy). - * ロギング エンドポイント証明書 (例:`https://log-api.newrelic.com/log/v1` )。 + * The logging endpoint certificate (eg. `https://log-api.newrelic.com/log/v1`). - * インフラストラクチャ エージェント証明書 (例:`https://infra-api.newrelic.com` )。 + * The infrastructure agent certificate (eg. `https://infra-api.newrelic.com`). - 次のコマンドを実行して、証明書を確認できます。 + You can check the certificates by running: ```bash # openssl s_client -connect log-api.newrelic.com:443 -servername log-api.newrelic.com @@ -940,19 +940,19 @@ SELECT * FROM Log - 独自のログをNewRelicに送信するようにインフラストラクチャエージェントを設定できます。これは、ログ転送、エージェントに関する問題のトラブルシューティング、または[サポート](https://support.newrelic.com/)に連絡するときに役立ちます。 + You can configure the infrastructure agent to send its own logs to New Relic. This is useful for troubleshooting issues with log forwarding, the agent, or when contacting [support](https://support.newrelic.com/). - トレース ログは、大量のデータを非常に迅速に生成します。ディスク容量の消費とデータの取り込みを減らすために、ログの生成が終了したら、必ず`level: info` (またはそれ以下) を設定してください。 + Trace logging generates a lot of data very quickly. To reduce disk space consumption and data ingest, when finished generating logs, be sure to set `level: info` (or lower). - インフラストラクチャエージェントのログをNewRelicに転送するには: + To forward the infrastructure agent logs to New Relic: - 1. `newrelic-infra.yml`ファイルを編集します。 + 1. Edit your `newrelic-infra.yml` file. - 2. 次の構成スニペットを追加して、New Relic へのログ転送を有効にします。 + 2. Enable logs forwarding to New Relic by adding the following config snippet: ```yml log: @@ -962,25 +962,25 @@ SELECT * FROM Log stdout: false # On Windows and systems that don't use `systemd` or where `journald` is inaccessible ``` - 3. [エージェントを再起動して](/docs/infrastructure/new-relic-infrastructure/configuration/start-stop-restart-check-infrastructure-agent-status)、新しい設定をロードします。 + 3. [Restart the agent](/docs/infrastructure/new-relic-infrastructure/configuration/start-stop-restart-check-infrastructure-agent-status) to load the new settings. - この設定では、エージェントがトラブルシューティングモードに設定されますが、ログフォワーダ( [Fluent Bit](https://fluentbit.io/)に基づく)は非冗長モードで続行されます。 + This configuration sets up the agent in troubleshooting mode, but the log forwarder (based on [Fluent Bit](https://fluentbit.io/)) will continue in a non-verbose mode. - 場合によっては、ログ フォワーダー自体に問題が発生することがあります。たとえば、Windows ログ イベントの送信時や特定のログ ファイルへのアクセス時に、特定のチャネルへのアクセスに問題が発生する場合があります。このような状況では、ログ フォワーダーの冗長モードを有効にすることもできます。 + Sometimes you can have issues with the log forwarder itself. For example, there may be problems accessing a specific channel when shipping Windows log events or when accessing a particular log file. In these situations, you can also enable the verbose mode for the log forwarder. - トレース ログは、大量のデータを非常に迅速に生成します。ディスク容量の消費とデータの取り込みを減らすために、ログの生成が終了したら、必ず`level: info` (またはそれ以下) を設定してください。 + Trace logging generates a lot of data very quickly. To reduce disk space consumption and data ingest, when finished generating logs, be sure to set `level: info` (or lower). - 1. `newrelic-infra.yml`ファイルを編集します。 + 1. Edit your `newrelic-infra.yml` file. - 2. 次の構成スニペットを追加して、Fluent Bit の詳細ログを有効にします。 + 2. Enable Fluent Bit verbose logs by adding the following config snippet: ```yml log: @@ -993,61 +993,61 @@ SELECT * FROM Log - supervisor # Required to see verbose logs from Fluent Bit ``` - 3. [エージェントを再起動して](/docs/infrastructure/new-relic-infrastructure/configuration/start-stop-restart-check-infrastructure-agent-status)、新しい設定をロードします。 + 3. [Restart the agent](/docs/infrastructure/new-relic-infrastructure/configuration/start-stop-restart-check-infrastructure-agent-status) to load the new settings. - FluentBitのテールプラグインはネットワークドライブをサポートしていません。 + Fluent Bit's tail plugin does not support network drives. - 2016より前のバージョンのLinuxの場合、OpenSSLライブラリを1.1.0に更新する必要がある場合があります(以上)。この問題があるかどうかを確認するには: + For Linux versions prior to 2016, you may need to update the OpenSSL library to 1.1.0 (or higher). To check if you have this problem: - 1. 次のコマンドを実行して、 `infra-agent`がFluentBitを開始したかどうかを確認します。 + 1. See if `infra-agent` has started Fluent Bit by running: ```bash ps -aux | grep fluent-bit ``` - 2. 実行されていない場合は、 `/var/db/newrelic-infra/newrelic-integrations/logging`に移動して実行します。 + 2. If it isn't running go to `/var/db/newrelic-infra/newrelic-integrations/logging` and run: ```bash ./fluent-bit -i systemd -o stdout ``` - 3. 次のエラーが発生した場合: + 3. If you get the following error: ``` error while loading shared libraries: libssl.so.1.1: cannot open shared object file: No such file or directory ``` - OpenSSL を 1.1.0 に更新してください。以上。 + Make sure to update OpenSSL to 1.1.0 or higher. - Windowsでログ転送を有効にすると、次のエラーメッセージのいずれかが表示される場合があります。 + One of the following error messages may appear when enabling log forwarding on Windows: ``` The code execution cannot proceed because VCRUNTIME140.dll was not found. ``` - また + または ``` error="exit status 3221225781" process=log-forwarder ``` - これは、DLLが見つからないことが原因です。 + This is caused by a missing DLL. - この問題を解決するには、必要に応じて[Microsoft VisualC++再頒布](https://support.microsoft.com/en-us/help/2977003/the-latest-supported-visual-c-downloads)可能パッケージをインストールします。 + To solve the issue, install the [Microsoft Visual C++ Redistributable](https://support.microsoft.com/en-us/help/2977003/the-latest-supported-visual-c-downloads) as applicable: * [x64](https://aka.ms/vs/16/release/vc_redist.x64.exe) * [x86](https://aka.ms/vs/16/release/vc_redist.x86.exe) @@ -1056,85 +1056,85 @@ SELECT * FROM Log - 大量のファイルを追尾しようとすると、次のいずれかのエラーメッセージが表示されるのが一般的です。 + It's common to face either one of the following error messages when attempting to tail a large amount of files: * `Too many open files` * `The user limit on the total number of inotify watches was reached or the kernel failed to allocate a needed resource` - オペレーティングシステムは、割り当て可能なファイル記述子の最大量(通常はデフォルトで1024)と、割り当て可能なinotifyウォッチの最大量(通常はデフォルトで8192)を定義します。これらの制限を超えようとするプロセスは失敗し、上記のエラーの1つを返します。 + The operating system defines a maximum amount of allocatable file descriptors (typically 1024 by default), and a maximum amount of allocatable inotify watches (typically 8192 by default). Any process attempting to go above these limits will fail, returning one of the errors above. - ログの転送に使用する基盤となるテクノロジーである[FluentBit](https://fluentbit.io/)は、1つのファイル記述子を開き、転送するように構成したファイルごとにinotifyウォッチを設定します。さらに、このセクションの執筆時点では、Fluent Bitは通常の操作に32個のファイル記述子の追加セットを使用し、シャットダウン時に別の追加ファイル記述子を使用します。したがって、**大量のファイルをキャプチャするには、ファイル記述子とinotifyの監視制限の両方が、調整するログファイルの量よりもわずかに大きいことを確認する必要があります**。 + The underlying technology we use to forward logs, [Fluent Bit](https://fluentbit.io/), opens one file descriptor and sets an inotify watch for each file you configure to be forwarded. Moreover, at the time of writing this section, Fluent Bit uses an extra set of 32 file descriptors for its normal operation, with another extra file descriptor when it shuts down. Therefore, **to capture a large amount of files you need to ensure that both the file descriptor and inotify watch limits are slightly greater than the amount of log files you wish to tail**. - 次の手順は、10,000個のログファイルを追跡する場合にこれらの制限を増やす方法をまとめたものです。また、インフラストラクチャエージェントが`root` [実行モード](/docs/infrastructure/install-infrastructure-agent/linux-installation/linux-agent-running-modes/)でインストールされていることを前提としているため、 `root`ユーザーを使用して実行する必要があります。 + The following instructions summarize how to increase these limits if you want to tail 10,000 log files. Also, it assumes the infrastructure agent is installed in `root` [running mode](/docs/infrastructure/install-infrastructure-agent/linux-installation/linux-agent-running-modes/), and therefore must be run using the `root` user. - 1. プロセスごとのファイル記述子の量の現在のハード制限を確認してください。通常、この制限は非常に高く、変更する必要はありません。 + 1. Check which is the current hard limit for the amount of file descriptors per process. Typically, this limit should be quite high and should not need to be modified. ```bash ulimit -Hn ``` - 2. 次の行を`/etc/security/limits.conf`に追加します。Fluent Bitが機能する必要のある追加のファイル記述子を割り当てることができるように、ここでは`10000`ではなく`10100`の制限を指定しました。 + 2. Add the following line to `/etc/security/limits.conf`. We specified a limit of `10100` here instead of just `10000` to allow Fluent Bit to allocate the extra file descriptors it may need to work. ```bash root soft nofile 10100 # replace root by nri-agent for non-root (privileged and unprivileged) installations ``` - 3. 再起動時に前の制限が適用されるように、次の行を`/etc/pam.d/common-session`に追加します。 + 3. Add the following line to `/etc/pam.d/common-session` so that the previous limit is applied upon restart: ```bash session required pam_limits.so ``` - 4. 次の行を`/etc/sysctl.conf`に追加して、ユーザーごとに許可されるinotifyウォッチャーの数を増やします。ここでは、 `10000`ではなく`18192`の制限を指定して、 `root`ユーザーが引き続き`8192`のinotifyウォッチ(デフォルト値)を使用できるようにしました。 + 4. Add the following line to `/etc/sysctl.conf` to increase the amount of allowed inotify watchers per user. We specified a limit of `18192` here instead of just `10000` so that the `root` user will still have `8192` available inotify watches (the default value). ```bash fs.inotify.max_user_watches=18192 ``` - 5. システムを再起動します。 + 5. Restart your system. - 6. 次のコマンドを実行して、新しい制限が適用されていることを確認します。 + 6. Ensure that the new limits have been enforced by running: ```bash ulimit -Sn # Should return 10100 cat /proc/sys/fs/inotify/max_user_watches # Should return 18192 ``` - [開いているファイルの制限を増やす](https://tecadmin.net/increase-open-files-limit-ubuntu/)[方法、またはinotifyウォッチを増やす](https://dev.to/rubiin/ubuntu-increase-inotify-watcher-file-watch-limit-kf4)方法の詳細をご覧ください。 + [Learn more on how to increase open file limits](https://tecadmin.net/increase-open-files-limit-ubuntu/), or on [how to increase the inotify watches](https://dev.to/rubiin/ubuntu-increase-inotify-watcher-file-watch-limit-kf4). - バージョン[1.19.0](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes/new-relic-infrastructure-agent-1190) (またはSLES 12.5の場合はバージョン1.20.3)より前は、Linuxインフラストラクチャエージェントに[FluentBit](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes/new-relic-infrastructure-agent-1203)バイナリがバンドルされていました。このバージョン以降、FluentBitは個別の`recommended`パッケージ依存関係として含まれるようになりました。 + Prior to version [1.19.0](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes/new-relic-infrastructure-agent-1190) (or version [1.20.3](/docs/release-notes/infrastructure-release-notes/infrastructure-agent-release-notes/new-relic-infrastructure-agent-1203) for SLES 12.5), the Linux infrastructure agent came bundled with a Fluent Bit binary. Starting in this version, Fluent Bit is now included as as a separate `recommended` package dependency. - これは、Fluent Bitをエージェントとは別にインストール、更新、またはダウングレードできることを意味します。便宜上、インフラストラクチャが存在する同じリポジトリにいくつかのFluent Bitパッケージが含まれているため、FluentBitをアップグレードするために追加のリポジトリをインストールする必要はありません。 + This means that you can install, update, or downgrade Fluent Bit separately from the agent. For your convenience, we have included several Fluent Bit packages in the same repository where the infrastructure lives, so you don't need to install any additional repositories to upgrade Fluent Bit. - エージェントは、最初にインストールしたときに、利用可能な最新バージョンを使用してFluentBitを自動的にインストールすることに注意してください。最初のインストール後、Linuxパッケージで通常行うようにFluentBitをアップグレードできます。 + Note that the agent automatically installs Fluent Bit when you first install it, using the latest available version. After the first installation, you can upgrade Fluent Bit as you would normally do with any Linux package. - 次のコマンドを実行して、使用可能なFluentBitバージョンを一覧表示できます。 + You can list the available Fluent Bit versions by running: - RPM: + RPM: ```bash sudo yum check-update yum list fluent-bit --showduplicates ``` - DEB: + DEB: ```bash sudo apt update apt-cache showpkg fluent-bit ``` - 特定のFluentBitバージョンにアップグレードするには、次のコマンドを実行します(次の例では、バージョン`2.0.8`が使用されています)。 + To upgrade to a particular Fluent Bit version, just run (in the following examples, version `2.0.8` is used): - RPM: + RPM: ```bash # Remove command only required when downgrading to a previous version @@ -1142,7 +1142,7 @@ SELECT * FROM Log sudo yum install fluent-bit-2.0.8-1 ``` - DEB: + DEB: ```bash sudo apt install fluent-bit=2.0.8 @@ -1152,38 +1152,38 @@ SELECT * FROM Log - td-agent-bit は次のディストリビューションでは使用できないため、ロールバックできないことに注意してください。 + Please note that td-agent-bit is not available for the following distributions so rollbacks on them are not possible: - * CentOS 9 ストリーム (Rocky Linux および AlmaLinux を含む) - * レッドハット9 + * CentOS 9 Stream (including Rocky Linux and AlmaLinux) + * RedHat 9 * Ubuntu 22.04.x - * オープン スース (SLES) 15.4 + * Open Suse (SLES) 15.4 * Amazon Linux 2023 - td-agent-bit に戻したい場合は、以下の手順に従ってください。 + If you wish to revert to td-agent-bit, you can follow the steps outlined below: - 1. 任意のテキスト エディタを使用してファイル `/etc/newrelic-infra.yml` を開きます。 - 2. ファイルの最後に次の行を追加します: `fluent_bit_exe_path: /opt/td-agent-bit/bin/td-agent-bit`。 - 3. 変更を保存します。 - 4. コマンド `sudo systemctl restart newrelic-infra`を実行して、インフラストラクチャ エージェントを再起動します。 + 1. Open the file `/etc/newrelic-infra.yml` using your preferred text editor. + 2. Add the following line at the end of the file: `fluent_bit_exe_path: /opt/td-agent-bit/bin/td-agent-bit`. + 3. Save the changes. + 4. Restart the infrastructure agent by executing the following command: `sudo systemctl restart newrelic-infra`. - これらの手順を完了すると、インフラストラクチャ エージェントは、fluent-bit の代わりに td-agent-bit を使用するように構成されます。 + By completing these steps, the infrastructure agent will be configured to use td-agent-bit instead of fluent-bit. -## 次は何ですか? [#what-next] +## 次のステップ [#what-next] -[ログ UI](/docs/logs/log-management/ui-data/use-logs-ui/)を使用して、プラットフォーム全体のログ データを調べます。 +Explore logging data across your platform with our [logs UI](/docs/logs/log-management/ui-data/use-logs-ui/). -* [ログインコンテキスト](/docs/logs/enable-log-management-new-relic/configure-logs-context/configure-logs-context-apm-agents/)機能を使用してログを転送することにより、アプリケーションとプラットフォームのパフォーマンスデータの両方をより深く把握できます。 -* [アラートを](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-alert-conditions/)設定します。 -* [データをクエリ](/docs/query-your-data/explore-query-data/get-started/introduction-querying-new-relic-data/)し、[ダッシュボードを作成します](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/)。 +* Get deeper visibility into both your application and your platform performance data by forwarding your logs with our [logs in context](/docs/logs/enable-log-management-new-relic/configure-logs-context/configure-logs-context-apm-agents/) capabilities. +* Set up [alerts](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-alert-conditions/). +* [Query your data](/docs/query-your-data/explore-query-data/get-started/introduction-querying-new-relic-data/) and [create dashboards](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/). -## ログ転送を無効にする [#uninstall] +## Disable log forwarding [#uninstall] -ログ転送機能を無効にするには、 `logging.d`ディレクトリに移動し、[構成](#configure)プロセス中に最初に追加された`.yml`拡張子のファイルを削除します。 +To disable log forwarding capabilities, go to your `logging.d` directory, and remove files with the `.yml` extension that were originally added during the [configuration](#configure) process. * Linux: `/etc/newrelic-infra/logging.d/` -* ウィンドウズ: `C:\Program Files\New Relic\newrelic-infra\logging.d\` \ No newline at end of file +* Windows: `C:\Program Files\New Relic\newrelic-infra\logging.d\` \ No newline at end of file diff --git a/src/i18n/content/jp/docs/logs/get-started/get-started-log-management.mdx b/src/i18n/content/jp/docs/logs/get-started/get-started-log-management.mdx index 677628a65de..7df940ff1c0 100644 --- a/src/i18n/content/jp/docs/logs/get-started/get-started-log-management.mdx +++ b/src/i18n/content/jp/docs/logs/get-started/get-started-log-management.mdx @@ -1,5 +1,5 @@ --- -title: ログ管理を始めよう +title: ログ管理の開始 tags: - Logs - Log management @@ -8,16 +8,16 @@ metaDescription: Connect your logs with your other telemetry and infrastructure signupBanner: text: Monitor and improve your entire stack. 100GB free. Forever. freshnessValidatedDate: never -translationType: machine +translationType: human --- import logsMainLogsUi from 'images/logs_screenshot-full_main-logs-ui.webp' -アプリケーションがクラウドに移行するにつれて、マイクロサービス アーキテクチャはますます分散され、ログを監視する機能が不可欠になっています。New Relic は、高速でスケーラブルなログ管理プラットフォームを提供するため、ログを残りのテレメトリおよびインフラストラクチャ データと 1 か所で接続できます。 +アプリケーションがクラウドに移行するにつれて、マイクロサービスアーキテクチャーはより分散化されており、ログを監視する機能が不可欠になっています。New Relicでは高速でスケーラブルなログ管理プラットフォームを提供しているため、ログを残りのテレメトリーとインフラストラクチャデータと1か所で接続できます。 -私たちのこのソリューションは、アプリケーションとインフラストラクチャのパフォーマンス データ (イベント、エラー、トレースなど) をより詳細に可視化して、平均解決時間 (MTTR) を短縮し、本番環境のインシデントを迅速にトラブルシューティングします。 +当社のソリューションは、アプリケーションとインフラストラクチャのパフォーマンスデータ(イベント、エラー、トレースなど)をより詳細に可視化して、平均解決時間(MTTR)を短縮し、本番環境のインシデントを迅速にトラブルシューティングします。 -## 問題をより早く発見し、コンテキストスイッチを減らす [#logs-definition] +## 問題をより迅速に発見し、コンテキストの切り替えを減らす [#logs-definition] All capabilities](https://one.newrelic.com/all-capabilities) > Logs**: メインのログ UI ページから、すべてのログを表示し、特定のテキストまたはその他の属性を含むログにフィルターをかけることができます。 -ログ管理は、ログデータを残りのアプリケーションおよびインフラストラクチャデータと接続する方法を提供します。ツールを切り替えることでコンテキストを失うことなく、問題の根本原因にすばやく到達できます。たとえば、次のことができます。 +ログ管理は、ログデータをその他のアプリケーションやインフラストラクチャデータに接続する方法を提供します。ツールの切り替えによってコンテキストを失うことなく、問題の根本原因を迅速に見つけることができます。たとえば、次のことが可能です。 -* アプリとホストの問題のコンテキストでログを提供するNewRelicUI全体で関連データを取得します。 -* ログ UI を使用してログ データをさらに詳しく調べ、カスタム グラフ、ダッシュボード、アラートを作成します。 -* 瞬時にログを検索することができます。 -* 他のツールを切り替えずにパフォーマンスの問題をトラブルシューティングします。 -* すべてを一カ所に集めて視覚化する。 +* New Relic UI全体で関連データを取得し、アプリやホストの問題のコンテキストでログを提供 +* Logs UIを使用してログデータをさらに詳しく調べ、カスタムチャート、ダッシュボード、アラートを作成します。 +* ログを即座に検索 +* 他のツールに切り替えることなく、パフォーマンスの問題をトラブルシューティング +* すべてを1か所で可視化 -## コストについて知りたいですか? [#costs] +## コストについて [#costs] -ログを報告するコストを見積もりたいですか?[費用見積もりツール](https://newrelic.com/blog/nerdlog/estimate-data-cost)を使用します。また、New Relic ログ管理の使用を開始すると[、ログの取り込みを簡単に調整](/docs/data-apis/manage-data/manage-data-coming-new-relic)できることにも注意してください。 +ログのレポートにかかる概算をお知りになりたいですか?当社の[コスト見積りツール](https://newrelic.com/blog/nerdlog/estimate-data-cost)をご利用ください。また、New Relicログ管理の使用を開始すると、[ログの取り込みを簡単に調整](/docs/data-apis/manage-data/manage-data-coming-new-relic)できます。 -## レポート ログ [#integrate-logs] +## ログの報告 [#integrate-logs] -ログ データを New Relic に転送するには、次のオプションの 1 つ以上を使用できます。 +ログデータをNew Relicに転送するには、次のオプションから複数選択できます。 -* **私たちを使用してください ログを報告するエージェント。** デフォルトでは、当社の APM エージェントは 2 つのことを行います。ログにメタデータを追加することで、コンテキスト内のログ (プラットフォームのさまざまな関連場所でログ データを表示する機能) を提供し、ログを New Relic に転送します。これは、追加のサードパーティ ソリューションを必要とせずに、アプリケーション ログを簡単にレポートできるため、DevOps チームや小規模な組織に人気のあるオプションです。[APM ログの詳細をご覧ください。](/docs/apm/new-relic-apm/getting-started/get-started-logs-context) +* **当社のエージェントを使用して、ログを報告する。**デフォルトでは、APMエージェントは2つのことを行います。1つはログにメタデータを追加し、コンテキスト内のログを提供する(プラットフォーム内のさまざまな関連場所でログデータを表示できる機能)、2つ目は、ログをNew Relicに転送することです。これは、追加のサードパーティソリューションを必要とせずにアプリケーションログを簡単に報告できるため、DevOpsチームや小規模組織によく使用されるオプションです。[APMログについて詳しくは、こちらをご覧ください](/docs/apm/new-relic-apm/getting-started/get-started-logs-context) -* **[インフラストラクチャ エージェントを使用して、ログを報告します](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent)。** インフラストラクチャ エージェントを使用すると、アプリのログなど、ホストに存在するすべてのログをキャプチャできます。ログを報告するために APM エージェントを使用する場合と比較して、これは少し設定に時間がかかる場合がありますが、はるかに強力なオプション (たとえば、カスタム属性を収集する機能は使用できません) を提供します。 +* **[infrastructureエージェントを使用してログを報告する](/docs/logs/forward-logs/forward-your-logs-using-infrastructure-agent)。**当社のinfrastructureエージェントを使用すると、アプリログを含むホスト上に存在するあらゆるログをキャプチャできます。APMエージェントを使用してログを報告する場合と比較すると、設定に少し手間がかかりますが、より強力なオプションが提供されます( - エージェント)。 + エージェントでは実行できないカスタムアトリビュートを収集する機能など) -* **サードパーティのログ サービスを使用します。**Amazon、Microsoft、Fluentd、Fluent Bit、Kubernetes、Logstash など、[他のログ サービスとの幅広い統合が](/docs/logs/forward-logs/enable-log-management-new-relic)あります。 +* **サードパーティのログサービスを使用する。**[他のログサービスとの幅広いインテグレーション](/docs/logs/forward-logs/enable-log-management-new-relic)(Amazon、Microsoft、Fluentd、Fluent Bit、Kubernetes、Logstashなど)を行っています -* **[Log API](/docs/logs/log-api/introduction-log-api/)または[TCP エンドポイント](/docs/logs/log-api/use-tcp-endpoint-forward-logs-new-relic)を使用してログをレポートします。** +* **[ログAPI](/docs/logs/log-api/introduction-log-api/)または[TCPエンドポイント](/docs/logs/log-api/use-tcp-endpoint-forward-logs-new-relic)を使用してログを報告する** -* **OpenTelemetry SDK を使用してアプリからログを** [OpenTelemetry Collector](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-logs)に送信し、OTLP 経由で New Relic に転送できます。 +* **OpenTelemetry SDKを使用**してアプリからログを[OpenTelemetryコレクター](/docs/more-integrations/open-source-telemetry-integrations/opentelemetry/best-practices/opentelemetry-best-practices-logs)に送信すると、OTLP経由でログをNew Relicに転送できます -ログ転送オプションと特定の使用例の詳細については、 [Forward logs](/docs/logs/forward-logs/enable-log-management-new-relic)を参照してください。 +ログ転送オプションと特定の使用例について詳しくは、[ログの転送](/docs/logs/forward-logs/enable-log-management-new-relic)を参照してください。 -## UI でのログの表示と管理 [#find-data] +## UIでのログの表示と管理 [#find-data] -New Relic でログを見つけるには: +New Relicでログを見つけるには: **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Logs**に移動します。UI でできることの詳細については、 [Logs UI](/docs/logs/ui-data/use-logs-ui) \[ログ UI]を参照してください。 -`Log`データ型を照会することもできます。NRQL クエリの簡単な例を次に示します。 +`Log`データ型をクエリすることもできます。以下に簡単なNRQLクエリの例を示します。 ```sql SELECT * FROM Log ``` -また、GraphQL 形式の API である NerdGraph を使用して[データをクエリ](/docs/apis/nerdgraph/examples/nerdgraph-nrql-tutorial)したり、[ログ管理を構成](/docs/apis/nerdgraph/examples/nerdgraph-log-parsing-rules-tutorial)したりすることもできます。 +また、GraphQL形式のAPIであるNerdGraphを使用して、[データのクエリ](/docs/apis/nerdgraph/examples/nerdgraph-nrql-tutorial)や[ログ管理の設定](/docs/apis/nerdgraph/examples/nerdgraph-log-parsing-rules-tutorial)を行うこともできます。 ## ユーザーアクセス [#requirements] -ログ管理権限へのアクセスは、ユーザーのユーザー タイプによって異なります。詳細については、 [「ユーザー タイプ」](/docs/accounts/accounts-billing/new-relic-one-user-management/user-type#user-type-capabilities)を参照してください。 +ログ管理権限へのアクセスは、ユーザーのユーザータイプによって異なります。詳細については、[ユーザータイプ](/docs/accounts/accounts-billing/new-relic-one-user-management/user-type#user-type-capabilities)を参照してください。 -ログ関連の権限については、 [「権限」](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions#logs)を参照してください。 +ログ関連の権限については、[権限](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions#logs)を参照してください。 ## 次のステップ [#what-next] -ログマネジメントソリューションを始める準備はできましたか? +ログ管理ソリューションを始める準備はできていますか? 1. New Relicアカウントをまだお持ちでない場合は、[New Relicアカウントを新たに作成します](https://newrelic.com/signup)。永久無料です。 -2. [ログを報告するためのオプションの](#integrate-logs)1 つを設定します。 -3. エラー、分散トレース、ホストなど[、プラットフォーム全体の関連ログデータを調べます](/docs/apm/new-relic-apm/getting-started/get-started-logs-context#response-time-example)。 -4. すべてのログ、属性、パターン、ライブテール ロギング、およびクエリを通じて、簡単なワークフローとして[ログ UI](/docs/logs/ui-data/use-logs-ui)を使用します。アラートを追加し、データをクエリして、ダッシュボードを作成します。 +2. [ログをレポートするためのオプション](#integrate-logs)の1つを設定します +3. エラー、ディストリビューティッド(分散)トレース、ホストなど、[プラットフォーム全体の関連ログデータ](/docs/apm/new-relic-apm/getting-started/get-started-logs-context#response-time-example)を調べます。 +4. すべてのログ、属性、パターン、ライブテールロギング、クエリを通じた簡単なワークフローとして、[Logs UI](/docs/logs/ui-data/use-logs-ui)を使用します。アラートを追加し、データをクエリして、ダッシュボードを作成します - Datadog を使用してログを監視していますが、New Relic の監視機能を無料で試してみたいですか?方法については [、Datadog からの移行方法に関するガイドを](/docs/journey-migration/migrating-from-dd/) ご覧ください。 + Datadogを使用してログを監視していますが、New Relicのモニタリング機能を無料で試してみませんか?その方法については、[Datadogからの移行方法に関するガイド](/docs/journey-migration/migrating-from-dd/)を参照してください。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-maui-dotnet/monitor-your-net-maui-application.mdx b/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-maui-dotnet/monitor-your-net-maui-application.mdx index 9396521577d..368bcdfd146 100644 --- a/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-maui-dotnet/monitor-your-net-maui-application.mdx +++ b/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-maui-dotnet/monitor-your-net-maui-application.mdx @@ -87,21 +87,22 @@ New Relic .NET MAUI エージェントは、.NET MAUI モバイル アプリを { InitializeComponent(); MainPage = new AppShell(); - + CrossNewRelic.Current.HandleUncaughtException(); CrossNewRelic.Current.TrackShellNavigatedEvents(); // Set optional agent configuration - // Options are: crashReportingEnabled, loggingEnabled, logLevel, collectorAddress, crashCollectorAddress - // AgentStartConfiguration agentConfig = new AgentStartConfiguration(true, true, LogLevel.INFO, "mobile-collector.newrelic.com", "mobile-crash.newrelic.com"); + // Options are: crashReportingEnabled, loggingEnabled, logLevel, collectorAddress, crashCollectorAddress,analyticsEventEnabled, networkErrorRequestEnabled, networkRequestEnabled, interactionTracingEnabled,webViewInstrumentation, fedRampEnabled + // AgentStartConfiguration agentConfig = new AgentStartConfiguration(crashReportingEnabled:false); + if (DeviceInfo.Current.Platform == DevicePlatform.Android) { CrossNewRelic.Current.Start(""); - // Start with optional agent configuration + // Start with optional agent configuration // CrossNewRelic.Current.Start("", agentConfig); } else if (DeviceInfo.Current.Platform == DevicePlatform.iOS) { CrossNewRelic.Current.Start(""); - // Start with optional agent configuration + // Start with optional agent configuration // CrossNewRelic.Current.Start("", agentConfig); } } diff --git a/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-xamarin/monitor-your-xamarin-application.mdx b/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-xamarin/monitor-your-xamarin-application.mdx index cc4a70bf76e..b413c318407 100644 --- a/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-xamarin/monitor-your-xamarin-application.mdx +++ b/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile-xamarin/monitor-your-xamarin-application.mdx @@ -90,9 +90,10 @@ Xamarin エージェントをインストールするには、UI に直接ある CrossNewRelicClient.Current.HandleUncaughtException(); CrossNewRelicClient.Current.TrackShellNavigatedEvents() // Set optional agent configuration - // Options are: crashReportingEnabled, loggingEnabled, logLevel, collectorAddress, crashCollectorAddress - // AgentStartConfiguration agentConfig = new AgentStartConfiguration(true, true, LogLevel.INFO, "mobile-collector.newrelic.com", "mobile-crash.newrelic.com"); - if (Device.RuntimePlatform == Device.Android) + // Options are: crashReportingEnabled, loggingEnabled, logLevel, collectorAddress, crashCollectorAddress,analyticsEventEnabled, networkErrorRequestEnabled, networkRequestEnabled, interactionTracingEnabled,webViewInstrumentation, fedRampEnabled + // AgentStartConfiguration agentConfig = new AgentStartConfiguration(crashReportingEnabled:false); + + if (Device.RuntimePlatform == Device.Android) { CrossNewRelicClient.Current.Start(""); // Start with optional agent configuration @@ -100,7 +101,7 @@ Xamarin エージェントをインストールするには、UI に直接ある } else if (Device.RuntimePlatform == Device.iOS) { CrossNewRelicClient.Current.Start(""); - // Start with optional agent configuration + // Start with optional agent configuration // CrossNewRelicClient.Current.Start("", agentConfig); } } diff --git a/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile/get-started/introduction-mobile-monitoring.mdx b/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile/get-started/introduction-mobile-monitoring.mdx index c760e59c563..3559ce19a27 100644 --- a/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile/get-started/introduction-mobile-monitoring.mdx +++ b/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile/get-started/introduction-mobile-monitoring.mdx @@ -17,13 +17,13 @@ import mobileCrashAnalysis from 'images/mobile_screenshot-full_crash-analysis.we import mobileNextSteps from 'images/mobile_diagram_next-steps.webp' -New Relicの機能により、[Android](/docs/mobile-monitoring/new-relic-mobile-android/get-started/introduction-new-relic-mobile-android)、[iOS](/docs/mobile-monitoring/new-relic-mobile-ios/get-started/introduction-new-relic-mobile-ios)、またはハイブリッドモバイルアプリケーションのパフォーマンスとクラッシュのトラブルシューティングをより詳細に可視化することができます。モバイルモニタリングを使用するとアプリのユーザーエクスペリエンスの向上や、HTTPとネットワークのパフォーマンスを調べて、バックエンドチームとより効果的に連携できます。 +New Relic の機能により、Android、iOS、またはハイブリッドモバイルアプリケーションでのパフォーマンスとクラッシュのトラブルシューティングをより詳細に可視化することができます。モバイルモニタリングを使用するとアプリのユーザーエクスペリエンスの向上や、HTTPとネットワークのパフォーマンスを調べて、バックエンドチームとより効果的に連携できます。 簡単なインストールフローに従うと、モバイル環境に合わせたモバイルモニタリングの設定が可能になります。 ## アプリを作成してエージェントをインストールする [#install] -開始するには、プラットフォーム固有のページを選択します。 +開始するにはプラットフォームを選択します。 機能により、[Android](/docs/mobi title="iOS" /> - - - - 機能により、[Android](/docs/mobi title=".NET MAUI" /> + + + + 機能により、[Android](/docs/mobi * [ダッシュボード](/docs/dashboards/new-relic-one-dashboards/get-started/introduction-new-relic-one-dashboards)を構築し、クエリ実行、可視化、パフォーマンスデータを共有。 * [ハンドルされた例外](/docs/mobile-monitoring/mobile-monitoring-ui/crashes/introduction-mobile-handled-exceptions)を特定し、ワークフローを効率化。 -* [クラッシュプロファイル](/docs/mobile-monitoring/mobile-monitoring-ui/crashes/crash-analysis-group-filter-your-crashes)と[HTTPプロファイル](/docs/mobile-monitoring/mobile-monitoring-ui/network-pages/mobile-http-error-profiles-find-error-causes)を使用して、セッション、デバイス、地理的位置、オペレーティングシステム、キャリア、リクエスト、レスポンスなどのトレンドを確認。 +* [クラッシュプロファイル](/docs/mobile-monitoring/mobile-monitoring-ui/crashes/crash-analysis-group-filter-your-crashes/#profiles)と[HTTPプロファイル](/docs/mobile-monitoring/mobile-monitoring-ui/network-pages/http-errors-page/#error-profiles)を使用して、セッション、デバイス、地理的位置、オペレーティングシステム、通信事業者、リクエストとレスポンスなどの動向を確認します * 実行時間、エラーなどに対する[アラート通知](/docs/mobile-monitoring/new-relic-mobile/getting-started/alert-information-new-relic-mobile)を設定。 * [カスタムアトリビュートとイベント](/docs/insights/insights-data-sources/custom-events/insert-custom-events-attributes-mobile-data)を定義して、組織にとって最も重要なモバイルデータに関する追加の特定詳細を取得。 ## バックエンドの問題を監視する [#backend] -モバイルモニタリングUIの[ネットワークページ](/docs/mobile-monitoring/mobile-monitoring-ui/network-pages)を使用すると、HTTPリクエスト、エラー、その他のネットワークの問題から浮上する問題を特定できます。また、[データをクエリ](/docs/using-new-relic/data/understand-data/query-new-relic-data)したり、バックエンドAPI開発者などの関連チームと共有するカスタムを作成したりすることもできます。 \ No newline at end of file +モバイルモニタリングUIの[ネットワークページ](/docs/mobile-monitoring/mobile-monitoring-ui/network-pages/analyze-network-requests-using-mobilerequest-event-data/)を使用すると、HTTPリクエスト、エラー、その他のネットワークの問題から浮上する問題を特定できます。また、[データをクエリ](/docs/nrql/nrql-examples/nrql-query-examples-mobile-monitoring/)したり、バックエンドAPI開発者などの関連チームと共有するカスタムを作成したりすることもできます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/configure-settings.mdx b/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/configure-settings.mdx index 42c689450ff..2a216e35131 100644 --- a/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/configure-settings.mdx +++ b/src/i18n/content/jp/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/configure-settings.mdx @@ -524,7 +524,7 @@ translationType: machine ```objectivec [NewRelic enableFeatures:NRFeatureFlag_SwiftInteractionTracing | NRFeatureFlag_FedRampEnabled]; - [NewRelic disableFeatures:NRFeatureFlag_NSURLSessionInstrumentation | NRFeatureFlag_CrashReporting]; + [NewRelic disableFeatures:NRFeatureFlag_NSURLSessionInstrumentation | NRFeatureFlag_CrashReporting]; [NewRelic startWithApplicationToken:...]; ``` @@ -921,7 +921,10 @@ translationType: machine レポート アプリの開始時間 (コールド時間とホット時間) をメトリクスとして有効または無効にします。 * コールド タイムとは、アプリの起動から最初の抽選までの時間を指します。 - * ホットタイムとは、アプリがバックグラウンドでの実行から最初の描画まで再開するまでにかかる時間を指します。デフォルト値は `true`です (エージェント バージョン 7.4.0 以降)。 + + * ホットタイムとは、アプリがバックグラウンドでの実行から最初の描画まで再開するのにかかる時間を指します。 + + デフォルト値は`true`です (エージェント バージョン 7.4.0 以降)。 + + + + + + + + + + + + @@ -1977,11 +2004,13 @@ translationType: machine Application.Current.PageDisappearing += PageDisappearing; CrossNewRelicClient.Current.HandleUncaughtException(); - CrossNewRelicClient.Current.TrackShellNavigatedEvents() - // Set optional agent configuration - // Options are: crashReportingEnabled, loggingEnabled, logLevel, collectorAddress, crashCollectorAddress - AgentStartConfiguration agentConfig = new AgentStartConfiguration(true, true, LogLevel.INFO, "mobile-collector.newrelic.com", "mobile-crash.newrelic.com"); - if (Device.RuntimePlatform == Device.Android) + CrossNewRelicClient.Current.TrackShellNavigatedEvents(); + + // Set optional agent configuration + // Options are: crashReportingEnabled, loggingEnabled, logLevel, collectorAddress, crashCollectorAddress,analyticsEventEnabled, networkErrorRequestEnabled, networkRequestEnabled, interactionTracingEnabled,webViewInstrumentation, fedRampEnabled + AgentStartConfiguration agentConfig = new AgentStartConfiguration(crashReportingEnabled:false); + + if (Device.RuntimePlatform == Device.Android) { //CrossNewRelicClient.Current.Start(""); // Start with optional agent configuration @@ -1990,7 +2019,7 @@ translationType: machine else if (Device.RuntimePlatform == Device.iOS) { //CrossNewRelicClient.Current.Start(""); - // Start with optional agent configuration + // Start with optional agent configuration CrossNewRelicClient.Current.Start(" - オプションには次のものがあります: `ERROR` (最も冗長でない)、 `WARNING` 、 `INFO` 、 `VERBOSE` 、 `AUDIT` (最も冗長な)。 + + + + + + + + + + + diff --git a/src/i18n/content/jp/docs/new-relic-solutions/best-practices-guides/full-stack-observability/apm-best-practices-guide.mdx b/src/i18n/content/jp/docs/new-relic-solutions/best-practices-guides/full-stack-observability/apm-best-practices-guide.mdx index 7432652bd2c..3ad79863030 100644 --- a/src/i18n/content/jp/docs/new-relic-solutions/best-practices-guides/full-stack-observability/apm-best-practices-guide.mdx +++ b/src/i18n/content/jp/docs/new-relic-solutions/best-practices-guides/full-stack-observability/apm-best-practices-guide.mdx @@ -68,7 +68,12 @@ APMは、アプリが数に制限なく重要なタグカテゴリに「ロー アラートポリシーは、主に次の2通りの方法で設定できます。 * **スタティック閾値アラート**は、アプリケーションの性質がすでによく理解されていて、通常の動作がすぐに変更される可能性が低い場合に適しています。Apdex (Application Performance Index)スコア、レスポンスタイム、エラー率、スループットなどは静的な閾値で、これらに対してアラートポリシーを作成できます。 -* **動的な異常アラート**を使用すると、変化する周期的パターンや成長傾向(通常の動作を定義する閾値を設定することを困難にする)に対して、アプリケーションアラートの動的な閾値を判断・設定することが容易になります。これらのアラートは、アプリケーションの過去のメトリクスデータからモデル化された異常を使用します + +* **Dynamic anomaly alerts** \[動的な異常アラート]を使用すると、変化する周期的パターンや成長傾向(通常の動作を定義する閾値を設定することを困難にする)に対して、アプリケーションアラートの動的な閾値を判断・設定することが容易になります。これらの + + + + は、アプリケーションの過去のメトリクスデータからモデル化された異常を使用します 各アラートポリシーには必要なだけ条件を含めることができます。それぞれのアラート条件には次の3つのコンポーネントが含まれます。 diff --git a/src/i18n/content/jp/docs/new-relic-solutions/best-practices-guides/full-stack-observability/browser-monitoring-best-practices-guide.mdx b/src/i18n/content/jp/docs/new-relic-solutions/best-practices-guides/full-stack-observability/browser-monitoring-best-practices-guide.mdx index d758f12353f..25e0c00211b 100644 --- a/src/i18n/content/jp/docs/new-relic-solutions/best-practices-guides/full-stack-observability/browser-monitoring-best-practices-guide.mdx +++ b/src/i18n/content/jp/docs/new-relic-solutions/best-practices-guides/full-stack-observability/browser-monitoring-best-practices-guide.mdx @@ -182,7 +182,7 @@ Webパフォーマンスデータのサービスレベルを確立します。 Core Web Vitalsが閾値を超えた場合はどうなりますか? 顧客を失う前にイシューの原因を調査できるよう、閾値を超えた際にアラートを受信できるようにしましょう。 -New Relicには、常に内部の状況を把握できるように、Browserモニタリングを含むすべての製品に対して[統一されたアラート機能](/docs/alerts-applied-intelligence/overview/#concepts-terms)があります。アラートは、Core Web Vitalsを監視するように設定することをお勧めします。以下のサンプルアラートを使用すると、すぐに作業を開始できます。 +New Relicには、常に内部の状況を把握できるように、Browserモニタリングを含むすべての製品に対して[統一されたアラート機能](/docs/alerts-applied-intelligence/overview/#concepts-terms)があります。は、Core Web Vitalsを監視するように設定することをお勧めします。以下のサンプルアラートを使用すると、すぐに作業を開始できます。 * **Core Web Vitals:**最初の入力遅延または最大視覚コンテンツの表示時間が`Needs improvement`閾値を超えた場合に警告します。 * **ページロードタイム:**平均ページロードタイムが5分間10秒を超えるとアラートを発令します。(平均ページロードタイムのスパイクが始まると、ウェブページに何らかの不具合があり、その結果、処理速度が大きく低下していることを示しています。これは、Apdexスコアに対するアラートを補完します。 diff --git a/src/i18n/content/jp/docs/new-relic-solutions/get-started/glossary.mdx b/src/i18n/content/jp/docs/new-relic-solutions/get-started/glossary.mdx index cd5cd2fb602..fd9ec9015a3 100644 --- a/src/i18n/content/jp/docs/new-relic-solutions/get-started/glossary.mdx +++ b/src/i18n/content/jp/docs/new-relic-solutions/get-started/glossary.mdx @@ -97,7 +97,7 @@ New Relicを検討している場合でも、すでに当社の機能を使用 id="aggregation-window" title="集計ウィンドウ" > - [New Relicアラート](/docs/alerts-applied-intelligence/overview)のコンテキストでは、ストリーミングアラートは特定の時間にデータを収集します。これらの時間枠はカスタマイズできます。 + [New Relic](/docs/alerts-applied-intelligence/overview)のコンテキストでは、ストリーミングアラートは特定の時間にデータを収集します。これらの時間枠はカスタマイズできます。これらの時間枠はカスタマイズできます。 データポイントは、タイムスタンプに基づきまとめて収集され、バッチとして報告されます。カスタマイズ可能な集計ウィンドウにより、不規則または頻度の低いデータポイントでアラートを送信する際の柔軟性が高まり、誤ったインシデントが少なくなります。 diff --git a/src/i18n/content/jp/docs/new-relic-solutions/get-started/networks.mdx b/src/i18n/content/jp/docs/new-relic-solutions/get-started/networks.mdx index cac8265957d..7bd29bdb6b7 100644 --- a/src/i18n/content/jp/docs/new-relic-solutions/get-started/networks.mdx +++ b/src/i18n/content/jp/docs/new-relic-solutions/get-started/networks.mdx @@ -611,10 +611,6 @@ New Relicにデータをレポートするためには、[Infrastructureモニ ### プライベートロケーション [#synthetics-private] - - [2023年8月23日、Syntheticsのプライベートロケーションで使用されるIPアドレスが変更されました。](/whats-new/2023/06/whats-new-06-23-synthetics-horde-ip-changes/) - - 合成プライベートミニオンは地域に基づき特定のエンドポイントに報告します。プライベートミニオンがエンドポイントまたはエンドポイントに関連付けられた静的IPアドレスにアクセスできるようにするには、使用するオペレーティングシステムとファイアウォールに関する特定の手順に従ってください。これらのIPアドレスは将来変更できます。 [TLS](#tls)がすべてのドメインについて必要です。[データセンター地域](/docs/using-new-relic/welcome-new-relic/get-started/introduction-eu-region-data-center)(米国またはEU)のIP接続を使用します。 diff --git a/src/i18n/content/jp/docs/new-relic-solutions/observability-maturity/uptime-performance-reliability/optimize-slm-guide.mdx b/src/i18n/content/jp/docs/new-relic-solutions/observability-maturity/uptime-performance-reliability/optimize-slm-guide.mdx index 4732d681eb8..1178bacb981 100644 --- a/src/i18n/content/jp/docs/new-relic-solutions/observability-maturity/uptime-performance-reliability/optimize-slm-guide.mdx +++ b/src/i18n/content/jp/docs/new-relic-solutions/observability-maturity/uptime-performance-reliability/optimize-slm-guide.mdx @@ -218,15 +218,6 @@ import apmCapabilityFilterClause from 'images/apm_screenshot-crop_capability-fil クライアントのパフォーマンスの詳細については、 [カスタマーエクスペリエンスに関する実装ガイド:品質の基盤](/docs/new-relic-solutions/observability-maturity/customer-experience/quality-foundation-implementation-guide)を参照してください。 - - - データ品質は、期待されるデータをタイムリーに提供するプロセスの能力を測定します。New Relicは、クエリを実行する前に、まずデータを取り込む必要があります。そのプロセスはほぼリアルタイムで完了することが期待されています。New Relic は、お客様のデータが取り込まれた時間とサンプルを測定し、そのデータがいつクエリで利用可能になるかを判断します。 - - データの品質は、入力データを知り、出力データを知り、望ましい結果が得られているかどうかを測定する。これには、結果を監査して正確さを判断することも含まれる。 - ## 前提条件 [#prerequisites] @@ -320,7 +311,7 @@ FROM Transaction SELECT percentage(count(*), WHERE error is false) AS 'Success B ### 4.サービスレベルを作成します -New Relic プラットフォームは推奨値を自動的に計算します。 そしてあなたのためのベースライン。 +New Relic プラットフォームは、推奨されるベースラインを自動的に計算します。 **注:** \[**サービスレベルの追加**]ボタンが表示されない場合は、権限についてNewRelic管理者に確認してください。 diff --git a/src/i18n/content/jp/docs/nrql/nrql-syntax-clauses-functions.mdx b/src/i18n/content/jp/docs/nrql/nrql-syntax-clauses-functions.mdx index 818f4542e38..d49021d8c97 100644 --- a/src/i18n/content/jp/docs/nrql/nrql-syntax-clauses-functions.mdx +++ b/src/i18n/content/jp/docs/nrql/nrql-syntax-clauses-functions.mdx @@ -311,7 +311,7 @@ import upperExample from 'images/upperExample.webp' `LIMIT`句を使用して、表示するファセットの数を指定します(デフォルトは10)。より複雑なグループ化に関しては、[`FACET CASES`](#sel-facet-cases)を使用します。`FACET`句は、カンマで区切られた最大5つの属性をサポートします。 - The facets are sorted in descending order by the first field you provide in the `SELECT` clause. If you are faceting on attributes with more than 5,000 unique values, a subset of facet values is selected and sorted according to the query type. Note that if a timeseries chart returns no data (NRQL matches no matching data, invalid NRQL, etc.) then it will only show a flat line with the label matching the first table in the `FROM` clause. + ファセットは、`SELECT`句で指定した最初のフィールドの降順で並べ替えられます。5,000件以上のユニーク値を持つ属性をファセットに指定した場合、ファセット値のサブセットを選択し、それらをクエリタイプに従って並べ替えます。時系列グラフがデータを返さない場合(NRQLが一致するデータがない、無効なNRQLなど)、 `FROM`句の最初のテーブルに一致するラベルを持つ平坦な線のみが表示されることに注意してください。 `min()`、`max()`、`percentile()`、`average()`、または`count()`を選択すると、`FACET`はこれらの関数を使用してファセットの選択方法とソート方法を決定します。その他の[関数](#functions)を選択すると、`FACET`はファセット対象の属性の発生頻度に基づいて、ファセットの選択方法とソート方法を決定します。 @@ -554,7 +554,7 @@ import upperExample from 'images/upperExample.webp' 考慮すべき制限事項: - * The joined subquery will continue to have a default [`LIMIT`](#sel-limit) of 10, with a maximum `LIMIT` of 5,000. Note that the outer query's `LIMIT` does not affect the inner query. + * 結合されたサブクエリのデフォルトの[`LIMIT`](#sel-limit)は10で、最大`LIMIT`は5,000です。外部クエリの`LIMIT`は内部クエリに影響を及ぼしません。 * 結合サブクエリでの`TIMESERIES`の使用はサポートされていません。外部クエリで`TIMESERIES`を使用する場合、結合されたサブクエリはクエリの全期間に単一の結果を提供することに注意してください。 * すべてのサブクエリと同様に、結合されたサブクエリはアラート条件では使用できません。 * SELECT \*は親クエリでサポートされていますが、結合されたサブクエリではサポートされていません。 @@ -643,7 +643,7 @@ import upperExample from 'images/upperExample.webp' `LIMIT`句を使用して、`FACET`クエリで返されるファセット値の最大数、または`SELECT *`クエリで返される項目の最大数を制御します。この句は、単一の整数値を引数に取ります。`LIMIT`句が指定されない、または値が提供されない場合、リミットのデフォルト設定は、`FACET`クエリの場合は10、`SELECT *`クエリの場合は100となります。 - The maximum allowed value for the `LIMIT` clause is 5,000. Queries can use the `LIMIT MAX` clause instead of a specific value, which automatically defaults to the current maximum value. You can use this if you always want to post the maximum number of results, even if it changes in the future. If you want your query's behavior to remain unchanged, specify an explicit value instead of using `LIMIT MAX`. + `LIMIT`句で許容される最大値は5,000です。クエリでは、特定の値の代わりに`LIMIT MAX`句を使用できます。これにより、デフォルトで現在の最大値が自動設定されます。これを使用すると、将来的に変更される場合でも、常に最大数の結果を投稿できます。クエリの動作を変更しないようにするには、`LIMIT MAX`を使用する代わりに明示的な値を指定します。 使用したクエリ LIMIT}> @@ -1377,7 +1377,7 @@ SELECT histogram(duration, 10, 20) FROM PageView SINCE 1 week ago id="func-average" title={average(attribute)} > - Use the `average()` function to return the mean average value for an attribute. It takes a single attribute name as an argument. If a value of the attribute is not numeric, it will be ignored when aggregating. If data matching the query's conditions is not found, or there are no numeric values returned by the query, it will return a value of null. + `average()`関数を使用して、属性の平均値を返します。引数として単一の属性名を取得します。属性の値が数字でない場合、集計の際に無視されます。クエリの条件に合うデータが見つからない場合、またはクエリにより数値が返されない場合は、null値を返します。 cardinality([metric_name, include:{`{attribute_list}`}, exclude:{`{attribute_list}`}])} + title={cdfPercentage(attribute, threshold [, threshold [, ...]])} > `cardinality()`関数を使用して、[メトリック](/docs/using-new-relic/data/understand-data/new-relic-data-types#metrics)上のすべてのディメンション(属性)の組み合わせの数を取得します。 diff --git a/src/i18n/content/jp/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards.mdx b/src/i18n/content/jp/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards.mdx index d1f935e1ed7..072b3331066 100644 --- a/src/i18n/content/jp/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards.mdx +++ b/src/i18n/content/jp/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards.mdx @@ -146,12 +146,17 @@ UIを通じて、カスタマイズされたユーザーフレンドリーなチ id="dashboards-import" title="ダッシュボードのインポート" > - ダッシュボードをJSONコードとしてインポートできます。次の手順を実行します: + コードレベルですぐに使用できるダッシュボードを変更する場合は、ダッシュボードをJSONとしてインポートできます。たとえば、2つの既存のダッシュボードを結合してカスタムダッシュボードを作成する場合、ベースのダッシュボードのJSONを変更して、それをNew Relicにインポートし直すことができます。 - 1. ダッシュボードインデックスの右上隅にある**Import dashboard**ボタンを選択します - 2. JSONコードを貼り付けます。[ダッシュボードのJSONの取得](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard/#dash-json)方法を参照してください - 3. ダッシュボードが属するアカウントを選択します。**このアクションは変更できない**ため、慎重に選択してください - 4. ダッシュボードに必要な権限を選択します。デフォルトでは、[**編集 - アカウント内のすべてのユーザー**](#dashboards-permissions)権限が選択されています。後でダッシュボードにアクセスすると、[設定メニュー](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard/#dash-settings)から変更できます。 + ダッシュボードをJSONとしてインポートするには: + + 1. **[one.newrelic.com >All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**に移動します。 + 2. **...**をクリックして既存のダッシュボードのJSONを開き、**Copy JSON**を選択します。 + 3. **Dashboards**ページに戻ります。 + 4. 右上隅にある**Import dashboard**をクリックします。 + 5. JSONコードを貼り付けます。 + 6. ダッシュボードのアカウントと権限設定を選択します。アカウントを一度設定すると変更することはできませんが、[権限はいつでも変更](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard/#dash-settings)できます。 + 7. **Save**をクリックします。 - ダッシュボードをJSONコードとしてインポートし、クリップボードに追加できます。右隅のアイコンをクリックし、**Copy JSON to clipboard**を選択します。[ダッシュボードをインポートする](/docs/query-your-data/explore-query-data/dashboards/introduction-dashboards/#dashboards-import)方法を参照してください。 + コードレベルですぐに使用できるダッシュボードを変更する場合は、ダッシュボードをJSONとしてインポートできます。たとえば、2つの既存のダッシュボードを結合してカスタムダッシュボードを作成する場合、ベースのダッシュボードのJSONを変更して、それをNew Relicにインポートし直すことができます。 + + ダッシュボードをJSONとしてインポートするには: + + 1. **[one.newrelic.com >All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**に移動します。 + 2. **...**をクリックして既存のダッシュボードのJSONを開き、**Copy JSON**を選択します。 + 3. **Dashboards**ページに戻ります。 + 4. 右上隅にある**Import dashboard**をクリックします。 + 5. JSONコードを貼り付けます。 + 6. ダッシュボードのアカウントと権限設定を選択します。アカウントを一度設定すると変更することはできませんが、[権限はいつでも変更](/docs/query-your-data/explore-query-data/dashboards/manage-your-dashboard/#dash-settings)できます。 + 7. **Save**をクリックします。 + + ボタンをクリックし、**Add widget**ボタンをクリックして新しいコンテンツを作成します。 + * [メトリクスとイベント](/docs/query-your-data/explore-query-data/data-explorer/introduction-data-explorer)、[クエリビルダーから](/docs/introduction-chart-builder)。 -* **+ ダッシュボードに追加**ボタン(メインのダッシュボードのページから、または編集モードでアクセス可能)を使用して、[クエリビルダー](/docs/chart-builder/use-chart-builder/get-started/introduction-chart-builder)にアクセスするか、[マークダウンエディタ](#dash-create-chart)を使用してコンテンツ(テキストやリンク、画像など)を追加する。 + +* **+ Add widget**ボタン(メインのダッシュボードのページから、または編集モードでアクセス可能)を使用して、[クエリビルダー](/docs/chart-builder/use-chart-builder/get-started/introduction-chart-builder)にアクセスするか、[マークダウンエディター](#dash-create-chart)を使用してコンテンツ(テキストやリンク、画像など)を追加します。 + * ダッシュボードから[既存のチャートをコピーする](#dash-manage-charts)。 新規コンテンツの追加で問題が発生した場合は、[エラーメッセージを確認](/docs/query-your-data/explore-query-data/dashboards/dashboards-charts-import-export-data/#chart-error-messages)してください。 diff --git a/src/i18n/content/jp/docs/tutorial-create-alerts/create-an-alert.mdx b/src/i18n/content/jp/docs/tutorial-create-alerts/create-an-alert.mdx index a6f1aeadfc1..705bc52cc90 100644 --- a/src/i18n/content/jp/docs/tutorial-create-alerts/create-an-alert.mdx +++ b/src/i18n/content/jp/docs/tutorial-create-alerts/create-an-alert.mdx @@ -1,8 +1,8 @@ --- -title: New Relic を使用してアラート条件を作成する +title: New Relicを使用したアラート条件の作成 metaDescription: How to create an alert with New Relic freshnessValidatedDate: never -translationType: machine +translationType: human --- import alertsCreate from 'images/alerts_screenshot-crop_create-query.webp' @@ -25,12 +25,12 @@ import alertsGoldenEntities from 'images/alerts_screenshot-crop_golden-metric-en import alertsOtherMetrics from 'images/alerts_screenshot-crop_other-metrics.webp' -New Relic でアラート条件を作成するには、チャート、NRQL クエリ、またはゴールデン メトリクスを使用する 3 つの方法があります。作成プロセスの開始部分は選択したオプションによって異なりますが、その後の手順はすべて同じです。これは、ある方法で条件を作成すると、それによって得た経験が、他のオプションのいずれかを使用して作成した他の条件に転送されることを意味します。 +New Relicでアラート条件を作成するには、チャート、NRQLクエリ、ゴールデンメトリクスを使用する3つの方法があります。作成プロセスの開始部分は選択したオプションによって異なりますが、その後の手順はすべて同じです。つまり、ある方法で条件を作成すると、それによって得た経験が、他のオプションのいずれかを使用して作成した他の条件に引き継がれます。 -このチュートリアルには、前述の 3 つのオプションすべての手順が含まれているため、任意の方法で最初の条件から始めることができます。最初のステップでたどりたいパスを選択するだけで、手順が終わるまでに New Relic を使用して最初のアラート条件を作成することができます。 +このチュートリアルには、前述の3つのオプションすべての手順が含まれているため、お好きな方法で最初の条件から始めることができます。最初の手順でたどりたいパスを選択するだけで、手順が終わるまでにNew Relicを使用して最初のアラート条件を作成することができます。 - 以下の手順で説明するオプションまたは用語の詳細が必要な場合は、[アラート ドキュメントを](/docs/alerts-applied-intelligence/overview/#concepts-terms)参照してください。 + 以下の手順で説明するオプションまたは用語の詳細が必要な場合は、[アラートドキュメント](/docs/alerts-applied-intelligence/overview/#concepts-terms)を参照してください。 @@ -46,17 +46,17 @@ New Relic でアラート条件を作成するには、チャート、NRQL ク - NRQLクエリを使用して作成する + NRQLを使用して作成する - チャートから開始することは、New Relic アラート条件を設定する最も簡単な方法の 1 つです。NRQL クエリを最初から作成する代わりに、チャートを使用すると、既存の NRQL クエリを使用してプロセスを開始できます。 + チャートから開始することは、New Relicアラート条件を設定する最も簡単な方法の1つです。NRQLを最初から作成する代わりに、チャートを使用すると、既存のNRQLクエリを使用してプロセスを開始できます。 この例では、エラー応答チャートを使用してアラート条件を設定します。開始したいチャートの種類を使用して、以下の手順に従います。 - 1. 任意のダッシュボードに移動します。次に、使用するチャートを見つけて \[**...**] メニューをクリックし、 **Create alert condition** \[アラート条件の作成]を選択します。 + 1. 任意のダッシュボードに移動します。次に、使用するチャートを見つけて **...** メニューをクリックし、 **Create alert condition** \[アラート条件の作成]を選択します。 - 3. 必要に応じて、監視対象に一致するように NRQL クエリを変更します。 現時点では、クエリをそのままにすることをお勧めしますが、クエリをより適切に扱えるようになったら、 および NRQL クエリを使用すると、ほぼすべての信号を監視するようにクエリを変更できます。 + 3. 必要に応じて、監視対象に一致するようにNRQLクエリを変更します。現時点では、クエリをそのままにすることをお勧めしますが、慣れてきたらとNRQLクエリでは、ほぼすべての信号を監視するようにクエリを変更できます。 4. 完了したら **Next** \[次へ] を選択して進行状況を保存し、次のステップに進みます。 @@ -88,7 +88,7 @@ New Relic でアラート条件を作成するには、チャート、NRQL ク 1. **one.newrelic.com**から、 [**Alerts & AI** \[アラートと AI\]](https://one.newrelic.com/alerts-ai)を選択し、次に [**Alert conditions (policies)**](https://one.newrelic.com/alerts-ai/alerts-classic/policies) \[アラート条件 (ポリシー)] を選択します。 2. **New alert condition** \[新しいアラート条件]を選択します。 - 3. **\[ゴールデン シグナルまたはメトリクス]**を選択します。 + 3. **Golden signal or metrics** \[ゴールデンシグナルまたはメトリクス]を選択します。 @@ -104,8 +104,8 @@ New Relic でアラート条件を作成するには、チャート、NRQL ク 4. リストされたエンティティ カテゴリのいずれかを選択して、アラート条件が監視するものを決定します。この例では **On host integrations** \[ホスト統合] が選択されていますが、ニーズに適した他のオプションを選択することもできます。 - 5. AWS、Kubernetes、ホスト統合などのサービスを使用している場合は、個々のエンティティを選択する前にエンティティ タイプを選択する必要もあります。エンティティ タイプを選択して、次のステップのオプションを絞り込みます。 - 6. 監視するエンティティを選択します。選択するエンティティが多数ある場合は、フィルター フィールドを使用してリストを短縮し、必要なものを見つけることができます。 + 5. AWS、Kubernetes、オンホストインテグレーションなどのサービスを使用している場合は、個々のエンティティを選択する前にエンティティタイプを選択する必要もあります。エンティティタイプを選択して、次の手順のオプションを絞り込みます。 + 6. 監視するエンティティを選択します。選択するエンティティが多数ある場合は、フィルターフィールドを使用してリストを短縮すると、必要なものを見つけることができます。 @@ -118,7 +118,7 @@ New Relic でアラート条件を作成するには、チャート、NRQL ク src={alertsGoldenEntities} /> - 厳選されたゴールデン メトリックを選択することも、過去 30 分間にレポートされた他のメトリックから選択することもできます。 + 厳選されたゴールデンメトリクスを選択することも、過去30分間にレポートされた他のメトリクスから選択することもできます。 - 利用できるカテゴリは、New Relic がアカウントで何を監視しているかによって異なります。 + 利用できるカテゴリは、New Relicがアカウント内で何を監視しているかによって異なります。 - チャートの使用は、事前に作成されたクエリからアラート条件を作成する優れた方法ですが、場合によっては、最初からアラート条件を作成する必要があります。NRQL クエリから新しいアラート条件を作成するプロセスは、チャートから作成するプロセスとほぼ同じです。主な違いは、事前に生成された NRQL クエリを使用するのではなく、手動で NRQL クエリを作成することです。 + チャートの使用は、事前に作成されたクエリからアラート条件を作成する優れた方法ですが、場合によっては、最初からアラート条件を作成する必要があります。NRQLクエリから新しいアラート条件を作成するプロセスは、チャートから作成するプロセスとほぼ同じです。主な違いは、事前に生成されたNRQLクエリを使用するのではなく、手動でNRQLクエリを作成する点です。 - NRQL は New Relic の Query Language の略で、すべてのチャートを強化し、データの分析とクエリに使用できる標準化されたクエリメソッドです。NRQL を初めて使用する場合は、 [NRQL ドキュメントを](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-new-relics-query-language/) 参照して、NRQL [の仕組み](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-how-nrql-works/) や [入門チュートリアル](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-tutorial/)など、NRQL について詳しく学んでください。 + NRQLはNew Relic Query Languageの略で、すべてのチャートを強化し、データの分析とクエリに使用できる標準化されたクエリメソッドです。NRQLを初めて使用する場合は、[NRQLドキュメント](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-new-relics-query-language/)を参照して、NRQLの[仕組み](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-how-nrql-works/)や[入門チュートリアル](/docs/query-your-data/nrql-new-relic-query-language/get-started/introduction-nrql-tutorial/)など、NRQLの詳細をご覧ください。 - ## 信号の動作を調整する + ## 信号動作に合わせて調整 - 1. **データ集約オプションを設定します**。 + 1. **データ集計オプションを設定します**。 * **Window duration** \[ウィンドウ期間]: **Window duration** \[ウィンドウ期間]設定を使用して、5 分ごとまたは 1 時間ごとのグループ化など、データを集計する頻度を決定します。この機能の設定は、監視しているデータの種類によって異なります。どのような設定にすべきかわからない場合は、デフォルト設定のままにしておくことができます。詳細については、 [「最初のアラートの作成」ドキュメントを](/docs/alerts-applied-intelligence/new-relic-alerts/get-started/your-first-nrql-condition/#window-duration)ご覧ください。 - * **スライディング ウィンドウ集約**: [スライディング ウィンドウ集約](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-nrql-alert-conditions/#sliding-window-aggregation)を使用するかどうかを選択します。この機能は、重複する集計ウィンドウを作成することにより、不規則なデータを処理する場合に、より滑らかなグラフを作成します。この機能はデフォルトでは無効になっており、最初のアラートでは無効のままにすることをお勧めします。 - * **ストリーミング方式**: 最も一般的に使用されるオプションは、 **Event flow** \[イベント フロー] と **Event timer** \[イベント タイマー]です。**Event flow** \[イベント フローは] 、頻繁かつ一貫してレポートするデータに最適ですが、 **Event timer** \[イベント タイマーは]、 一貫性のないデータ、まれにレポートするデータ、またはバッチで取り込むデータに最適です。個々の設定について詳しく知り、各シナリオでどの方法を使用する必要があるかを確認したい場合は、 [ドキュメントを](/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/understand-technical-concepts/streaming-alerts-key-terms-concepts/#aggregation-methods)参照してください。 + * **Sliding window aggregation** \[スライディングウィンドウ集計]:[スライディングウィンドウ集計](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-nrql-alert-conditions/#sliding-window-aggregation)を使用するかどうかを選択します。この機能は、重複する集計ウィンドウを作成することにより、不規則なデータを処理する場合に、より滑らかなチャートを作成します。この機能はデフォルトでは無効になっており、最初のアラートでは無効のままにしておくことをお勧めします。 + * **Streaming method** \[ストリーミング方式]: 最も一般的に使用されるオプションは、 **Event flow** \[イベント フロー] と **Event timer** \[イベント タイマー]です。**Event flow** \[イベント フローは] 、頻繁かつ一貫してレポートするデータに最適ですが、 **Event timer** \[イベント タイマーは]、 一貫性のないデータ、まれにレポートするデータ、またはバッチで取り込むデータに最適です。個々の設定について詳しく知り、各シナリオでどの方法を使用する必要があるかを確認したい場合は、 [ドキュメントを](/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/understand-technical-concepts/streaming-alerts-key-terms-concepts/#aggregation-methods)参照してください。 - 2. **タイミング オプションを設定します**。これは、各ウィンドウでイベントを評価する前にイベントを待機する時間を決定します。遅延が長くなると、誤ったアラートが少なくなりますが、インシデントがオープンになるまでの潜在的なダウンタイムも長くなります。この機能は、選択したオプションに応じて表示方法も異なります。 **Event flow** \[イベント フロー] および **Cadence** \[ケイデンス] のオプションでは **Delay** \[遅延] と呼ばれ、 **Event timer** \[イベント タイマー] では **Timer** \[タイマー]と呼ばれます。最初のアラートでは、デフォルトの時間設定をそのまま使用することをお勧めします。 + 2. **タイミング オプションを設定します**:これは、各ウィンドウでイベントを評価する前にイベントを待機する時間を決定します。遅延が長くなると、誤ったアラートが少なくなりますが、インシデントがオープンになるまでの潜在的なダウンタイムも長くなります。この機能は、選択したオプションに応じて表示方法も異なります。 **Event flow** \[イベント フロー] および **Cadence** \[ケイデンス] のオプションでは **Delay** \[遅延] と呼ばれ、 **Event timer** \[イベント タイマー] では **Timer** \[タイマー]と呼ばれます。最初のアラートでは、デフォルトの時間設定をそのまま使用することをお勧めします。 3. **ギャップ埋め戦略を選択します**: ギャップ埋めは、データ レポートの空白期間をユーザー定義の合成値で埋める事後対応機能です。データ レポートが散発的であると思われる場合は、空の集計ウィンドウにこのデータを入力することで、誤ったアラートを回避できます。最初のアラートでは、 **Gap-filling strategy** \[ギャップ充填戦略] で **None** \[なし]を選択します。 - 4. **評価遅延を選択します**: このオプションを使用すると、設定したしきい値に対して新しい信号を評価する前に New Relic が待機する時間が有効になります。これは、データ ストリームのレポート開始時の誤検知インシデントを防ぐのに役立ちます。最初のアラートでは、このオプションがデータに適用されることがわかっていない限り、トグルを無効のままにしておくことができます。 + 4. **評価遅延を選択**:このオプションを使用すると、設定した閾値に対して新しい信号を評価する前に、New Relicが待機する時間が有効になります。これは、データストリームのレポート開始時の誤検知インシデントを防ぐのに役立ちます。最初のアラートでは、このオプションがデータに適用されることがわかっている場合を除いて、トグルを無効のままにしておくことができます。 5. 完了したら **Next** \[次へ] を選択して進行状況を保存し、次のステップに進みます。 - ## 静的しきい値を設定する + ## 静的閾値の設定 - 1. まず、 **\[セキュリティ レベル]** セクションで、しきい値のステータスを **\[重大]** にするか、 **\[警告]** にするかを選択します。 + 1. まず、**Security level** \[セキュリティレベル]セクションで、閾値のステータスを **Critical**にするか、**Warning**にするかを選択します。 2. 制限に達した場合にインシデントが開始される制限を設定します。これらの値は、条件で実行したい内容に応じて変化します。たとえば、エラー メッセージの条件を作成する場合は、しきい値を **5 分に 1 回以上 1 に** 設定しますが、より長い期間のレイテンシの問題に対応する条件を作成する場合は、 **少なくとも 15 分間、しきい値が 50 以上になるようにします**。 - 3. 別のしきい値を追加する場合は、必要に応じて、 **\[しきい値を追加** ] または **\[損失信号しきい値を追加]**を選択します。損失信号しきい値は、レポートを停止する可能性のあるエンティティや、 [null 値を返す](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-nrql-alert-conditions/#query-order)可能性のあるクエリを監視する場合に重要です。 + 3. 別の閾値を追加したい場合は、必要に応じて**Add threshold**または**Add lost signal threshold**を選択します。失われた信号の閾値は、レポートを停止する可能性のあるエンティティや、[null 値を返す](/docs/alerts-applied-intelligence/new-relic-alerts/alert-conditions/create-nrql-alert-conditions/#query-order)可能性のあるクエリを監視するために重要です。 4. 完了したら **Next** \[次へ] を選択して進行状況を保存し、次のステップに進みます。 @@ -209,20 +209,20 @@ New Relic でアラート条件を作成するには、チャート、NRQL ク /> 1. **Name** \[名前] フィールドにアラートの名前を追加します。これは、この状態を特定するのに役立ちます。また、将来編集または削除する必要がある場合にその状態を見つけるのにも役立ちます。 - 2. この条件に接続するポリシーを選択します。 **Existing policy** \[既存のポリシー]がある場合は、ドロップダウンからそれを選択します。そうでない場合は、 **New policy** \[新しいポリシー] を選択してここから [ポリシーを作成する](/docs/alerts-applied-intelligence/new-relic-alerts/alert-policies/create-edit-or-find-alert-policy/#alert-policy-name) 必要があります。 - 3. アラートの追加設定を設定します。これには、オープンなインシデントが自動的にクローズされるまでの時間を設定したり、インシデントの [カスタム説明を](/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/advanced-techniques/alert-custom-incident-descriptions) 入力したりすることが含まれます。 + 2. この条件に接続するポリシーを選択します。 **Existing policy** \[既存のポリシー]がある場合は、ドロップダウンからそれを選択します。そうでない場合は、**New policy** \[新しいポリシー] を選択し、ここから作成して[ポリシーを作成 ](/docs/alerts-applied-intelligence/new-relic-alerts/alert-policies/create-edit-or-find-alert-policy/#alert-policy-name)する必要があります。 + 3. アラートの追加設定を行います。これには、オープンなインシデントが自動的にクローズされるまでの時間を設定したり、インシデントの[カスタム説明](/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/advanced-techniques/alert-custom-incident-descriptions)を入力したりすることなどがあります。 4. **Save condition** \[条件を保存] を選択して終了します。 -これでアラート条件が作成され、システム内の症状の特定が非常に簡単になりました。アラートには多くの構成オプションが用意されているため、チームのニーズや監視対象に基づいてアラートを微調整できます。それが最初のアラート条件である場合は、その仕組みに慣れるために、さまざまなオプションを使用してグラフからさらに作成することをお勧めします。NRQL クエリから条件を作成することもできます。これについては、このチュートリアル シリーズの次のトピックです。 +これでアラート条件が作成され、システム内の症状の特定が非常に簡単になりました。アラートには多くの設定オプションが用意されているため、チームのニーズや監視対象に基づいてアラートを微調整できます。それが最初のアラート条件である場合は、その仕組みに慣れるために、さまざまなオプションを使用してチャートからさらに作成することをお勧めします。NRQLクエリから条件を作成することもできます。これについては、このチュートリアルシリーズの次のトピックで説明します。 -## アラートからさらに多くのことを得る +## アラートをさらに活用 -チームにとってアラートをより効率的かつ管理しやすくするのに役立つ、高度なアラート機能がいくつかあります。 +チームにとってアラートをより効率的かつ管理しやすくする上で役立つ、高度なアラート機能がいくつかあります。 -* アラートをいつどこで受信するかをより詳細に制御し、問題について適切な担当者に確実に通知できるようにしたい場合は、 [「ワークフローの](/docs/alerts-applied-intelligence/applied-intelligence/incident-workflows/incident-workflows/)使用方法」を参照してください。 -* 重要なアラートのほぼ即時通知を有効にして平均解決時間 (MTTR) を短縮したい場合は、 [応用インテリジェンスを備えた異常検出の](/docs/alerts-applied-intelligence/applied-intelligence/anomaly-detection/anomaly-detection-applied-intelligence/)使用方法を参照してください。 -* API を使用して New Relic アラートを管理する場合は、 [REST API または GraphQL](/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/alerts-api/intro-alerts-api/)を使用して実行できます。 +* アラートをいつどこで受信するかをより詳細に制御し、問題について適切な担当者に確実に通知できるようにしたい場合は、[ワークフロー](/docs/alerts-applied-intelligence/applied-intelligence/incident-workflows/incident-workflows/)の使用方法を参照してください +* 重大なアラートのほぼ即時通知を有効にして、平均解決時間(MTTR)を短縮したい場合は、 [アプライドインテリジェンスでの異常検出](/docs/alerts-applied-intelligence/applied-intelligence/anomaly-detection/anomaly-detection-applied-intelligence/)の使用方法をご覧ください +* APIを使用してNew Relicアラートを管理する場合は、[REST APIまたはGraphQL](/docs/alerts-applied-intelligence/new-relic-alerts/advanced-alerts/alerts-api/intro-alerts-api/)を使用して実行できます - \ No newline at end of file + \ No newline at end of file diff --git a/src/i18n/content/jp/docs/tutorial-improve-app-performance/root-causes.mdx b/src/i18n/content/jp/docs/tutorial-improve-app-performance/root-causes.mdx index fe38f758d20..96c70de54a0 100644 --- a/src/i18n/content/jp/docs/tutorial-improve-app-performance/root-causes.mdx +++ b/src/i18n/content/jp/docs/tutorial-improve-app-performance/root-causes.mdx @@ -2,26 +2,26 @@ title: アプリケーションのパフォーマンスが遅い場合のトラブルシューティング metaDescription: Discover actionable steps for troubleshooting slow application performance to identify and resolve issues for a smoother user experience. freshnessValidatedDate: never -translationType: machine +translationType: human --- import journeyWebTrans from 'images/journey_screenshot-web-transactions.webp' import journeyTime from 'images/journey_crop-time-picker.webp' -あなたのアプリは遅いです。遅すぎて関連サービスでダウンタイムや問題が発生している可能性があります。または、単にバックエンドの応答が遅いために UX が少し悪化している可能性があります。あなたはそれについて何をしますか? +アプリが遅いです。おそらく、速度が遅すぎてダウンタイムや関連サービスに問題が発生している可能性があります。あるいは、単純にバックエンドの応答が遅いためにUXが少し悪化しているだけかもしれません。ではどうしますか? -このチュートリアルでは、New Relic を使用してアプリケーションをトリアージし、アプリケーションのパフォーマンス低下の根本原因を特定する方法について説明します。まず、アプリにエージェントを「装備」することから始めます。これは、言語とフレームワーク固有の統合を通じて、アプリに関するデータを New Relic にレポートするコードをインストールすることを意味します。New Relic でこのデータを使用して、アプリケーションのパフォーマンスを掘り下げ、遅いトランザクション、遅いデータベース クエリ、または遅い外部サービスを問題として特定します。 +このチュートリアルでは、New Relicを使用してアプリケーションを優先順位付けし、アプリケーションのパフォーマンス低下の根本原因を特定する方法を説明します。まず、エージェントを使用してアプリを「インストゥルメント」します。これは、言語とフレームワーク固有の統合を通じて、アプリに関するデータを報告するコードをNew Relicにインストールすることです。New Relicでこのデータを使用して、アプリケーションのパフォーマンスを詳しく調べ、問題としてトランザクションの遅さ、データベースクエリの遅さ、外部サービスの遅さ、あるいは3つすべてを特定します。 -## New Relic を使用して実行速度の遅いアプリケーションを修正する方法 +## New Relicを使用して実行速度の遅いアプリケーションを修正する方法 -実行速度の遅いアプリケーションに対処するには、パフォーマンスの問題の根本原因を特定する体系的なアプローチが必要です。次の手順では、アプリケーションの速度に悪影響を及ぼす問題のトラブルシューティング、診断、解決に必要な情報を提供します。 +実行速度の遅いアプリケーションに対処するには、パフォーマンス問題の根本原因を特定する体系的なアプローチが必要です。次の手順では、アプリケーションの速度に悪影響を与える問題のトラブルシューティング、診断、解決に必要な情報を提供します。 -## アプリケーション計測によるパフォーマンス監視の実装 [#prereq] +## アプリケーションのインストゥルメンテーションによるパフォーマンス監視の実装 [#prereq] -サイトのパフォーマンスを改善する前に、何が起こっているかを確認する必要があります。New Relic の監視は常に **、統合**、または関連するテクノロジーからデータを収集して New Relic に報告するコードの一部から始まります。アプリケーションのパフォーマンスを監視するには、アプリの言語専用に作成されたエージェントを使用します。 +サイトのパフォーマンスを改善する前に、何が起こっているかを確認する必要があります。New Relic の監視は常に、**統合**、または関連するテクノロジーからデータを収集して New Relic に報告するコードの一部から始まります。アプリケーションのパフォーマンスを監視するには、アプリケーションの言語専用に作成されたエージェントを使用します。 -ロゴをクリックしてエージェントをインストールします。これにより、New Relic プラットフォームに移動し、ガイドに従ってエージェントのインストールと構成を行うことができます。 +ロゴをクリックしてエージェントをインストールします。これにより、New Relicプラットフォームに移動し、ガイドに従ってエージェントのインストールと設定を行うことができます。 -エージェントをインストールしたら、 **[one.newrelic.com](https://one.newrelic.com/nr1-core?filters=(domain%3D'APM'ANDtype%3D'APPLICATION'))** にアクセスしてアプリを選択します。まだ多くのデータが表示されていない場合は、しばらく離れて、エージェントがアプリケーションの実行中にリアルタイム データを収集できるようにします。 +エージェントをインストールしたら、**[one.newrelic.com](https://one.newrelic.com/nr1-core?filters=(domain%3D'APM'ANDtype%3D'APPLICATION'))**にアクセスしてアプリを選択します。まだ多くのデータが表示されていない場合は、しばらく離れて、アプリケーションの実行中にエージェントがリアルタイムのデータを収集できるようにします。 -## アプリケーションの問題を特定する [#identify] +## アプリケーションの問題を特定 [#identify] @@ -89,11 +89,11 @@ import journeyTime from 'images/journey_crop-time-picker.webp' -## アプリケーションを診断する +## アプリケーションの診断 -提供されるグラフの情報を使用して、アプリケーション トランザクション、データベース クエリ、および外部サービスの現在の速度と効率を分析できます。次のステップは、パフォーマンスを向上させるために、対象を絞った修正に優先順位を付けて実装することです。 +提供されるチャートの情報を使用すると、アプリケーションのトランザクション、データベースクエリ、外部サービスの現在の速度と効率を分析できます。次の手順は、パフォーマンスを向上させるための目標修正に優先順位を付けて、実装することです。 -どの色がチャートの最大のチャンクを占めているか、またはスパイクやその他の奇妙な動作を示しているかに基づいて、このチュートリアルの次のステップを選択してください。 +どの色がチャートの最大の部分を占めるか、またはスパイクやその他の奇妙な動作を示すかに基づいて、このチュートリアルの次の手順を選択します。 - 緑色のセグメントは **外部サービス**、具体的には HTTP サービスまたはエンドポイントの呼び出しに費やされた時間です。これは、同じアプリの一部としての HTTP エンドポイント、同じシステムの一部としての別のサービス、または完全に外部のサードパーティ API である可能性があります。これをトラブルシューティングするには、ここをクリックしてチュートリアルのステップ 4 を参照してください。 + 緑色のセグメントは **external services**\[外部サービス]、特に HTTP サービスまたはエンドポイントの呼び出しに費やされた時間です。これは、同じアプリの一部としてのHTTPエンドポイント、同じシステムの一部としての別のサービス、または完全な外部のサードパーティAPIである可能性があります。これをトラブルシューティングするには、ここをクリックしてチュートリアルのステップ4に進んでください。 \ No newline at end of file diff --git a/src/i18n/content/kr/docs/apis/nerdgraph/examples/nerdgraph-api-notifications-destinations.mdx b/src/i18n/content/kr/docs/apis/nerdgraph/examples/nerdgraph-api-notifications-destinations.mdx index e9faaf8053d..e9e6eb9c561 100644 --- a/src/i18n/content/kr/docs/apis/nerdgraph/examples/nerdgraph-api-notifications-destinations.mdx +++ b/src/i18n/content/kr/docs/apis/nerdgraph/examples/nerdgraph-api-notifications-destinations.mdx @@ -524,4 +524,36 @@ mutation { } } } +``` + + + `Entity type channel is in use` 이라는 실패 메시지를 받은 경우 계속하기 전에 대상에서 사용하는 채널을 식별하고 삭제해야 합니다. 이를 수행하려면 먼저 대상과 연관된 모든 채널을 찾은 다음 각 채널을 개별적으로 삭제하십시오. + + +```graphql +{ + actor { + account(id: YOUR_ACCOUNT_ID) { + aiNotifications { + channels(filters: {destinationId: YOUR_DESTINATION_ID}) { + entities { + id + name + } + } + } + } + } +} +``` + +```graphql +mutation { +aiNotificationsDeleteChannel(accountId: YOUR_ACCOUNT_ID, channelId: YOUR_CHANNEL_ID) { +ids +error { + details +} +} +} ``` \ No newline at end of file diff --git a/src/i18n/content/kr/docs/browser/new-relic-browser/page-load-timing-resources/instrumentation-browser-monitoring.mdx b/src/i18n/content/kr/docs/browser/new-relic-browser/page-load-timing-resources/instrumentation-browser-monitoring.mdx index 5ab043020aa..d1ea5d78848 100644 --- a/src/i18n/content/kr/docs/browser/new-relic-browser/page-load-timing-resources/instrumentation-browser-monitoring.mdx +++ b/src/i18n/content/kr/docs/browser/new-relic-browser/page-load-timing-resources/instrumentation-browser-monitoring.mdx @@ -11,7 +11,7 @@ translationType: machine RUM(실제 사용자 모니터링)이라고도 하는 표준 [페이지 로드 타이밍](/docs/browser/new-relic-browser/page-load-timing/page-load-timing-process) 의 경우 전체 웹페이지를 로드하는 데 걸리는 전체 시간을 측정합니다. 페이지 로드 후 추가 모니터링은 페이지 내 AJAX 호출, JavaScript 오류, 기타 이벤트 및 상호 작용에 대한 세부 정보를 제공합니다. -우리의 보다 자세한 백엔드 타이밍 정보를 수집하기 위해 New Relic 에이전트를 활용하여 페이지가 구축될 때 JavaScript를 페이지에 동적으로 삽입할 수 있습니다. 브라우저는 [단일 페이지 애플리케이션(SPA) 아키텍처를](/docs/browser/single-page-app-monitoring/get-started/add-apps-single-page-app-monitoring) 사용하여 앱을 모니터링할 수도 있습니다. +우리의 는 더 자세한 백앤드 타이밍 정보를 수집하기 위해 뉴렐릭 에이전트를 활용하여 페이지가 작성될 때 페이지에 동적으로 JavaScript를 삽입할 수 있습니다. 브라우저는 [단일 페이지 애플리케이션(SPA) 아키텍처를](/docs/browser/single-page-app-monitoring/get-started/add-apps-single-page-app-monitoring) 사용하여 앱을 모니터링할 수도 있습니다. ## 브라우저 데이터 수집을 위한 계측 [#instrumentation] @@ -162,7 +162,7 @@ https **및** http 웹 페이지 모두에 대해 https를 통해 데이터를 diff --git a/src/i18n/content/kr/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior.mdx b/src/i18n/content/kr/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior.mdx index 762ab8a23df..26040ed9d28 100644 --- a/src/i18n/content/kr/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior.mdx +++ b/src/i18n/content/kr/docs/infrastructure/infrastructure-troubleshooting/troubleshoot-logs/infrastructure-agent-logging-behavior.mdx @@ -90,11 +90,11 @@ containerized agent found in container * **에이전트가 상세 모드에서 실행될 때** : 'msg' 필드 내에 통합 라인 컨텍스트를 배치하는 DEBUG 에이전트 로그 항목으로 전체 STDERR 라인을 전달합니다. * **그렇지 않으면** 예상 형식(아래 참조)에 대해 줄을 구문 분석하고 에이전트 ERROR 수준으로만 기록합니다. 항목은 '치명적' 또는 '오류' 심각도 수준과의 통합으로 생성됩니다. 이 경우 필드는 구조화된 방식으로 추출되고 전달됩니다(따라서 에이전트 필드에 대해 JSON 출력이 활성화된 경우 쿼리 가능하게 됩니다. -인프라 에이전트는 로그 설정에 명시적으로 정의된 경우 통합 오류를 필터링할 수도 있습니다. 이 예에서는 에이전트 로그가 디버그를 제외한 모든 수준에 있을 때 nri-mssql에서 발생하는 오류가 표시되지 않습니다. +기본적으로 인프라 에이전트는 통합 실행을 방해하지 않는 통합 오류를 필터링합니다. 로그인 레벨이 DEBUG로 설정되어 있거나 통합이 로그 구성에 구체적으로 나열되어 있는 경우에만 통합의 모든 오류가 표시됩니다. 예를 들어 이 설정에서는 로그 레벨이 INFO인 경우에도 `nri-mssql` 에서 발생하는 모든 오류가 표시됩니다. ```YAML log: - exclude_filters: + include_filters: integration_name: - nri-mssql ``` diff --git a/src/i18n/content/kr/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-service-bus-monitoring-integration.mdx b/src/i18n/content/kr/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-service-bus-monitoring-integration.mdx index 1578f523622..89c326dcad5 100644 --- a/src/i18n/content/kr/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-service-bus-monitoring-integration.mdx +++ b/src/i18n/content/kr/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-service-bus-monitoring-integration.mdx @@ -191,7 +191,7 @@ Azure Service Bus 통합에서 보고하는 몇 가지 메트릭 집합이 있 diff --git a/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile-maui-dotnet/monitor-your-net-maui-application.mdx b/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile-maui-dotnet/monitor-your-net-maui-application.mdx index ba019e7f067..c3240f1b7f4 100644 --- a/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile-maui-dotnet/monitor-your-net-maui-application.mdx +++ b/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile-maui-dotnet/monitor-your-net-maui-application.mdx @@ -87,21 +87,22 @@ import mobileHybridSummary from 'images/mobile_screenshot-full_hybrid-summary.we { InitializeComponent(); MainPage = new AppShell(); - + CrossNewRelic.Current.HandleUncaughtException(); CrossNewRelic.Current.TrackShellNavigatedEvents(); // Set optional agent configuration - // Options are: crashReportingEnabled, loggingEnabled, logLevel, collectorAddress, crashCollectorAddress - // AgentStartConfiguration agentConfig = new AgentStartConfiguration(true, true, LogLevel.INFO, "mobile-collector.newrelic.com", "mobile-crash.newrelic.com"); + // Options are: crashReportingEnabled, loggingEnabled, logLevel, collectorAddress, crashCollectorAddress,analyticsEventEnabled, networkErrorRequestEnabled, networkRequestEnabled, interactionTracingEnabled,webViewInstrumentation, fedRampEnabled + // AgentStartConfiguration agentConfig = new AgentStartConfiguration(crashReportingEnabled:false); + if (DeviceInfo.Current.Platform == DevicePlatform.Android) { CrossNewRelic.Current.Start(""); - // Start with optional agent configuration + // Start with optional agent configuration // CrossNewRelic.Current.Start("", agentConfig); } else if (DeviceInfo.Current.Platform == DevicePlatform.iOS) { CrossNewRelic.Current.Start(""); - // Start with optional agent configuration + // Start with optional agent configuration // CrossNewRelic.Current.Start("", agentConfig); } } diff --git a/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile-xamarin/monitor-your-xamarin-application.mdx b/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile-xamarin/monitor-your-xamarin-application.mdx index 93191bbc43c..14121b5f80e 100644 --- a/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile-xamarin/monitor-your-xamarin-application.mdx +++ b/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile-xamarin/monitor-your-xamarin-application.mdx @@ -90,9 +90,10 @@ Xamarin 에이전트를 설치하려면 UI에 직접 있는 [가이드 설치 CrossNewRelicClient.Current.HandleUncaughtException(); CrossNewRelicClient.Current.TrackShellNavigatedEvents() // Set optional agent configuration - // Options are: crashReportingEnabled, loggingEnabled, logLevel, collectorAddress, crashCollectorAddress - // AgentStartConfiguration agentConfig = new AgentStartConfiguration(true, true, LogLevel.INFO, "mobile-collector.newrelic.com", "mobile-crash.newrelic.com"); - if (Device.RuntimePlatform == Device.Android) + // Options are: crashReportingEnabled, loggingEnabled, logLevel, collectorAddress, crashCollectorAddress,analyticsEventEnabled, networkErrorRequestEnabled, networkRequestEnabled, interactionTracingEnabled,webViewInstrumentation, fedRampEnabled + // AgentStartConfiguration agentConfig = new AgentStartConfiguration(crashReportingEnabled:false); + + if (Device.RuntimePlatform == Device.Android) { CrossNewRelicClient.Current.Start(""); // Start with optional agent configuration @@ -100,7 +101,7 @@ Xamarin 에이전트를 설치하려면 UI에 직접 있는 [가이드 설치 } else if (Device.RuntimePlatform == Device.iOS) { CrossNewRelicClient.Current.Start(""); - // Start with optional agent configuration + // Start with optional agent configuration // CrossNewRelicClient.Current.Start("", agentConfig); } } diff --git a/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/configure-settings.mdx b/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/configure-settings.mdx index c06cbfa04b3..96c3c4b3d08 100644 --- a/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/configure-settings.mdx +++ b/src/i18n/content/kr/docs/mobile-monitoring/new-relic-mobile/mobile-sdk/configure-settings.mdx @@ -524,7 +524,7 @@ translationType: machine ```objectivec [NewRelic enableFeatures:NRFeatureFlag_SwiftInteractionTracing | NRFeatureFlag_FedRampEnabled]; - [NewRelic disableFeatures:NRFeatureFlag_NSURLSessionInstrumentation | NRFeatureFlag_CrashReporting]; + [NewRelic disableFeatures:NRFeatureFlag_NSURLSessionInstrumentation | NRFeatureFlag_CrashReporting]; [NewRelic startWithApplicationToken:...]; ``` @@ -921,7 +921,10 @@ translationType: machine 메트릭으로 보고 앱 시작 시간(콜드 및 핫 타임)을 활성화 또는 비활성화합니다. * 콜드 타임은 앱 시작과 첫 번째 추첨 사이의 시간을 나타냅니다. - * 핫 타임은 앱이 백그라운드에서 실행되는 것부터 첫 번째 그리기까지 다시 시작하는 데 걸리는 시간을 의미합니다. 기본값은 `true` 입니다(에이전트 버전 7.4.0 기준). + + * 핫 타임은 앱이 백그라운드에서 실행되고 첫 번째 그리기까지 재개되는 데 걸리는 시간을 나타냅니다. + + 기본값은 `true` 입니다(에이전트 버전 7.4.0 기준). + + + + + + + + + + + + @@ -1977,11 +2004,13 @@ translationType: machine Application.Current.PageDisappearing += PageDisappearing; CrossNewRelicClient.Current.HandleUncaughtException(); - CrossNewRelicClient.Current.TrackShellNavigatedEvents() - // Set optional agent configuration - // Options are: crashReportingEnabled, loggingEnabled, logLevel, collectorAddress, crashCollectorAddress - AgentStartConfiguration agentConfig = new AgentStartConfiguration(true, true, LogLevel.INFO, "mobile-collector.newrelic.com", "mobile-crash.newrelic.com"); - if (Device.RuntimePlatform == Device.Android) + CrossNewRelicClient.Current.TrackShellNavigatedEvents(); + + // Set optional agent configuration + // Options are: crashReportingEnabled, loggingEnabled, logLevel, collectorAddress, crashCollectorAddress,analyticsEventEnabled, networkErrorRequestEnabled, networkRequestEnabled, interactionTracingEnabled,webViewInstrumentation, fedRampEnabled + AgentStartConfiguration agentConfig = new AgentStartConfiguration(crashReportingEnabled:false); + + if (Device.RuntimePlatform == Device.Android) { //CrossNewRelicClient.Current.Start(""); // Start with optional agent configuration @@ -1990,7 +2019,7 @@ translationType: machine else if (Device.RuntimePlatform == Device.iOS) { //CrossNewRelicClient.Current.Start(""); - // Start with optional agent configuration + // Start with optional agent configuration CrossNewRelicClient.Current.Start(" - 옵션에는 `ERROR` (가장 자세한 정보 없음), `WARNING`, `INFO`, `VERBOSE`, `AUDIT` (가장 자세한 정보 표시)가 포함됩니다. + + + + + + + + + + + diff --git a/src/i18n/content/kr/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data.mdx b/src/i18n/content/kr/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data.mdx index 673c6820cbe..6043ecdd546 100644 --- a/src/i18n/content/kr/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data.mdx +++ b/src/i18n/content/kr/docs/new-relic-solutions/new-relic-one/core-concepts/use-tags-help-organize-find-your-data.mdx @@ -37,11 +37,9 @@ UI에서 태그를 사용하여 관련 엔터티로 필터링할 수 있습니 * 누가 무엇을 담당하는지 알기 위해 팀, 역할, 환경 또는 지역을 식별합니다.[몇 가지 예](#org-examples) 를 참조하십시오. -* 더 나은 구성 및 검색 +* - - - 및 [워크로드](/docs/new-relic-one/use-new-relic-one/workloads/workloads-isolate-resolve-incidents-faster). + 및 [워크로드를](/docs/new-relic-one/use-new-relic-one/workloads/workloads-isolate-resolve-incidents-faster) 더 잘 정리하고 검색할 수 있습니다. * [쿼리 및 차트 APM 데이터](#query-apm-tags) . @@ -58,7 +56,7 @@ UI에서 태그를 사용하여 관련 엔터티로 필터링할 수 있습니 이러한 소스의 태그는 UI 또는 API를 통하지 않고 태그 소스를 수정해야만 제거하거나 변경할 수 있습니다. -[API](/docs/apis/nerdgraph/examples/nerdgraph-tagging-api-tutorial/) 또는 [New Relic CLI를](https://developer.newrelic.com/automate-workflows/5-mins-tag-resources) 사용하여 프로그래밍 방식으로 태그를 자동화할 수도 있습니다. +[API](/docs/apis/nerdgraph/examples/nerdgraph-tagging-api-tutorial/), [뉴렐릭 CLI](https://developer.newrelic.com/automate-workflows/5-mins-tag-resources) 또는 [뉴렐릭 Terraform 제공자를](https://registry.terraform.io/providers/newrelic/newrelic/latest/docs/resources/entity_tags) 사용하여 프로그래밍 방식으로 태그를 자동화할 수도 있습니다. 에이전트의 배포된 각 인스턴스가 서로 다른 값을 보내도록 구성할 수 있기 때문에 에이전트 구성은 지정된 엔터티의 지정된 태그 키에 대해 여러 값을 생성할 수 있습니다. + 에이전트 설정에서 적용된 태그는 에이전트의 각 요소하다, 배포하다 인스턴스가 다른 값을 보내도록 구성될 수 있기 때문에 주어진 구성의 주어진 태그 키에 대해 여러 값을 초래할 수 있습니다. +3. 태그 위젯의 **Add a new tag...** \[새 태그 추가...] 필드에 `accountId: 123456789` 형식의 태그를 추가합니다.Add tags in New Relic 4. APM 에이전트의 경우 NRQL 쿼리에서 해당 태그를 사용하려면 서비스를 다시 시작하세요. ### 태그 제거 [#remove-tags] @@ -263,7 +261,7 @@ APM 태그 쿼리에 대한 이 짧은 비디오를 확인하십시오(3분 20 태그 구현을 담당하는 사람들은 태그 정의 방법과 사용 규칙을 설명하는 내부 정책을 충족하고 생성할 것을 권장합니다. 그 다음에: * 이 참조 설명서를 최신 상태로 유지하십시오. - * New Relic 에이전트를 배포할 때 클라우드 공급자에서 또는 [API](/docs/apis/nerdgraph/examples/nerdgraph-tagging-api-tutorial) 또는 Terraform과 같은 New Relic 자동화 도구를 통해 태그 정의를 자동화하십시오. + * 클라우드 제공자에서 배포하다 뉴렐릭 에이전트를 구현하거나 [API](/docs/apis/nerdgraph/examples/nerdgraph-tagging-api-tutorial) 또는 [뉴렐릭 Terraform 제공자](https://registry.terraform.io/providers/newrelic/newrelic/latest/docs/resources/entity_tags) 와 같은 뉴렐릭 자동화 도구를 통해 태그 정의를 자동화합니다. * 태그 지정 표준을 준수하지 않는 엔터티를 식별하는 반복 보고서를 만듭니다. @@ -331,7 +329,7 @@ APM 태그 쿼리에 대한 이 짧은 비디오를 확인하십시오(3분 20 ### APM 태그에 대한 쿼리 및 경고 [#query-apm-tags] -당신은 쿼리할 수 있습니다 NRQL을 사용하는 태그. 다음은 지원되는 [APM 에이전트](/docs/using-new-relic/cross-product-functions/install-configure/update-new-relic-agent)입니다. +NRQL을 사용하여 태그를 쿼리할 수 있습니다. 지원되는 [APM 에이전트는](/docs/using-new-relic/cross-product-functions/install-configure/update-new-relic-agent) 다음과 같습니다. * v2.3.0 이상으로 이동 * 자바 v4.9.0 이상 diff --git a/src/i18n/content/kr/docs/new-relic-solutions/observability-maturity/uptime-performance-reliability/optimize-slm-guide.mdx b/src/i18n/content/kr/docs/new-relic-solutions/observability-maturity/uptime-performance-reliability/optimize-slm-guide.mdx index 891dc64f31d..b501998079b 100644 --- a/src/i18n/content/kr/docs/new-relic-solutions/observability-maturity/uptime-performance-reliability/optimize-slm-guide.mdx +++ b/src/i18n/content/kr/docs/new-relic-solutions/observability-maturity/uptime-performance-reliability/optimize-slm-guide.mdx @@ -218,15 +218,6 @@ import apmCapabilityFilterClause from 'images/apm_screenshot-crop_capability-fil 클라이언트 성능에 대한 자세한 내용 [은 고객 경험에 대한 구현 가이드: 품질 기반을](/docs/new-relic-solutions/observability-maturity/customer-experience/quality-foundation-implementation-guide) 참조하십시오. - - - 데이터 품질은 예상 데이터를 적시에 제공하는 프로세스의 능력을 측정합니다. New Relic은 데이터를 쿼리하기 전에 먼저 데이터를 수집해야 합니다. 우리는 그 과정이 거의 실시간으로 완료될 것으로 기대합니다. New Relic은 데이터가 수집된 시간을 측정하고 해당 데이터를 쿼리에 사용할 수 있는 시점을 결정하기 위해 샘플링합니다. - - 데이터 품질은 입력 데이터를 알고, 출력 데이터를 알고, 원하는 결과가 달성되었는지 측정함으로써 측정됩니다. 여기에는 정확성을 결정하기 위한 결과 감사가 포함될 수 있습니다. - ## 전제 조건 [#prerequisites] @@ -320,7 +311,7 @@ FROM Transaction SELECT percentage(count(*), WHERE error is false) AS 'Success B ### 4. 서비스 수준 만들기 -New Relic 플랫폼은 권장 사항을 자동으로 계산합니다. 그리고 당신을 위한 기준선. +뉴렐릭 플랫폼은 권장되는 기준을 자동으로 계산합니다. **참고:** **서비스 수준 추가** 버튼이 표시되지 않으면 New Relic 관리자에게 권한을 확인하십시오.
- 常に挿入されます。 + Always inserted. - インフラストラクチャ エージェントは、New Relic によって割り当てられた [エンティティ GUID を](/attribute-dictionary/?event=Span&attribute=entityGuid) 挿入して、実行されているホストを識別します。これは、 `entity.guids` フィールドで使用できます。 + The infrastructure agent inserts the [Entity GUID](/attribute-dictionary/?event=Span&attribute=entityGuid) assigned by New Relic to identify the host where it's running. It is available in the `entity.guids` field. - 注:キャプチャされたログがAPMを使用してインストルメント化されたアプリケーションに属している場合、 `entity.guids`フィールドには、インフラストラクチャのエンティティGUIDとAPMのGUIDの両方が、パイプ(|)区切り文字で区切られて含まれます。 + Note: If the captured logs belong to an application instrumented using APM, the `entity.guids` field contains both the entity GUID of infrastructure, as well as the GUID of APM, separated by a pipe ( | ) delimiter.
- 常に挿入されます。 + Always inserted. - ログのキャプチャに使用される基になる[FluentBit入力プラグインタイプ](https://docs.fluentbit.io/manual/pipeline/inputs)。現在、その値は`tail` 、 `systemd` 、 `winlog` 、 `syslog` 、および`tcp`です。 + The underlying [Fluent Bit input plugin type](https://docs.fluentbit.io/manual/pipeline/inputs) used to capture the logs. Currently its values are `tail`, `systemd`, `winlog`, `syslog`, and `tcp`.
- `file`入力タイプを使用するときに挿入されます。 + Inserted when using the `file` input type. - 監視対象のファイルの絶対ファイルパス。 + Absolute file path of the file being monitored.
- 常に挿入されます。 + Always inserted. - インフラストラクチャエージェントを実行しているマシン/VM/コンテナのホスト名。 + The hostname of the machine/VM/container executing the infrastructure agent.
- 常に挿入されます。 + Always inserted. - ログのキャプチャに使用されるユーティリティを示します。この場合、それはインフラストラクチャエージェント自体であるため、この属性の値は常に`nri-agent`です。 + Indicates the utility used to capture the logs. In this case, it is the infrastructure agent itself, so this attribute always has the value `nri-agent`.
@@ -1191,9 +1194,9 @@ translationType: machine ```typescript # Disable Crash Reporting - cordova plugin add https://github.com/newrelic/newrelic-cordova-plugin.git - --variable IOS_APP_TOKEN="{ios-app-token}" - --variable ANDROID_APP_TOKEN="{android-app-token}" + cordova plugin add https://github.com/newrelic/newrelic-cordova-plugin.git + --variable IOS_APP_TOKEN="{ios-app-token}" + --variable ANDROID_APP_TOKEN="{android-app-token}" --variable CRASH_REPORTING_ENABLED="false" ``` @@ -1382,19 +1385,19 @@ translationType: machine CrossNewRelic.Current.TrackShellNavigatedEvents(); // Set optional agent configuration - // Options are: crashReportingEnabled, loggingEnabled, logLevel, collectorAddress, crashCollectorAddress - AgentStartConfiguration agentConfig = new AgentStartConfiguration(true, true, LogLevel.INFO, "mobile-collector.newrelic.com", "mobile-crash.newrelic.com"); + // Options are: crashReportingEnabled, loggingEnabled, logLevel, collectorAddress, crashCollectorAddress,analyticsEventEnabled, networkErrorRequestEnabled, networkRequestEnabled, interactionTracingEnabled,webViewInstrumentation, fedRampEnabled + AgentStartConfiguration agentConfig = new AgentStartConfiguration(crashReportingEnabled:false); if (DeviceInfo.Current.Platform == DevicePlatform.Android) { // CrossNewRelic.Current.Start(""); - // Start with optional agent configuration + // Start with optional agent configuration CrossNewRelic.Current.Start(""); - // Start with optional agent configuration + // Start with optional agent configuration CrossNewRelic.Current.Start(" - HTTP エラー トレースおよび `MobileRequestError` イベントの HTTP 応答本文のキャプチャを有効または無効にします。 + インタラクション トレースを有効または無効にします。 トレース インストゥルメンテーションは引き続き発生しますが、痕跡は収集されません。 これにより、デフォルトおよびカスタムのインタラクションが無効になります。 デフォルトでは false ```csharp - httpResponseBodyCaptureEnabled: true + interactionTracingEnabled: false + ``` +
+ WebView の自動監視を有効/無効にします。 + + ```csharp + webViewInstrumentation: false + ``` +
+ 米国政府クライアントのさまざまなエンドポイントを使用してレポート データを有効または無効にします。 + + ```csharp + fedRampEnabled: false ```
- HTTP エラー トレースおよび `MobileRequestError` イベントの HTTP 応答本文のキャプチャを有効または無効にします。 + ログレベルを指定します。デフォルトのログ レベルの場合は、このフィールドを省略します。 + + オプションには次のものがあります: `ERROR` (最も冗長でない)、 `WARNING` 、 `INFO` 、 `VERBOSE` 、 `AUDIT` (最も冗長な)。 ```csharp - httpResponseBodyCaptureEnabled: true + logLevel: NREnums.LogLevel.INFO ```
- ログレベルを指定します。デフォルトのログ レベルの場合は、このフィールドを省略します。 + データを送信するための特定のコレクター アドレスを設定します。デフォルトのアドレスの場合はこのフィールドを省略します。 + + ```csharp + collectorAddress: "crash-upload-delegate.domain.com" + ``` +
+ クラッシュを送信するための特定のクラッシュ コレクター アドレスを設定します。デフォルトのアドレスの場合はこのフィールドを省略します。 ```csharp - logLevel: NREnums.LogLevel.INFO + crashCollectorAddress: "crash-upload-delegate.domain.com" ```
- データを送信するための特定のコレクター アドレスを設定します。デフォルトのアドレスの場合はこのフィールドを省略します。 + インタラクション トレースを有効または無効にします。 トレース インストゥルメンテーションは引き続き発生しますが、痕跡は収集されません。 これにより、デフォルトおよびカスタムのインタラクションが無効になります。 デフォルトでは false ```csharp - collectorAddress: "crash-upload-delegate.domain.com" + interactionTracingEnabled: false ```
- クラッシュを送信するための特定のクラッシュ コレクター アドレスを設定します。デフォルトのアドレスの場合はこのフィールドを省略します。 + WebView の自動監視を有効/無効にします。 ```csharp - crashCollectorAddress: "crash-upload-delegate.domain.com" + webViewInstrumentation: false + ``` +
+ 米国政府クライアントのさまざまなエンドポイントを使用してレポート データを有効または無効にします。 + + ```csharp + fedRampEnabled: false ```
- https를 통한 활동이 있을 때 1분에 한 번 + https를 통한 활동이 있는 경우 10초마다 한 번씩
- 큐/토픽의 활성 메시지 수입니다. + 전달 준비가 완료된 대기열/주제의 활성 메시지 수입니다.
@@ -1191,9 +1194,9 @@ translationType: machine ```typescript # Disable Crash Reporting - cordova plugin add https://github.com/newrelic/newrelic-cordova-plugin.git - --variable IOS_APP_TOKEN="{ios-app-token}" - --variable ANDROID_APP_TOKEN="{android-app-token}" + cordova plugin add https://github.com/newrelic/newrelic-cordova-plugin.git + --variable IOS_APP_TOKEN="{ios-app-token}" + --variable ANDROID_APP_TOKEN="{android-app-token}" --variable CRASH_REPORTING_ENABLED="false" ``` @@ -1382,19 +1385,19 @@ translationType: machine CrossNewRelic.Current.TrackShellNavigatedEvents(); // Set optional agent configuration - // Options are: crashReportingEnabled, loggingEnabled, logLevel, collectorAddress, crashCollectorAddress - AgentStartConfiguration agentConfig = new AgentStartConfiguration(true, true, LogLevel.INFO, "mobile-collector.newrelic.com", "mobile-crash.newrelic.com"); + // Options are: crashReportingEnabled, loggingEnabled, logLevel, collectorAddress, crashCollectorAddress,analyticsEventEnabled, networkErrorRequestEnabled, networkRequestEnabled, interactionTracingEnabled,webViewInstrumentation, fedRampEnabled + AgentStartConfiguration agentConfig = new AgentStartConfiguration(crashReportingEnabled:false); if (DeviceInfo.Current.Platform == DevicePlatform.Android) { // CrossNewRelic.Current.Start(""); - // Start with optional agent configuration + // Start with optional agent configuration CrossNewRelic.Current.Start(""); - // Start with optional agent configuration + // Start with optional agent configuration CrossNewRelic.Current.Start(" - HTTP 오류 추적 및 `MobileRequestError` 이벤트에 대한 HTTP 응답 본문 캡처를 활성화 또는 비활성화합니다. + 플러그인 결합 추적을 활성화하거나 비활성화합니다. 트레이스 측정, 로그는 여전히 발생하지만 트레이스가 수집되지 않습니다. 이렇게 하면 기본 및 사용자 정의 블록결합이 비활성화됩니다. 기본적으로 거짓 ```csharp - httpResponseBodyCaptureEnabled: true + interactionTracingEnabled: false + ``` +
+ WebView의 자동 측정을 활성화/비활성화합니다. + + ```csharp + webViewInstrumentation: false + ``` +
+ 미국 정부 클라이언트에 대해 서로 다른 엔드포인트를 사용하여 보고 데이터를 활성화 또는 비활성화합니다. + + ```csharp + fedRampEnabled: false ```
- HTTP 오류 추적 및 `MobileRequestError` 이벤트에 대한 HTTP 응답 본문 캡처를 활성화 또는 비활성화합니다. + 로그 수준을 지정합니다. 기본 로그 수준에 대해서는 이 필드를 생략하십시오. + + 옵션에는 `ERROR` (가장 자세한 정보 없음), `WARNING`, `INFO`, `VERBOSE`, `AUDIT` (가장 자세한 정보 표시)가 포함됩니다. ```csharp - httpResponseBodyCaptureEnabled: true + logLevel: NREnums.LogLevel.INFO ```
- 로그 수준을 지정합니다. 기본 로그 수준에 대해서는 이 필드를 생략하십시오. + 데이터 전송을 위한 특정 수집기 주소를 설정합니다. 기본 주소에 대해서는 이 필드를 생략하십시오. + + ```csharp + collectorAddress: "crash-upload-delegate.domain.com" + ``` +
+ 충돌을 보내기 위한 특정 충돌 수집기 주소를 설정합니다. 기본 주소에 대해서는 이 필드를 생략하십시오. ```csharp - logLevel: NREnums.LogLevel.INFO + crashCollectorAddress: "crash-upload-delegate.domain.com" ```
- 데이터 전송을 위한 특정 수집기 주소를 설정합니다. 기본 주소에 대해서는 이 필드를 생략하십시오. + 플러그인 결합 추적을 활성화하거나 비활성화합니다. 트레이스 측정, 로그는 여전히 발생하지만 트레이스가 수집되지 않습니다. 이렇게 하면 기본 및 사용자 정의 블록결합이 비활성화됩니다. 기본적으로 거짓 ```csharp - collectorAddress: "crash-upload-delegate.domain.com" + interactionTracingEnabled: false ```
- 충돌을 보내기 위한 특정 충돌 수집기 주소를 설정합니다. 기본 주소에 대해서는 이 필드를 생략하십시오. + WebView의 자동 측정을 활성화/비활성화합니다. ```csharp - crashCollectorAddress: "crash-upload-delegate.domain.com" + webViewInstrumentation: false + ``` +
+ 미국 정부 클라이언트에 대해 서로 다른 엔드포인트를 사용하여 보고 데이터를 활성화 또는 비활성화합니다. + + ```csharp + fedRampEnabled: false ```