diff --git a/src/content/docs/alerts/create-alert/create-alert-condition/alert-conditions.mdx b/src/content/docs/alerts/create-alert/create-alert-condition/alert-conditions.mdx
index 0a2ccc81adb..a4e21450080 100644
--- a/src/content/docs/alerts/create-alert/create-alert-condition/alert-conditions.mdx
+++ b/src/content/docs/alerts/create-alert/create-alert-condition/alert-conditions.mdx
@@ -65,7 +65,7 @@ For all methods except for our guided mode, the process for creating an alert co
>
You can use a NRQL query to define the signals you want an alert condition to use as the foundation for your alert. For this example, you will be using this query:
- ```
+ ```sql
SELECT average(duration)
FROM PageView
WHERE appName = 'WebPortal'
diff --git a/src/content/docs/alerts/scale-automate/rest-api/disable-enable-alerts-conditions-using-api.mdx b/src/content/docs/alerts/scale-automate/rest-api/disable-enable-alerts-conditions-using-api.mdx
index 22062553713..716fce63e0a 100644
--- a/src/content/docs/alerts/scale-automate/rest-api/disable-enable-alerts-conditions-using-api.mdx
+++ b/src/content/docs/alerts/scale-automate/rest-api/disable-enable-alerts-conditions-using-api.mdx
@@ -85,21 +85,21 @@ The process for disabling or enabling a condition is the same general process fo
The following example shows how to disable a condition for an `apm_app_metric` condition. With the exception of the types of API calls required, the process is similar to the process for changing other condition types.
-1. Obtain the **policy_id** of the policy you want to update. For an imaginary policy named `Logjam Alert`, the command would be:
+1. Obtain the `policy_id` of the policy you want to update. For an imaginary policy named `Logjam Alert`, the command would be:
- ```
+ ```shell
curl -X GET 'https://api.newrelic.com/v2/alerts_policies.json' \
- -H "X-Api-Key:$API_KEY" -i \
- -G --data-urlencode 'filter[name]= Logjam Alert' <---<<< {policy_name}
+ -H "X-Api-Key:$API_KEY" -i \
+ -G --data-urlencode 'filter[name]= Logjam Alert' # policy_name
```
The output for this request might look like:
- ```
+ ```json
{
"policies": [
{
- "id": 85, <---<<< $POLICY_ID
+ "id": 85, // policy_id
"incident_preference": "PER_POLICY",
"name": "Logjam Alert",
"created_at": 1461176510393,
@@ -108,24 +108,24 @@ The following example shows how to disable a condition for an `apm_app_metric` c
]
}
```
-2. List all of this policy's conditions and locate the `{condition_id}`:
+2. List all of this policy's conditions and locate the `condition_id`:
- ```
+ ```shell
curl -X GET 'https://api.newrelic.com/v2/alerts_conditions.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "X-Api-Key:$API_KEY" -i \
-G -d 'policy_id=85'
```
The output for this request might look like:
- ```
+ ```json
{
"conditions": [
{
- "id": 12345, <---<<< $CONDITION_ID
+ "id": 12345, // condition_id
"type": "apm_app_metric",
"name": "Apdex (Low)",
- "enabled": true, <---<<< Note the condition is enabled
+ "enabled": true, // Note the condition is enabled
"entities": [
"8288171"
],
@@ -141,7 +141,7 @@ The following example shows how to disable a condition for an `apm_app_metric` c
]
},
{
- "id": 2468, <---<<< another condition_id
+ "id": 2468, // another condition_id
"type": "apm_app_metric",
"name": "Throughput (Low)",
...
@@ -151,16 +151,16 @@ The following example shows how to disable a condition for an `apm_app_metric` c
```
3. Copy the JSON for only the condition in question and paste it in a text editor. Change `"enabled": true` to `"enabled": false`. The edited JSON would look like:
- ```
+ ```shell lineHighlight=9
curl -X PUT 'https://api.newrelic.com/v2/alerts_conditions/12345.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "X-Api-Key:$API_KEY" -i \
-H 'Content-Type: application/json' \
-d \
'{
"condition": {
"type": "apm_app_metric",
"name": "Apdex (Low)",
- "enabled": false, <---<<< Changed to false
+ "enabled": false,
"entities": [
"8288171"
],
diff --git a/src/content/docs/alerts/scale-automate/rest-api/manage-entities-alerts-conditions.mdx b/src/content/docs/alerts/scale-automate/rest-api/manage-entities-alerts-conditions.mdx
index e14a06c6cea..8f7e29524d0 100644
--- a/src/content/docs/alerts/scale-automate/rest-api/manage-entities-alerts-conditions.mdx
+++ b/src/content/docs/alerts/scale-automate/rest-api/manage-entities-alerts-conditions.mdx
@@ -25,8 +25,8 @@ The REST API is no longer the preferred way to programmatically manage your aler
Modifying the list of entities in a condition requires you to know:
* Your [API key](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key)
-* The [{entity_ID}](/docs/alerts/new-relic-alerts/getting-started/alerts-glossary#alert-entity) of the entity you want to monitor
-* The [{condition_ID}](/docs/alerts/new-relic-alerts/getting-started/alerts-glossary#alert-condition) of the condition you want to modify
+* The [`entity_id`](/docs/alerts/new-relic-alerts/getting-started/alerts-glossary#alert-entity) of the entity you want to monitor
+* The [`condition_id`](/docs/alerts/new-relic-alerts/getting-started/alerts-glossary#alert-condition) of the condition you want to modify
## General procedure [#basic_process]
@@ -50,29 +50,29 @@ The following example shows how to add a Ruby application named `TimberTime` in
Only the first step in this example is unique to choosing the Ruby app as the entity. The remaining steps will be the same for whichever entity you choose.
-1. Get the `entity_id`; for example, `{application_id}`:
+1. Get the `entity_id`; for example, `application_id`:
- ```
+ ```shell
curl -X GET 'https://api.newrelic.com/v2/applications.json' \
- -H "X-Api-Key:$API_KEY" -i
+ -H $API_KEY -i
```
OR
If you know the application name, use this command and specify the `app_name`:
- ```
+ ```shell
curl -X GET 'https://api.newrelic.com/v2/applications.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H $API_KEY -i \
-d 'filter[name]=TimberTime'
```
-2. Review the output to find the `{application_id}`, and use it as the `{entity_id}`:
+2. Review the output to find the `application_id`, and use it as the `entity_id`:
- ```
+ ```json
{
"applications": [
{
- "id": 12345, <---<<< {application_id} == {entity_id}
+ "id": 12345, // application_id == entity_id
"name": "TimberTime",
"language": "ruby",
"health_status": "gray",
@@ -81,44 +81,44 @@ Only the first step in this example is unique to choosing the Ruby app as the en
```
3. Get the `policy_id` you want to update; for example, the `TimberTime` app's `Logjam Alert` policy. To get the `policy_id`, use this command:
- ```
+ ```shell
curl -X GET 'https://api.newrelic.com/v2/alerts_policies.json' \
- -H "X-Api-Key:$API_KEY" -i \
- -G -d 'filter[name]= Logjam Alert' <---<<< {policy_name}
+ -H $API_KEY -i \
+ -G -d 'filter[name]= Logjam Alert' # policy_name
```
4. Review the policy output; for example:
- ```
+ ```json
{
"policies": [
{
- "id": 85, <---<<< {policy_id}
+ "id": 85, // policy_id
"incident_preference": "PER_POLICY",
"name": "Logjam Alert",
"created_at": 1461176510393,
"updated_at": 1461176510393
},
```
-5. List all of this policy's conditions and locate the `{condition_id}`:
+5. List all of this policy's conditions and locate the `condition_id`:
- ```
+ ```shell
curl -X GET 'https://api.newrelic.com/v2/alerts_conditions.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H $API_KEY -i \
-G -d 'policy_id=85'
```
Review the policy conditions; for example:
- ```
+ ```json
{
"conditions": [
{
- "id": 234567, <---<<< {condition_id}
+ "id": 234567, // condition_id
"type": "apm_app_metric",
"name": "Throughput (web) (High)",
"enabled": true,
"entities": [
- "8288171" <---<<< Entity currently included in the policy
+ "8288171" // Entity currently included in the policy
],
"metric": "response_time_web",
"terms": [
@@ -136,19 +136,19 @@ Only the first step in this example is unique to choosing the Ruby app as the en
```
6. Use API requests to add entities to or remove entities from the policy's condition:
- To add `{entity_id}` 12345 to `{condition_id}` 234567, with `{entity_type}` set as `application`:
+ To add `entity_id` 12345 to `condition_id` 234567, with `entity_type` set as `Application`:
- ```
+ ```shell
curl -X PUT 'https://api.newrelic.com/v2/alerts_entity_conditions/12345.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H $API_KEY -i \
-H 'Content-Type: application/json' \
-G -d 'entity_type=Application&condition_id=234567'
```
- To remove `{entity_id}` 8288171 from `{condition_id}` 234567, with `{entity_type}` set as `application`:
+ To remove `entity_id` 8288171 from `condition_id` 234567, with `entity_type` set as `Application`:
- ```
+ ```shell
curl -X DELETE 'https://api.newrelic.com/v2/alerts_entity_conditions/8288171.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H $API_KEY -i \
-G -d 'entity_type=Application&condition_id=234567'
```
diff --git a/src/content/docs/alerts/scale-automate/rest-api/rest-api-calls-alerts.mdx b/src/content/docs/alerts/scale-automate/rest-api/rest-api-calls-alerts.mdx
index 68a670e3647..1f4b19d5abb 100644
--- a/src/content/docs/alerts/scale-automate/rest-api/rest-api-calls-alerts.mdx
+++ b/src/content/docs/alerts/scale-automate/rest-api/rest-api-calls-alerts.mdx
@@ -164,7 +164,7 @@ These API functions include links to the API Explorer, where you can create, del
- Incident `incident_preference`
+ `incident_preference`
|
@@ -178,11 +178,11 @@ These API functions include links to the API Explorer, where you can create, del
|
- [Policy `name`](/docs/alerts/new-relic-alerts-beta/configuring-alert-policies/name-or-rename-alert-policy)
+ [`name`](/docs/alerts/new-relic-alerts-beta/configuring-alert-policies/name-or-rename-alert-policy)
|
- The policy `name` is required. Leaving it unchanged will create a policy called string.
+ The policy `name` is required. Leaving it unchanged will create a policy called `string`.
|
@@ -192,9 +192,9 @@ These API functions include links to the API Explorer, where you can create, del
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_policies/create) > Alerts Policies > POST > Create**
- ```
+ ```shell
curl -X POST 'https://api.newrelic.com/v2/alerts_policies.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-H 'Content-Type: application/json' \
-d \
'{
@@ -236,7 +236,7 @@ These API functions include links to the API Explorer, where you can create, del
- Required. To find a policy's ID, use either of these options:
+ To find a policy's ID, use either of these options:
* From the UI: On a policy's UI page, find the ID under the policy name.
* With the API: Use the [List policies API](/docs/alerts/rest-api-alerts/new-relic-alerts-rest-api/rest-api-calls-new-relic-alerts#policies-list).
@@ -245,7 +245,7 @@ These API functions include links to the API Explorer, where you can create, del
|
- Incident `incident_preference`
+ `incident_preference`
|
@@ -259,11 +259,11 @@ These API functions include links to the API Explorer, where you can create, del
|
- [Policy `name`](/docs/alerts/new-relic-alerts-beta/configuring-alert-policies/name-or-rename-alert-policy)
+ [`name`](/docs/alerts/new-relic-alerts-beta/configuring-alert-policies/name-or-rename-alert-policy)
|
- **Required.** If you do not change the name, it defaults to a policy called string.
+ The policy `name`, if you do not change the `name` it defaults to a policy called `string`.
To find a policy's exact name, use the [List policies API](/docs/alerts/rest-api-alerts/new-relic-alerts-rest-api/rest-api-calls-new-relic-alerts#policies-list).
|
@@ -275,9 +275,9 @@ These API functions include links to the API Explorer, where you can create, del
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_policies/create) > Alerts Policies > PUT > Update**
- ```
+ ```shell
curl -X PUT 'https://api.newrelic.com/v2/alerts_policies/{id}.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-H 'Content-Type: application/json' \
-d \
'{
@@ -299,9 +299,9 @@ These API functions include links to the API Explorer, where you can create, del
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_policies/delete) > Alerts Policies > DELETE > Delete**
- ```
+ ```shell
curl -X DELETE 'https://api.newrelic.com/v2/alerts_policies/$POLICY_ID.json' \
- -H "X-Api-Key:$API_KEY" -i
+ -H "$API_KEY" -i
```
@@ -318,9 +318,9 @@ These API functions include links to the API Explorer, where you can create, del
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_policies/list) > Alerts Policies > GET > List**
- ```
+ ```shell
curl -X GET 'https://api.newrelic.com/v2/alerts_policies.json' \
- -H "X-Api-Key:$API_KEY" -i
+ -H "$API_KEY" -i
```
@@ -360,7 +360,7 @@ These API functions include links to the API Explorer, where you can create, upd
```
curl -X POST 'https://api.newrelic.com/v2/alerts_conditions/policies/$POLICY_ID.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-H 'Content-Type: application/json' \
-d \
'{
@@ -412,7 +412,7 @@ These API functions include links to the API Explorer, where you can create, upd
```
curl -X PUT 'https://api.newrelic.com/v2/alerts_conditions/$CONDITION_ID.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-H 'Content-Type: application/json' \
-d \
'{
@@ -460,9 +460,9 @@ These API functions include links to the API Explorer, where you can create, upd
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_conditions/update) > Alerts Conditions > DELETE > Delete**
- ```
+ ```shell
curl -X DELETE 'https://api.newrelic.com/v2/alerts_conditions/$CONDITION_ID.json' \
- -H "X-Api-Key:$API_KEY" -i
+ -H "$API_KEY" -i
```
@@ -476,9 +476,9 @@ These API functions include links to the API Explorer, where you can create, upd
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_conditions/list) > Alerts Conditions > GET > List**
- ```
+ ```shell
curl -X GET 'https://api.newrelic.com/v2/alerts_conditions.json?policy_id=$POLICY_ID' \
- -H "X-Api-Key:$API_KEY" -i
+ -H "$API_KEY" -i
```
@@ -508,7 +508,7 @@ These API functions include links to the API Explorer, where you can create, upd
```
curl -X POST 'https://api.newrelic.com/v2/alerts_nrql_conditions/policies/$POLICY_ID.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-H 'Content-Type: application/json' \
-d \
'{
@@ -567,7 +567,7 @@ These API functions include links to the API Explorer, where you can create, upd
```
curl -X PUT 'https://api.newrelic.com/v2/alerts_nrql_conditions/$CONDITION_ID.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-H 'Content-Type: application/json' \
-d \
'{
@@ -606,9 +606,9 @@ These API functions include links to the API Explorer, where you can create, upd
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_nrql_conditions/delete) > Alerts NRQL Conditions > DELETE > Delete**
- ```
+ ```shell
curl -X DELETE 'https://api.newrelic.com/v2/alerts_nrql_conditions/$CONDITION_ID.json' \
- -H "X-Api-Key:$API_KEY" -i
+ -H "$API_KEY" -i
```
@@ -622,9 +622,9 @@ These API functions include links to the API Explorer, where you can create, upd
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_nrql_conditions/list) > Alerts NRQL Conditions > GET > List**
- ```
+ ```shell
curl -X GET 'https://api.newrelic.com/v2/alerts_nrql_conditions.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-d 'policy_id=$POLICY_ID'
```
@@ -655,7 +655,7 @@ These API functions include links to the API Explorer, where you can create, upd
```
curl -X POST 'https://api.newrelic.com/v2/alerts_external_service_conditions/policies/$POLICY_ID.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-H 'Content-Type: application/json' \
-d \
'{
@@ -701,7 +701,7 @@ These API functions include links to the API Explorer, where you can create, upd
```
curl -X PUT 'https://api.newrelic.com/v2/alerts_external_service_conditions/$CONDITION_ID.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-H 'Content-Type: application/json' \
-d \
'{
@@ -742,9 +742,9 @@ These API functions include links to the API Explorer, where you can create, upd
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_external_service_conditions/delete) > Alerts External Service Conditions > DELETE > Delete**
- ```
+ ```shell
curl -X DELETE 'https://api.newrelic.com/v2/alerts_external_service_conditions/$CONDITION_ID.json' \
- -H "X-Api-Key:$API_KEY" -i
+ -H "$API_KEY" -i
```
@@ -758,9 +758,9 @@ These API functions include links to the API Explorer, where you can create, upd
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_external_service_conditions/list) > Alerts External Service Conditions > GET > List**
- ```
+ ```shell
curl -X GET 'https://api.newrelic.com/v2/alerts_external_service_conditions.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-d 'policy_id=$POLICY_ID'
```
@@ -787,7 +787,7 @@ These API functions include links to the API Explorer, where you can create, upd
```
curl -X POST 'https://api.newrelic.com/v2/alerts_synthetics_conditions/policies/$POLICY_ID.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-H 'Content-Type: application/json' \
-d \
'{
@@ -819,7 +819,7 @@ These API functions include links to the API Explorer, where you can create, upd
```
curl -X PUT 'https://api.newrelic.com/v2/alerts_synthetics_conditions/$CONDITION_ID.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-H 'Content-Type: application/json' \
-d \
'{
@@ -846,9 +846,9 @@ These API functions include links to the API Explorer, where you can create, upd
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_synthetics_conditions/delete) > Alerts Synthetics Conditions > DELETE > Delete**
- ```
+ ```shell
curl -X DELETE 'https://api.newrelic.com/v2/alerts_synthetics_conditions/$CONDITION_ID.json' \
- -H "X-Api-Key:$API_KEY" -i
+ -H "$API_KEY" -i
```
@@ -862,9 +862,9 @@ These API functions include links to the API Explorer, where you can create, upd
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_synthetics_conditions/list) > Alerts Synthetics Conditions > GET > List**
- ```
+ ```shell
curl -X GET 'https://api.newrelic.com/v2/alerts_synthetics_conditions.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-d 'policy_id=$POLICY_ID'
```
@@ -891,7 +891,7 @@ These API functions include links to the API Explorer, where you can create, upd
```
curl -X POST 'https://api.newrelic.com/v2/alerts_location_failure_conditions/policies/$POLICY_ID.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-H 'Content-Type: application/json' \
-d \
'{
@@ -933,7 +933,7 @@ These API functions include links to the API Explorer, where you can create, upd
```
curl -X PUT 'https://api.newrelic.com/v2/alerts_location_failure_conditions/$CONDITION_ID.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-H 'Content-Type: application/json' \
-d \
'{
@@ -943,13 +943,13 @@ These API functions include links to the API Explorer, where you can create, upd
"enabled": boolean,
"entities":
[
- "string"
+ "string"
],
"terms": [
- {
- "priority": "string",
- "threshold": integer,
- }
+ {
+ "priority": "string",
+ "threshold": integer,
+ }
],
"violation_time_limit_seconds": integer
}
@@ -970,9 +970,9 @@ These API functions include links to the API Explorer, where you can create, upd
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_location_failure_conditions/delete) > Alerts Location Failure Conditions > DELETE > Delete**
- ```
+ ```shell
curl -X DELETE 'https://api.newrelic.com/v2/alerts_location_failure_conditions/$CONDITION_ID.json' \
- -H "X-Api-Key:$API_KEY" -i
+ -H "$API_KEY" -i
```
@@ -986,9 +986,9 @@ These API functions include links to the API Explorer, where you can create, upd
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_location_failure_conditions/list) > Alerts Location Failure Conditions > GET > List**
- ```
+ ```shell
curl -X GET 'https://api.newrelic.com/v2/alerts_location_failure_conditions/policies/$POLICY_ID.json' \
- -H "X-Api-Key:$API_KEY" -i
+ -H "$API_KEY" -i
```
@@ -1021,9 +1021,9 @@ These API functions include links to the API Explorer, where you can list, add a
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_entity_conditions/list) > Alerts Entity Conditions > GET > list**
- ```
+ ```shell
curl -X GET 'https://api.newrelic.com/v2/alerts_entity_conditions/$ENTITY_ID.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-G -d 'entity_type=$ENTITY_TYPE'
```
@@ -1048,9 +1048,9 @@ These API functions include links to the API Explorer, where you can list, add a
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_entity_conditions/add) > Alerts Entity Conditions > PUT > Add**
- ```
+ ```shell
curl -X PUT 'https://api.newrelic.com/v2/alerts_entity_conditions/$ENTITY_ID.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-H 'Content-Type: application/json' \
-G -d 'entity_type=$ENTITY_TYPE&condition_id=$CONDITION_ID'
```
@@ -1076,9 +1076,9 @@ These API functions include links to the API Explorer, where you can list, add a
**[API Explorer](https://rpm.newrelic.com/api/explore/alerts_entity_conditions/remove) > Alerts Entity Conditions > DELETE > Remove**
- ```
+ ```shell
curl -X DELETE 'https://api.newrelic.com/v2/alerts_entity_conditions/$ENTITY_ID.json' \
- -H "X-Api-Key:$API_KEY" -i \
+ -H "$API_KEY" -i \
-G -d 'entity_type=$ENTITY_ID&condition_id=$CONDITION_ID'
```
diff --git a/src/content/docs/apm/agents/python-agent/getting-started/compatibility-requirements-python-agent.mdx b/src/content/docs/apm/agents/python-agent/getting-started/compatibility-requirements-python-agent.mdx
index 33814dae641..02fd08b8603 100644
--- a/src/content/docs/apm/agents/python-agent/getting-started/compatibility-requirements-python-agent.mdx
+++ b/src/content/docs/apm/agents/python-agent/getting-started/compatibility-requirements-python-agent.mdx
@@ -113,8 +113,6 @@ If you don't have one already, [create a New Relic account](https://newrelic.com
* [Google App Engine flexible environment](/docs/agents/python-agent/hosting-services/install-new-relic-python-agent-gae-flexible-environment).
* [Heroku](/docs/apm/agents/python-agent/hosting-services/python-agent-heroku/)
* [OpenShift](/docs/apm/agents/python-agent/hosting-services/python-agent-openshift/)
- * [Stackato](/docs/apm/agents/python-agent/hosting-services/python-agent-stackato/)
- * [WebFaction](/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction/)
diff --git a/src/content/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx b/src/content/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx
deleted file mode 100644
index 2d908263e98..00000000000
--- a/src/content/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx
+++ /dev/null
@@ -1,94 +0,0 @@
----
-title: Python agent and Stackato
-tags:
- - Agents
- - Python agent
- - Hosting services
-metaDescription: 'How to install, configure, and initialize the Python agent with ActiveState''s Stackato solution.'
-redirects:
- - /docs/agents/python-agent/hosting-services/python-agent-stackato
- - /docs/python/python-agent-and-stackato
- - /docs/agents/python-agent/hosting-services/python-agent-and-stackato
-freshnessValidatedDate: never
----
-
-[Stackato](http://www.activestate.com/cloud) is a private PaaS solution developed by ActiveState. The Python agent can be used in conjunction with Stackato by following the steps outlined below.
-
-The instructions here require you to use version 0.6 or higher of the Stackato VM image. If you use an older version of the Stackato VM image you will need to upgrade.
-
-## Package installation
-
-ActiveState [hosts a copy](http://code.activestate.com/pypm/newrelic/) of the Python agent package in their [PyPM](http://code.activestate.com/pypm) package repository. To install the Python package for the agent, add `newrelic` into the `requirements.txt` file on a line by itself:
-
-```
-newrelic
-```
-
-You would then perform the `update` command using the Stackato client.
-
-The PyPM package repository updates daily. If you need to use a newer version of the Python agent than is available from the PyPM package repository, you will instead need to fallback to using [pip](http://www.pip-installer.org/en/latest/) and source packages from [PyPI](http://pypi.python.org).
-
-In this case you will need to create in addition to the `requirements.txt` file used by PyPM, a `requirements.pip` file as input for pip. In the `requirements.pip` file you should list the `newrelic` package.
-
-## Agent configuration file
-
-You will need to generate the Python agent configuration on your local system as described in [Python agent installation](/docs/agents/python-agent/installation-and-configuration/python-agent-installation) and add that to the directory you push to your Stackato instance.
-
-The option in the agent configuration file for specifying where the agent log file output should go, should be set to:
-
-```ini
-log_file = stderr
-```
-
-## Python agent initialization [#python-agent-intialization]
-
-Although you can manually include code for initializing the Python agent into the Python module containing your WSGI application entry point, as per instructions for [integration with your Python application](/docs/agents/python-agent/installation-and-configuration/python-agent-integration), a simplified startup method is also available by using the `newrelic-admin` script.
-
-In the case where you do it manually, such changes would typically be made to the `wsgi.py` file which includes your Python web application. Since the agent configuration file would be in the same directory, the change to the `wsgi.py` file would be to add:
-
-```py
-import newrelic.agent
-
-config_file = os.path.join(os.path.dirname(__file__), 'newrelic.ini')
-newrelic.agent.initialize(config_file)
-```
-
-Because the directory in the filesystem where the application is installed can change, the location of the agent configuration is calculated relative to the location of the `wsgi.py` file automatically.
-
-The alternative to adding code to perform initialization of the agent manually is to use the `newrelic-admin` script.
-
-If you are explicitly defining in the `stackato.yml` file how to startup your web application by setting the `web` entry in the `processes` section:
-
-```yml
-processes:
- web: python app.py
-```
-
-You would replace `web` so it reads:
-
-```yml
-processes:
- web: newrelic-admin run-program python app.py
-```
-
-In other words, you are prefixing the existing command with `newrelic-admin run-program`.
-
-At the same time, you should also add an `env` section to the `stackato.yml` file with:
-
-```yml
-env:
- NEW_RELIC_CONFIG_FILE: newrelic.ini
-```
-
-If you aren't overriding the `web` entry already and instead are relying on the default of the Stackato stack running uWSGI for you the process is a bit different. In this case you will need to add a `web` entry to `stackato.yml` as:
-
-```yml
-processes:
- web: newrelic-admin run-program $PROCESSES_WEB
-```
-
-The `env` section is also again required.
-
-If `PROCESSES_WEB` is not defined and this does not work it indicates you are using an older VM image and should upgrade.
-
-Whether the manual or more automated method is used, if necessary for the Python web framework being used, the WSGI application entry point object will also need to be wrapped appropriately.
diff --git a/src/content/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx b/src/content/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx
deleted file mode 100644
index 5adc20543c2..00000000000
--- a/src/content/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx
+++ /dev/null
@@ -1,15 +0,0 @@
----
-title: Python agent and WebFaction
-tags:
- - Agents
- - Python agent
- - Hosting services
-metaDescription: 'To use the Python agent with WebFaction hosting services, follow the instructions for Apache/mod_wsgi.'
-redirects:
- - /docs/agents/python-agent/hosting-services/python-agent-webfaction
- - /docs/python/python-agent-and-webfaction
- - /docs/agents/python-agent/hosting-services/python-agent-and-webfaction
-freshnessValidatedDate: never
----
-
-You can install the Python agent on applications running on WebFaction. [WebFaction](http://www.webfaction.com/) is a general purpose web hosting service capable of hosting web applications using various languages including Python. The typical way that Python web applications are hosted on WebFaction is by using Apache/mod_wsgi. For more on installing The agent on a WebFaction Python application, see [Install the Python agent](/docs/agents/python-agent/installation-configuration/python-agent-installation) and follow the instructions for mod_wsgi.
diff --git a/src/content/docs/release-notes/agent-release-notes/net-release-notes/net-agent-10-30-0.mdx b/src/content/docs/release-notes/agent-release-notes/net-release-notes/net-agent-10-30-0.mdx
index de85ace4c83..df074f1a166 100644
--- a/src/content/docs/release-notes/agent-release-notes/net-release-notes/net-agent-10-30-0.mdx
+++ b/src/content/docs/release-notes/agent-release-notes/net-release-notes/net-agent-10-30-0.mdx
@@ -11,7 +11,7 @@ security: []
### New features
* Oracle instrumentation now supports latest version. ([#2721](https://github.com/newrelic/newrelic-dotnet-agent/issues/2721)) ([50cb663](https://github.com/newrelic/newrelic-dotnet-agent/commit/50cb663957ccfcfd55d104a7f54755100bfa46cc))
-* Preview support for instrumentation of "isolated" model Azure Functions. Instrumentation is disabled by default. Please reach out to your account team if you would like to try this new feature. ([d8a79e5](https://github.com/newrelic/newrelic-dotnet-agent/commit/d8a79e51683225e9b574efc8d1b154b2a4b9eadc))
+* Initial support for instrumentation of "isolated" model Azure Functions. Instrumentation is disabled by default. ([d8a79e5](https://github.com/newrelic/newrelic-dotnet-agent/commit/d8a79e51683225e9b574efc8d1b154b2a4b9eadc))
### Fixes
diff --git a/src/i18n/content/es/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx b/src/i18n/content/es/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx
deleted file mode 100644
index 7c885b24a08..00000000000
--- a/src/i18n/content/es/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx
+++ /dev/null
@@ -1,90 +0,0 @@
----
-title: Agente Python y Stackato
-tags:
- - Agents
- - Python agent
- - Hosting services
-metaDescription: 'How to install, configure, and initialize the Python agent with ActiveState''s Stackato solution.'
-freshnessValidatedDate: never
-translationType: machine
----
-
-[Stackato](http://www.activestate.com/cloud) es una solución PaaS privada desarrollada por ActiveState. El agente Python se puede utilizar junto con Stackato siguiendo los pasos que se describen a continuación.
-
-Las instrucciones aquí requieren que utilice la versión 0.6 o superior de la imagen de la máquina virtual (VM) de Stackato. Si utiliza una versión anterior de la imagen de la máquina virtual (VM) de Stackato, deberá actualizarla.
-
-## Instalación del paquete
-
-ActiveState [aloja una copia](http://code.activestate.com/pypm/newrelic/) del paquete del agente Python en su repositorio de paquetes [PyPM](http://code.activestate.com/pypm) . Para instalar el paquete Python para el agente, agregue `newrelic` al archivo **requirements.txt** en una línea separada:
-
-```
-newrelic
-```
-
-Luego ejecutaría el comando `update` usando el cliente Stackato.
-
-El repositorio de paquetes PyPM se actualiza diariamente. Si necesita utilizar una versión más reciente del agente Python que la que está disponible en el repositorio de paquetes PyPM, deberá recurrir al uso de paquetes fuente y [pip](http://www.pip-installer.org/en/latest/) de [PyPI](http://pypi.python.org).
-
-En este caso, deberá crear además del archivo **requirements.txt** utilizado por PyPM, un archivo **requirements.pip** como entrada para pip. En el archivo **requirements.pip** debe incluir el paquete `newrelic` .
-
-## Archivo de configuración del agente
-
-Deberá generar la configuración del agente Python en su sistema local como se describe en [Instalación del agente Python](/docs/agents/python-agent/installation-and-configuration/python-agent-installation) y agregarla al directorio que inserta en su instancia de Stackato.
-
-La opción en el archivo de configuración del agente para especificar dónde debe ir la salida del archivo de registro del agente debe configurarse en:
-
-```
-log_file = stderr
-```
-
-## Inicialización del agente Python [#python-agent-intialization]
-
-Aunque puede incluir código manualmente para inicializar el agente Python en el módulo Python que contiene el punto de entrada de su aplicación WSGI, según las instrucciones para [la integración con su aplicación Python](/docs/agents/python-agent/installation-and-configuration/python-agent-integration), también está disponible un método de inicio simplificado mediante el script **newrelic-admin** .
-
-En el caso de que lo haga manualmente, dichos cambios normalmente se realizarán en el archivo **wsgi.py** que incluye su aplicación web Python. Dado que el archivo de configuración del agente estaría en el mismo directorio, el cambio en el archivo **wsgi.py** sería agregar:
-
-```
-import newrelic.agent
-config_file = os.path.join(os.path.dirname(__file__), 'newrelic.ini')
-newrelic.agent.initialize(config_file)
-```
-
-Debido a que el directorio en el sistema de archivos donde está instalada la aplicación puede cambiar, la ubicación de la configuración del agente se calcula automáticamente en relación con la ubicación del archivo **wsgi.py** .
-
-La alternativa a agregar código para realizar la inicialización del agente manualmente es utilizar el script **newrelic-admin** .
-
-Si está definiendo explícitamente en el archivo **stackato.yml** cómo iniciar su aplicación web configurando la entrada `web` en la sección `processes` :
-
-```
-processes:
- web: python app.py
-```
-
-Reemplazaría `web` para que diga:
-
-```
-processes:
- web: newrelic-admin run-program python app.py
-```
-
-En otras palabras, está anteponiendo el comando existente con `newrelic-admin run-program`.
-
-Al mismo tiempo, también debes agregar una sección `env` al archivo **stackato.yml** con:
-
-```
-env:
- NEW_RELIC_CONFIG_FILE: newrelic.ini
-```
-
-Si aún no está anulando la entrada `web` y en su lugar confía en el valor predeterminado de la stack Stackato que ejecuta uWSGI, el proceso es un poco diferente. En este caso, deberá agregar una entrada `web` a **stackato.yml** como:
-
-```
-processes:
- web: newrelic-admin run-program $PROCESSES_WEB
-```
-
-La sección `env` también es obligatoria nuevamente.
-
-Si `PROCESSES_WEB` no está definido y esto no funciona, indica que está utilizando una imagen de máquina virtual (VM) anterior y debe actualizarla.
-
-Ya sea que se utilice el método manual o más automatizado, si es necesario para el framework web Python que se utiliza, el objeto de punto de entrada de la aplicación WSGI también deberá empaquetarse adecuadamente.
diff --git a/src/i18n/content/es/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx b/src/i18n/content/es/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx
deleted file mode 100644
index 49bacf6b08d..00000000000
--- a/src/i18n/content/es/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx
+++ /dev/null
@@ -1,12 +0,0 @@
----
-title: Agente Python y WebFaction
-tags:
- - Agents
- - Python agent
- - Hosting services
-metaDescription: 'To use the Python agent with WebFaction hosting services, follow the instructions for Apache/mod_wsgi.'
-freshnessValidatedDate: never
-translationType: machine
----
-
-Puede instalar el agente Python en una aplicación que se ejecuta en WebFaction. [WebFaction](http://www.webfaction.com/) es un servicio de alojamiento web de propósito general capaz de alojar aplicaciones web utilizando varios lenguajes, incluido Python. La forma típica en que las aplicaciones web Python se alojan en WebFaction es mediante Apache/mod_wsgi. Para obtener más información sobre la instalación del agente en una aplicación WebFaction Python, consulte [Instalar el agente Python](/docs/agents/python-agent/installation-configuration/python-agent-installation) y siga las instrucciones para mod_wsgi.
diff --git a/src/i18n/content/es/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx b/src/i18n/content/es/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx
index 999a8c4b22d..5b5843733e1 100644
--- a/src/i18n/content/es/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx
+++ b/src/i18n/content/es/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx
@@ -52,7 +52,7 @@ En muchos casos, el extremo de los mensajes de IA se graba en lugares diferentes
`trace_id`
- _cadena_
+ *cadena*
|
@@ -64,7 +64,7 @@ En muchos casos, el extremo de los mensajes de IA se graba en lugares diferentes
|
`rating`
- _cadena_ o _int_
+ *cadena* o *int*
|
@@ -76,7 +76,7 @@ En muchos casos, el extremo de los mensajes de IA se graba en lugares diferentes
|
`category`
- _cadena_
+ *cadena*
|
@@ -88,7 +88,7 @@ En muchos casos, el extremo de los mensajes de IA se graba en lugares diferentes
|
`message`
- _cadena_
+ *cadena*
|
@@ -100,7 +100,7 @@ En muchos casos, el extremo de los mensajes de IA se graba en lugares diferentes
|
`metadata`
- _dict_
+ *dict*
|
@@ -110,7 +110,7 @@ En muchos casos, el extremo de los mensajes de IA se graba en lugares diferentes
-## Valores de retorno [#return-valuess]
+## Valores de retorno [#return-values]
Ninguno.
@@ -129,4 +129,4 @@ Ejemplo de grabación de un evento de retroalimentación:
def post_feedback(request):
newrelic.agent.record_llm_feedback_event(trace_id=request.trace_id, rating=request.rating, metadata= {"my_key": "my_val"})
```
-````
+````
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx b/src/i18n/content/es/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx
new file mode 100644
index 00000000000..31ff86c17f6
--- /dev/null
+++ b/src/i18n/content/es/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx
@@ -0,0 +1,85 @@
+---
+title: WithLlmCustomAttributes (API del agente de Python)
+type: apiDoc
+shortDescription: Agregar atributo personalizado al evento LLM
+tags:
+ - Agents
+ - Python agent
+ - Python agent API
+metaDescription: 'Python API: This API adds custom attributes to a Large Language Model (LLM) events generated in AI applications.'
+freshnessValidatedDate: never
+translationType: machine
+---
+
+## Sintaxis [#syntax]
+
+```py
+ with newrelic.agent.WithLlmCustomAttributes(custom_attribute_map):
+```
+
+API de administrador de contexto que agrega un atributo especificado por el usuario al evento de modelo de lenguaje extenso (LLM) generado por llamadas de LLM en el código de la aplicación.
+
+## Requisitos [#requirements]
+
+Versión 10.1.0 del agente Python o superior.
+
+## Descripción [#description]
+
+Esta API de administrador de contexto agrega atributos personalizados especificados por el usuario a cada evento LLM generado dentro de su contexto en función de las llamadas realizadas a los LLM. El agente agregará automáticamente un prefijo `llm.` a cada nombre de clave de atributo personalizado especificado en el argumento del diccionario pasado. Esta API debe llamar dentro del contexto de una transacción activa.
+
+Estos atributos personalizados se pueden ver en LLM evento y consultar en la New Relic UI. Para obtener más información sobre el monitoreo de IA, consulte nuestra [documentación de IA](https://docs.newrelic.com/docs/ai-monitoring/intro-to-ai-monitoring/).
+
+## Parámetros [#parameters]
+
+
+
+
+
+ Parámetro
+ |
+
+
+ Descripción
+ |
+
+
+
+
+
+
+ `custom_attribute_map`
+
+ *diccionario*
+ |
+
+
+ Requerido. Un diccionario no vacío donde cada par de valores principales indica el nombre del atributo personalizado y su respectivo valor.
+ |
+
+
+
+
+## Valores de retorno [#return-values]
+
+Ninguno.
+
+## Ejemplos [#examples]
+
+### Agregue un atributo personalizado a una llamada de finalización de chat OpenAI
+
+```py
+ import newrelic.agent
+
+ from openai import OpenAI
+
+ client = OpenAI()
+
+ with newrelic.agent.WithLlmCustomAttributes({"custom": "attr", "custom1": "attr1"}):
+ response = client.chat.completions.create(
+ messages=[{
+ "role": "user",
+ "content": "Say this is a test",
+ }],
+ model="gpt-4o-mini",
+ )
+```
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx b/src/i18n/content/es/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
index 0b1956c0c69..ad72a15f9b6 100644
--- a/src/i18n/content/es/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
+++ b/src/i18n/content/es/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
@@ -248,6 +248,7 @@ Al migrar de nuestra integración tradicional de Azure al monitoreo de integraci
* Cuando habilita un monitoreo de integración de Azure, se creará una nueva entidad separada para todos sus recursos. La entidad creada por la integración Azure Polling se queda como está. Esto significa que debe actualizar el panel, las alertas y cualquier otra capacidad que haga referencia a esas entidades.
* Las entidades antiguas están disponibles durante 24 horas.
+* Un nombre de métrica puede aparecer dos veces cuando la métrica tiene diferentes combinaciones de dimensiones. Puede evitar nombres de métricas duplicados [creando una consulta que filtre las agregaciones de sus datos](/docs/infrastructure/microsoft-azure-integrations/get-started/azure-integration-metrics/#metrics-with-many-dimension-combinations).
## Pasos de migración desde la integración anterior de Azure Polling [#migration-from-polling]
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx
index a9125da78eb..602903ccb66 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx
@@ -132,7 +132,6 @@ newrelic_remote_write:
extra_write_relabel_configs:
# Enable the extra_write_relabel_configs below for backwards compatibility with legacy POMI labels.
# This helpful when migrating from POMI to ensure that Prometheus metrics will contain both labels (e.g. cluster_name and clusterName).
- # For more migration info, please visit the [migration guide](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide/).
- source_labels: [namespace]
action: replace
target_label: namespaceName
@@ -218,4 +217,4 @@ newrelic-prometheus-agent:
enabled: false
```
-Siga los pasos explicados en este [documento](/docs/kubernetes-pixie/kubernetes-integration/installation/install-kubernetes-integration-using-helm/#upgrade) para actualizar el clúster de Kubernetes mediante Helm.
+Siga los pasos explicados en este [documento](/docs/kubernetes-pixie/kubernetes-integration/installation/install-kubernetes-integration-using-helm/#upgrade) para actualizar el clúster de Kubernetes mediante Helm.
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx
index c8e5217e275..e91d1b8f025 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx
@@ -23,8 +23,8 @@ Para configurar el agente usando Helm, debe configurar su `values.yaml` de una d
```yaml
global:
- licenseKey: _YOUR_NEW_RELIC_LICENSE_KEY_
- cluster: _K8S_CLUSTER_NAME_
+ licenseKey: YOUR_NEW_RELIC_LICENSE_KEY
+ cluster: K8S_CLUSTER_NAME
newrelic-prometheus-agent:
enabled: true
@@ -37,8 +37,8 @@ Para configurar el agente usando Helm, debe configurar su `values.yaml` de una d
Esta opción sólo se recomienda si eres un usuario avanzado.
```yaml
- licenseKey: _YOUR_NEW_RELIC_LICENSE_KEY_
- cluster: _K8S_CLUSTER_NAME_
+ licenseKey: YOUR_NEW_RELIC_LICENSE_KEY
+ cluster: K8S_CLUSTER_NAME
config:
# YOUR CONFIGURATION GOES HERE. An example:
@@ -66,8 +66,8 @@ app_values: ["redis", "traefik", "calico", "nginx", "coredns", "kube-dns", "etcd
Además, puede suceder que una nueva versión de los filtros de integración haga que un objetivo que ya fue eliminado por un trabajo sea eliminado por segunda vez. Para recibir una notificación en caso de datos duplicados (y evitar por completo el scraping duplicado), puede crear una alerta basada en la siguiente consulta:
-```
-FROM Metric select uniqueCount(job) facet instance, cluster_name limit 10 since 2 minutes ago
+```sql
+FROM Metric SELECT uniqueCount(job) FACET instance, cluster_name LIMIT 10 SINCE 2 minutes ago
```
Si algún valor es diferente de 1, entonces tiene dos o más trabajos extrayendo la misma instancia en el mismo clúster.
@@ -99,19 +99,19 @@ El siguiente ejemplo solo extrae `Pods` y `Endpoints` con la anotación `newreli
```yaml
kubernetes:
jobs:
- - job_name_prefix: example
- integrations_filter:
- enabled: false
- target_discovery:
- pod: true
- endpoints: true
- filter:
- annotations:
- # :
- newrelic.io/scrape: 'true'
- label:
- # :
- k8s.io/app: '(postgres|mysql)'
+ - job_name_prefix: example
+ integrations_filter:
+ enabled: false
+ target_discovery:
+ pod: true
+ endpoints: true
+ filter:
+ annotations:
+ # :
+ newrelic.io/scrape: "true"
+ label:
+ # :
+ k8s.io/app: "(postgres|mysql)"
```
@@ -174,21 +174,21 @@ common:
scrape_interval: 30s
kubernetes:
jobs:
- # this job will use the default scrape_interval defined in common.
- - job_name_prefix: default-targets-with-30s-interval
- target_discovery:
- pod: true
- filter:
- annotations:
- newrelic.io/scrape: 'true'
-
- - job_name_prefix: slow-targets-with-60s-interval
- scrape_interval: 60s
- target_discovery:
- pod: true
- filter:
- annotations:
- newrelic.io/scrape_slow: 'true'
+ # this job will use the default scrape_interval defined in common.
+ - job_name_prefix: default-targets-with-30s-interval
+ target_discovery:
+ pod: true
+ filter:
+ annotations:
+ newrelic.io/scrape: "true"
+
+ - job_name_prefix: slow-targets-with-60s-interval
+ scrape_interval: 60s
+ target_discovery:
+ pod: true
+ filter:
+ annotations:
+ newrelic.io/scrape_slow: "true"
```
## Transformaciones métricas y de etiquetas [#metric-label-transformations]
@@ -203,21 +203,21 @@ Aquí hay un ejemplo de cómo usarlo en diferentes partes del archivo de configu
```yaml
static_targets:
-- name: self-metrics
- urls:
- - 'http://static-service:8181'
- extra_metric_relabel_config:
- # Drop metrics with prefix 'go_' for this target.
- - source_labels: [__name__]
- regex: 'go_.+'
- action: drop
+ - name: self-metrics
+ urls:
+ - "http://static-service:8181"
+ extra_metric_relabel_config:
+ # Drop metrics with prefix 'go_' for this target.
+ - source_labels: [__name__]
+ regex: "go_.+"
+ action: drop
newrelic_remote_write:
extra_write_relabel_configs:
- # Drop all metrics with the specified name before sent to New Relic.
- - source_labels: [__name__]
- regex: 'metric_name'
- action: drop
+ # Drop all metrics with the specified name before sent to New Relic.
+ - source_labels: [__name__]
+ regex: "metric_name"
+ action: drop
```
### Muestras de fragmentos de archivos YAML [#config-samples]
@@ -270,10 +270,10 @@ Agregue uno de estos ejemplos en el archivo de configuración YAML desde la secc
```yaml
- source_labels: [__name__]
- regex: 'prefix_.+'
- target_label: new_label
- action: replace
- replacement: newLabelValue
+ regex: 'prefix_.+'
+ target_label: new_label
+ action: replace
+ replacement: newLabelValue
```
@@ -282,7 +282,7 @@ Agregue uno de estos ejemplos en el archivo de configuración YAML desde la secc
```yaml
- regex: 'label_name'
- action: labeldrop
+ action: labeldrop
```
@@ -303,36 +303,37 @@ A continuación se muestran algunos ejemplos para tratar objetivos que necesitan
```yaml
kubernetes:
jobs:
- - job_name_prefix: skip-verify-on-https-targets
- target_discovery:
- pod: true
- filter:
- annotations:
- newrelic.io/scrape: 'true'
- - job_name_prefix: bearer-token
- target_discovery:
- pod: true
- filter:
- label:
- k8s.io/app: my-app-with-token
- authorization:
- type: Bearer
- credentials_file: '/etc/my-app/token'
+ - job_name_prefix: skip-verify-on-https-targets
+ target_discovery:
+ pod: true
+ filter:
+ annotations:
+ newrelic.io/scrape: "true"
+ - job_name_prefix: bearer-token
+ target_discovery:
+ pod: true
+ filter:
+ label:
+ k8s.io/app: my-app-with-token
+ authorization:
+ type: Bearer
+ credentials_file: "/etc/my-app/token"
static_targets:
jobs:
- - job_name: mtls-target
- scheme: https
- targets:
- - 'my-mtls-target:8181'
- tls_config:
- ca_file: '/etc/my-app/client-ca.crt'
- cert_file: '/etc/my-app/client.crt'
- key_file: '/etc/my-app/client.key'
-
- - job_name: basic-auth-target
- targets:
- - 'my-basic-auth-static:8181'
- basic_auth:
- password_file: '/etc/my-app/pass.htpasswd'
+ - job_name: mtls-target
+ scheme: https
+ targets:
+ - "my-mtls-target:8181"
+ tls_config:
+ ca_file: "/etc/my-app/client-ca.crt"
+ cert_file: "/etc/my-app/client.crt"
+ key_file: "/etc/my-app/client.key"
+
+ - job_name: basic-auth-target
+ targets:
+ - "my-basic-auth-static:8181"
+ basic_auth:
+ password_file: "/etc/my-app/pass.htpasswd"
+
```
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx
index 4f83ab296ca..e54d42602ba 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx
@@ -23,10 +23,10 @@ global:
Una vez que esto se haya actualizado en los archivos de valores, ejecute el siguiente comando de actualización de helm:
```bash
-helm upgrade newrelic-prometheus-configurator/newrelic-prometheus-agent \
---namespace \
--f values-newrelic.yaml \
-[--version fixed-chart-version]
+helm upgrade RELEASE_NAME newrelic-prometheus-configurator/newrelic-prometheus-agent \
+ --namespace NEWRELIC_NAMESPACE \
+ -f values-newrelic.yaml \
+ [--version fixed-chart-version]
```
## No ver métrica para un objetivo. [#target-with-no-metrics]
@@ -35,7 +35,7 @@ Necesita, al menos, un `job` que esté descubriendo el objetivo en Kubernetes qu
Si está utilizando la configuración predeterminada en Kubernetes, verifique que su pod o servicio tenga la anotación `prometheus.io/scrape=true` .
-De forma predeterminada, el agente Prometheus extrae métrica solo de [Prometheus integración](/docs/infrastructure/prometheus-integrations/integrations-list/integrations-list-intro). A menos que haya seleccionado eliminar todos los extremos de Prometheus en el clúster, el agente Prometheus filtra el extremo que se va a eliminar utilizando las etiquetas definidas en [source_labels](https://github.com/newrelic/newrelic-prometheus-configurator/blob/main/charts/newrelic-prometheus-agent/values.yaml).
+De forma predeterminada, el agente Prometheus extrae métrica solo de [Prometheus integración](/docs/infrastructure/prometheus-integrations/integrations-list/integrations-list-intro). A menos que haya seleccionado eliminar todos los extremos de Prometheus en el clúster, el agente Prometheus filtra el extremo que se va a eliminar utilizando las etiquetas definidas en [source\_labels](https://github.com/newrelic/newrelic-prometheus-configurator/blob/main/charts/newrelic-prometheus-agent/values.yaml).
## No ver métrica en un dashboard [#dashboard-with-no-metrics]
@@ -45,8 +45,8 @@ Es posible que parte del panel proporcionado por la [integración de Prometheus]
Cada raspado de objetivo genera la métrica `up` con la métrica de todo objetivo. Si el scraping tiene éxito, estas métricas tienen `1` como valor. Si no tiene éxito, su valor es `0`.
-```SQL
-FROM Metric SELECT latest(up) WHERE cluster_name= 'YOUR_CLUSTER_NAME' AND pod = 'TARGET_POD_NAME' TIMESERIES
+```sql
+FROM Metric SELECT latest(up) WHERE cluster_name = 'YOUR_CLUSTER_NAME' AND pod = 'TARGET_POD_NAME' TIMESERIES
```
Si esta métrica no existe para el objetivo, es posible que se haya eliminado.
@@ -103,4 +103,4 @@ El objetivo fallido aparecerá en la lista y el error estará disponible en el c
]
}
}
-```
+```
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx
index 320924b789a..590aab866ac 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx
@@ -20,11 +20,7 @@ Utilice New Relic para ver un dashboard basado en Prometheus métrica para compr
* Estadísticas del servidor de CD Argo
* Estadísticas del repositorio
-
+
## Habilitar la integración
@@ -46,7 +42,7 @@ Siga estos pasos para habilitar la integración.
FROM Metric SELECT count(*) WHERE instrumentation.name = 'remote-write' AND metricName LIKE 'argocd_%' FACET metricName LIMIT MAX
```
-4. Instale el [inicio rápido del CD Argo](https://newrelic.com/instant-observability/argocd-quickstart) para acceder al integrado y a [las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
+4. Instale el [inicio rápido del CD Argo](https://newrelic.com/instant-observability/argocd-quickstart) para acceder al integrado y a [las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
Una vez que haya importado, puede editar o clonar los activos para adaptarlos a sus requisitos específicos.
@@ -84,8 +80,8 @@ Utilice la siguiente consulta NRQL para comprender la métrica que se ingiere en
* Utilice este comando para verificar que Argo CD Prometheus extremo esté emitiendo métrica en cualquier nodo K8s configurado con Argo CD:
- ```
+ ```sh
curl :8082/metrics
```
-* También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para la integración de Prometheus.
+* También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para la integración de Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx
index 01854b1e42f..07e385839cd 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx
@@ -21,11 +21,7 @@ Utilice New Relic para ver un dashboard basado en Prometheus métrica que le ayu
* Las tablas de IP guardan y restauran errores
* BPF métrica específica si BPF se utiliza como plano de datos para Calico
-
+
## Habilitar la integración
@@ -80,18 +76,18 @@ Utilice la siguiente consulta NRQL para comprender la métrica que se ingiere en
* Estimar la ingesta de datos (ingesta diaria, en bytes):
```sql
- FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'felix_%' SINCE
- 1 day ago
+ FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'felix_%'
+ SINCE 1 day ago
```
## Resolución de problemas
* Utilice este comando para verificar que el Calico Prometheus extremo esté emitiendo métrica en cualquier nodo K8s configurado con Calico CNI:
- ```
+ ```sh
curl :9091/metrics
```
* Siga los consejos de resolución de problemas de [la documentación de Calico](https://projectcalico.docs.tigera.io/maintenance/monitor/monitor-component-metrics) para asegurarse de que las métricas estén configuradas como se espera en su clúster.
-* También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus.
+* También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx
index 4f7e38b2390..fc64f6b0f33 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx
@@ -29,11 +29,7 @@ Utilice New Relic para monitor:
* Alto recuento de descriptores de archivos abiertos
* Vencimientos de certificados
-
+
## Habilitar la integración
@@ -52,10 +48,10 @@ Siga estos pasos para habilitar la integración.
3. Utilice la siguiente consulta para confirmar que la métrica se esté ingiriendo como se espera:
```sql
- SELECT * from Metric where metricName='rocksdb_num_sstables'
+ SELECT * FROM Metric WHERE metricName = 'rocksdb_num_sstables'
```
-4. Instale el [inicio rápido de CockroachDB](https://newrelic.com/instant-observability/?search=cockroachdb) para acceder a integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
+4. Instale el [inicio rápido de CockroachDB](https://newrelic.com/instant-observability/?search=cockroachdb) para acceder a integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
Algunos gráficos del dashboard incluyen consultas con condiciones que requieren la identificación de su pod o extremo con una de estas etiquetas `app.kubernetes.io/name`, `app.newrelic.io/name`, `k8s-app` que contiene la cadena `cockroachdb`.
@@ -69,17 +65,17 @@ Siga estos pasos para habilitar la integración.
```yaml
- source_labels: [__name__]
- separator: ;
- regex: timeseries_write_(.*)
- target_label: newrelic_metric_type
- replacement: counter
- action: replace
+ separator: ;
+ regex: timeseries_write_(.*)
+ target_label: newrelic_metric_type
+ replacement: counter
+ action: replace
- source_labels: [__name__]
- separator: ;
- regex: sql_byte(.*)
- target_label: newrelic_metric_type
- replacement: counter
- action: replace
+ separator: ;
+ regex: sql_byte(.*)
+ target_label: newrelic_metric_type
+ replacement: counter
+ action: replace
```
## Encuentra y usa los datos.
@@ -93,33 +89,33 @@ Los diferentes conjuntos de métricas expuestos por esta integración están def
Utilice la siguiente consulta NRQL para comprender la métrica de CockroachDB que se ingiere en New Relic.
-
+
* Lista de nombres métricos únicos:
```sql
- FROM Metric SELECT uniques(metricName) WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') LIMIT MAX
+ FROM Metric SELECT uniques(metricName)
+ WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%')
+ LIMIT MAX
```
* Cuente el número de actualizaciones métricas:
```sql
- FROM Metric SELECT datapointcount() WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') FACET metricName
+ FROM Metric SELECT datapointcount()
+ WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%')
+ FACET metricName
```
* Estimar la ingesta de datos (ingesta diaria, en bytes):
```sql
- FROM Metric SELECT bytecountestimate() WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') SINCE 1 day ago
+ FROM Metric SELECT bytecountestimate()
+ WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%')
+ SINCE 1 day ago
```
-
+
Ajuste el nombre del trabajo según sus ajustes de configuración.
@@ -127,7 +123,7 @@ Utilice la siguiente consulta NRQL para comprender la métrica de CockroachDB qu
* Lista de nombres métricos únicos:
```sql
- FROM Metric SELECT uniques(metricName) WHERE job='cockroachdb' LIMIT MAX
+ FROM Metric SELECT uniques(metricName) WHERE job = 'cockroachdb' LIMIT MAX
```
* Cuente el número de actualizaciones métricas:
@@ -148,4 +144,4 @@ Utilice la siguiente consulta NRQL para comprender la métrica de CockroachDB qu
Siga los consejos de resolución de problemas de [la documentación de CockroachDB](https://www.cockroachlabs.com/docs/v22.1/monitor-cockroachdb-with-prometheus.html) para asegurarse de que las métricas estén configuradas como se espera en su clúster.
-También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus.
+También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx
index 4d42f20b54a..fa2528973bb 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx
@@ -18,11 +18,7 @@ Utilice New Relic para visualizar el rendimiento de CoreDNS, alertar sobre posib
* Errores de CoreDNS
* Estadísticas de caché
-
+
## Habilitar la integración
@@ -41,7 +37,7 @@ Siga estos pasos para habilitar la integración.
3. Utilice la siguiente consulta para confirmar que la métrica se esté ingiriendo como se espera:
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'coredns_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'coredns_%' FACET metricName LIMIT MAX
```
4. Instale [CoreDNS inicio rápido](https://newrelic.com/instant-observability/CoreDNS) para acceder al panel integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
@@ -65,13 +61,13 @@ Utilice la siguiente consulta NRQL para comprender la métrica que se ingiere en
* Lista de nombres métricos únicos:
```sql
- FROM Metric SELECT uniques(metricName) WHERE metricName LIKE 'coredns_%' LIMIT MAX
+ FROM Metric SELECT uniques(metricName) WHERE metricName LIKE 'coredns_%' LIMIT MAX
```
* Cuente el número de actualizaciones métricas:
```sql
- FROM Metric SELECT datapointcount() WHERE metricName LIKE 'coredns_%' LIMIT MAX
+ FROM Metric SELECT datapointcount() WHERE metricName LIKE 'coredns_%' LIMIT MAX
```
* Estimar la ingesta de datos (ingesta diaria, en bytes):
@@ -84,4 +80,4 @@ Utilice la siguiente consulta NRQL para comprender la métrica que se ingiere en
Siga los consejos de resolución de problemas de [la documentación de CoreDNS](https://coredns.io/plugins/kubernetes/) para asegurarse de que las métricas estén configuradas como se espera en su clúster.
-También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus.
+También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx
index f645a9967b3..451c6e25de5 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx
@@ -18,11 +18,7 @@ Utilice New Relic para mostrar un dashboard seleccionado basado en Prometheus m
* Estadísticas de gRPC
* Latencia de escritura en disco
-
+
## Habilitar la integración
@@ -41,10 +37,10 @@ Siga estos pasos para habilitar la integración.
3. Utilice la siguiente consulta para confirmar que la métrica se esté ingiriendo como se espera:
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'etcd_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'etcd_%' FACET metricName LIMIT MAX
```
-4. Instale el [inicio rápido de Etcd](https://newrelic.com/instant-observability/etcd) para acceder a integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
+4. Instale el [inicio rápido de Etcd](https://newrelic.com/instant-observability/etcd) para acceder a integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
Una vez que haya importado, puede editar o clonar los activos para adaptarlos a sus requisitos específicos.
@@ -77,12 +73,12 @@ Utilice la siguiente consulta NRQL para comprender la métrica que se ingiere en
* Estimar la ingesta de datos (ingesta diaria, en bytes):
```sql
- FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'etcd_%' SINCE
- 1 day ago
+ FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'etcd_%'
+ SINCE 1 day ago
```
## Resolución de problemas
Siga los consejos de resolución de problemas de [la documentación de Etcd](https://etcd.io/docs/v3.5/op-guide/monitoring/) para asegurarse de que las métricas estén configuradas como se espera en su clúster.
-También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus.
+También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx
index 55af57bf2fa..dc0075f68c4 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx
@@ -17,11 +17,7 @@ Utilice New Relic para ver un dashboard basado en Prometheus métrica que le ayu
* Porcentaje de utilización de cuota de bytes del proyecto Harbour
* Harbor Server y Cliente tasa de errores
-
+
## Habilitar la integración
@@ -81,8 +77,8 @@ Utilice la siguiente consulta NRQL para comprender la métrica que se ingiere en
* Utilice este comando para verificar que el extremo Harbor Prometheus esté emitiendo métrica en cualquier nodo K8s configurado con Harbor:
- ```
+ ```sh
curl :9090/metrics
```
-* También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para la integración de Prometheus.
+* También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para la integración de Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx
index c811aa87244..7eb4a1eafa9 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx
@@ -20,11 +20,7 @@ Utilice New Relic para aumentar la visibilidad del rendimiento de su controlador
* Solicitud y respuesta información valiosa sobre el tamaño de la carga y el tiempo de respuesta
* Estadísticas de CPU y memoria
-
+
## Habilitar la integración
@@ -43,10 +39,10 @@ Siga estos pasos para habilitar la integración.
3. Utilice la siguiente consulta para confirmar que la métrica se esté ingiriendo como se espera:
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'nginx_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'nginx_%' FACET metricName LIMIT MAX
```
-4. Instale el [inicio rápido del controlador de ingreso NGINX](https://newrelic.com/instant-observability/nginx-ingress-controller) para acceder al integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
+4. Instale el [inicio rápido del controlador de ingreso NGINX](https://newrelic.com/instant-observability/nginx-ingress-controller) para acceder al integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
Una vez que haya importado, puede editar o clonar los activos para adaptarlos a sus requisitos específicos.
@@ -86,4 +82,4 @@ Utilice la siguiente consulta NRQL para comprender la métrica que se ingiere en
Siga los consejos de resolución de problemas de [la documentación del controlador de ingreso NGINX](https://kubernetes.github.io/ingress-nginx/user-guide/monitoring/#prometheus-and-grafana-installation-using-pod-annotations) para asegurarse de que las métricas estén configuradas como se espera en su clúster.
-También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus.
+También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx
index 15fb89b0e67..2dfb19162ad 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx
@@ -70,6 +70,7 @@ global:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -91,10 +92,7 @@ Puede configurar el objetivo de forma estática a través del parámetro `static
Puede configurar una configuración estática en un nuevo comentario `# Target setup`:
-
+
Asegúrese de insertar su ``:
```yml lineHighlight=12-16
@@ -103,6 +101,7 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -111,9 +110,9 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s
# Target setup
static_configs:
- - targets: ['localhost:9100']
- labels:
- instanceid:
+ - targets: ['localhost:9100']
+ labels:
+ instanceid:
remote_write:
- url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter
@@ -122,10 +121,7 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s
```
-
+
Asegúrese de insertar su ``:
```yml lineHighlight=12-16
@@ -134,6 +130,7 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -142,9 +139,9 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s
# Target setup
static_configs:
- - targets: ['localhost:9100']
- labels:
- instanceid:
+ - targets: ['localhost:9100']
+ labels:
+ instanceid:
remote_write:
- url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter
@@ -153,10 +150,7 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s
```
-
+
Asegúrese de insertar su ``:
```yml lineHighlight=12-16
@@ -165,6 +159,7 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -173,9 +168,9 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s
# Target setup
static_configs:
- - targets: ['localhost:9100']
- labels:
- instanceid:
+ - targets: ['localhost:9100']
+ labels:
+ instanceid:
remote_write:
- url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter
@@ -190,10 +185,7 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s
En lugar de configurar un objetivo estático, puede configurar el descubrimiento de servicios.
-
+
Puede configurar el descubrimiento de servicios para sus instancias EC2 AWS proporcionando `region`, `access_key`, `secret_key` y `port` en `# Target setup`.
```yml lineHighlight=12-22
@@ -202,6 +194,7 @@ En lugar de configurar un objetivo estático, puede configurar el descubrimiento
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -227,10 +220,7 @@ En lugar de configurar un objetivo estático, puede configurar el descubrimiento
```
-
+
En `# Target setup`, asegúrese de insertar su ``:
```yml lineHighlight=12-15
@@ -239,6 +229,7 @@ En lugar de configurar un objetivo estático, puede configurar el descubrimiento
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -257,10 +248,7 @@ En lugar de configurar un objetivo estático, puede configurar el descubrimiento
```
-
+
En `# Target setup`, asegúrese de insertar su ``:
```yml lineHighlight=12-15
@@ -269,6 +257,7 @@ En lugar de configurar un objetivo estático, puede configurar el descubrimiento
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -301,10 +290,7 @@ Las relaciones requieren atributos que se eliminan de forma predeterminada en Pr
En los ejemplos siguientes, mostramos la combinación de descubrimiento dinámico con etiquetas. Si está utilizando un objetivo estático, simplemente inserte el [objetivo estático](#static-targets) que se muestra arriba.
-
+
Para obtener más detalles, consulte la documentación de Prometheus [EC2](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#ec2_sd_config) .
```yml lineHighlight=23-26
@@ -313,6 +299,7 @@ En los ejemplos siguientes, mostramos la combinación de descubrimiento dinámic
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -342,10 +329,7 @@ En los ejemplos siguientes, mostramos la combinación de descubrimiento dinámic
```
-
+
Para obtener más detalles, consulte la documentación de Prometheus [EC2](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#azure_sd_config) .
```yml lineHighlight=16-19
@@ -354,6 +338,7 @@ En los ejemplos siguientes, mostramos la combinación de descubrimiento dinámic
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -376,10 +361,7 @@ En los ejemplos siguientes, mostramos la combinación de descubrimiento dinámic
```
-
+
Para obtener más detalles, consulte la documentación de Prometheus [EC2](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#gce_sd_config) .
```yml lineHighlight=16-19
@@ -388,6 +370,7 @@ En los ejemplos siguientes, mostramos la combinación de descubrimiento dinámic
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -417,10 +400,10 @@ Ahora puedes iniciar el raspador Prometheus.
1. Ejecute lo siguiente:
- ```
+ ```sh
./prometheus --config.file=./prometheus.yml
```
2. Configure el raspador para que se ejecute en segundo plano con los comandos de teclado `CONTROL + z` y `bg`. En entorno de producción, querrás configurar esto como un servicio (por ejemplo, con `systemd`).
-3. Vea sus datos en la yendo New Relic UI a **[one.newrelic.com](https://one.newrelic.com/) > Infrastructure > Hosts**.
+3. Vea sus datos en la yendo New Relic UI a **[one.newrelic.com](https://one.newrelic.com/) > Infrastructure > Hosts**.
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx
index 4b640dfbd28..17efe17d4d6 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx
@@ -20,11 +20,7 @@ Con New Relic puedes monitor:
* Gráficos que muestran clientes conectados, clientes conectados por nodo, cambios desde el último guardado por nodo, claves caducadas/segundo por nodo, memoria utilizada por nodo y clientes bloqueados
* Gráficos que muestran la proporción de aciertos keyspace por nodo, claves desalojadas/segundo por nodo, bytes de entrada/segundo por nodo, I/O de red por segundo y bytes de salida/segundo por nodo
-
+
## Habilitar la integración
@@ -43,10 +39,10 @@ Siga estos pasos para habilitar la integración.
3. Utilice la siguiente consulta para confirmar que la métrica se esté ingiriendo como se espera:
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'redis_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'redis_%' FACET metricName LIMIT MAX
```
-4. Instale el [inicio rápido de Redis (Prometheus)](https://newrelic.com/instant-observability/redis-prometheus) para acceder a integrado y a [las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
+4. Instale el [inicio rápido de Redis (Prometheus)](https://newrelic.com/instant-observability/redis-prometheus) para acceder a integrado y a [las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
Una vez que haya importado, puede editar o clonar los activos para adaptarlos a sus requisitos específicos.
@@ -90,4 +86,4 @@ Esta integración permite a `Redis` entidad potenciar el conjunto completo de [c
Siga los consejos de resolución de problemas de [la documentación del exportadorRedis ](https://github.com/oliver006/redis_exporter)para asegurarse de que las métricas estén configuradas como se espera en su clúster.
-También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus.
+También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx
index 9b0a7511387..6157175118b 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx
@@ -13,11 +13,7 @@ translationType: machine
Utilice New Relic para instalar fácilmente un dashboard seleccionado para monitor el estado de su instancia de Traefik.
-
+
## Habilitar la integración
@@ -36,7 +32,7 @@ Siga estos pasos para habilitar la integración.
3. Utilice la siguiente consulta para confirmar que la métrica se esté ingiriendo como se espera:
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'traefik_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'traefik_%' FACET metricName LIMIT MAX
```
4. Instale [Traefik inicio rápido](https://newrelic.com/instant-observability/traefik) para acceder al panel integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
@@ -83,4 +79,4 @@ Esta integración permite a `Traefik` entidad potenciar el conjunto completo de
Siga los consejos de resolución de problemas de [la documentación de Traefik](https://docs.gitlab.com/ee/user/clusters/agent/troubleshooting.html) para asegurarse de que las métricas estén configuradas como se espera en su clúster.
-También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus.
+También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx
index 4812219520f..b0cd71a35ea 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx
@@ -18,11 +18,7 @@ Utilice New Relic para comprender el éxito y el rendimiento de sus trabajos de
* Duraciones y tamaño de las copias de seguridad por instancia
* Restaurar estado por instancia
-
+
## Habilitar la integración
@@ -44,7 +40,7 @@ Siga estos pasos para habilitar la integración.
FROM Metric SELECT count(*) WHERE metricName LIKE 'velero_%' FACET metricName LIMIT MAX
```
-4. Instale el [inicio rápido de Velero](https://newrelic.com/instant-observability/velero-prometheus) para acceder a integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
+4. Instale el [inicio rápido de Velero](https://newrelic.com/instant-observability/velero-prometheus) para acceder a integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
Una vez que haya importado, puede editar o clonar los activos para adaptarlos a sus requisitos específicos.
@@ -76,10 +72,10 @@ Utilice la siguiente consulta NRQL para comprender la métrica que se ingiere en
* Utilice este comando para verificar que el Velero Prometheus extremo esté emitiendo métrica en cualquier nodo k8s configurado con Velero:
- ```
+ ```sh
curl :8085/metrics
```
* Siga los consejos de resolución de problemas de [la documentación de Velero](https://velero.io/docs/main/troubleshooting/#velero-is-not-publishing-prometheus-metrics) para asegurarse de que las métricas estén configuradas como se espera en su clúster.
-* También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para la integración de Prometheus.
+* También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para la integración de Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx
index 6734f437307..2932f311058 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx
@@ -26,35 +26,19 @@ Por ejemplo, según una muestra de datos de series temporales que recopilamos al
A continuación se muestra una simulación de los cambios en la tasa de bytes a medida que los datos de lectura y escritura de Prometheus se mueven a través de nuestro sistema. En este caso, las métricas se generaron ingiriendo la escritura remota de un servidor Prometheus local de un nodo exportador local.
-
+
Observe cómo la tasa de bytes enviados de Prometheus coincide estrechamente con el recuento de bytes comprimidos de escritura remota que registramos por nuestra parte justo antes de descomprimir los puntos de datos. Podemos atribuir la mayor variación de la tasa de bytes comprimidos de escritura remota a la naturaleza del procesamiento de datos a través de nuestros sistemas distribuidos:
-
+
Como los puntos de datos no están comprimidos, el factor de expansión de 5 a 10 veces se refleja en la diferencia entre la tasa de bytes de datos comprimidos de escritura remota y la tasa de bytes de escritura remota sin comprimir, que son mediciones tomadas justo antes y después de la descompresión de datos.
-
+
Finalmente, a medida que los datos se transforman y se realizan enriquecimientos, la diferencia entre los bytes sin comprimir de escritura remota y el [`bytecountestimate()`](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts/#byte-count-estimate) se puede ver a continuación. El `bytecountestimate()` enumerado es una medida del recuento de bytes del estado final de los datos antes de almacenarse.
-
+
Para comprender mejor las posibles transformaciones o adiciones de datos por las que pueden pasar los datos de lectura y escritura de Prometheus, aquí se compara la métrica `prometheus_remote_storage_bytes_total` , una medida informada por el servidor de Prometheus.
@@ -74,26 +58,25 @@ Representación del servidor Prometheus:
Representación de consulta de NRQL
-```
-"endTimestamp": 1631305327668,
-"instance:" "localhost:9090",
-"instrumentation.name": "remote-write"
-"instrumentation.provider": "prometheus",
-"instrumentation.source": "foobarbaz",
-"instrumentation.version": "0.0.2",
-"job": "prometheus",
-"metricName": "prometheus_remote_storage_bytes_total",
-"newrelic.source": "prometheusAPI",
-"prometheus_remote_storage_bytes_total",
-"newrelic.source": "prometheusAPI",
-"prometheus_remote_storage_bytes_total": {
- "type": "count",
- "count": 23051
-},
-"prometheus_server": "foobarbaz",
-"remote_name": "5dfb33",
-"timestamp": 1631305312668,
-"url": "https://staging-metric-api.newrelic.com/prometheus/v1/write?prometheus_server=foobarbaz"
+```json
+{
+ "endTimestamp": 1631305327668,
+ "instance": "localhost:9090",
+ "instrumentation.name": "remote-write",
+ "instrumentation.provider": "prometheus",
+ "instrumentation.source": "foobarbaz",
+ "instrumentation.version": "0.0.2",
+ "job": "prometheus",
+ "metricName": "prometheus_remote_storage_bytes_total",
+ "newrelic.source": "prometheusAPI",
+ "prometheus_remote_storage_bytes_total": {
+ "type": "count",
+ "count": 23051
+ },
+ "prometheus_server": "foobarbaz",
+ "remote_name": "5dfb33",
+ "timestamp": 1631305312668,
+ "url": "https://staging-metric-api.newrelic.com/prometheus/v1/write?prometheus_server=foobarbaz"
}
```
@@ -107,14 +90,16 @@ Consulte la siguiente [consultaNRQL ](/docs/query-your-data/nrql-new-relic-query
Para ver el recuento estimado de bytes almacenados en New Relic:
-```
-FROM Metric SELECT rate(bytecountestimate(), 1 minute) AS 'bytecountestimate()' WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO
+```sql
+FROM Metric SELECT rate(bytecountestimate(), 1 minute) AS 'bytecountestimate()'
+WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO
```
Para monitor los bytes de Prometheus enviados a New Relic:
```
-FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) AS 'Prometheus sent bytes rate' WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO
+FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) AS 'Prometheus sent bytes rate'
+WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO
```
## Referencias externas [#references]
@@ -122,4 +107,5 @@ FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) A
Aquí hay algunos enlaces externos a documentos de Prometheus y GitHub que aclaran la compresión y la codificación.
* [Prometheus hace referencia a la compresión Snappy que se utiliza en la codificación](https://prometheus.io/docs/prometheus/latest/storage/#overview): los protocolos de lectura y escritura utilizan una codificación de búfer de protocolo comprimido rápidamente a través de HTTP. Los protocolos aún no se consideran API estables y pueden cambiar para usar gRPC sobre HTTP/2 en el futuro, cuando se pueda asumir con seguridad que todos los saltos entre Prometheus y el almacenamiento remoto son compatibles con HTTP/2.
-* [Referencia de Prometheus Protobuf](https://github.com/prometheus/prometheus/blob/main/prompb/types.proto#L58-L64).
+
+* [Referencia de Prometheus Protobuf](https://github.com/prometheus/prometheus/blob/main/prompb/types.proto#L58-L64).
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx
index 145b141d404..07c6f0068b4 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx
@@ -16,32 +16,20 @@ Desea obtener un registro de su integración de Prometheus OpenMetrics con New R
## Solución
-
+
-
- **Docker**
-
+**Docker**
-```
+```sh
docker logs nri-prometheus
docker logs nri-prometheus 2>&1 | grep -v "level=debug"
```
-
+
-
- **Kubernetes**
-
+**Kubernetes**
-```
+```sh
kubectl logs deploy/nri-prometheus
kubectl logs deploy/nri-prometheus | grep -v "level=debug"
-```
+```
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx
index e4661c96da5..913ded26cf8 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx
@@ -20,7 +20,7 @@ Para examinar errores de límite de velocidad:
1. Ejecute una consulta de Prometheus métrica usando el [evento`NrIntegrationError` ](/docs/telemetry-data-platform/manage-data/nrintegrationerror), así:
- ```
+ ```sql
FROM NrIntegrationError SELECT * WHERE newRelicFeature = 'Metrics'
```
@@ -32,4 +32,4 @@ Para ayudar a evitar que esto suceda, puede usar filtros para controlar los tipo
New Relic realiza una validación básica de su integración métrica Prometheus OpenMetrics cuando se envían. Una validación más extensa se realiza de forma asincrónica al procesar la métrica.
-Si New Relic encuentra errores durante esta validación asincrónica, los errores se colocan en un evento `NrIntegrationError` en su cuenta New Relic . Por ejemplo, si excede los límites métricos definidos para la integración de Prometheus OpenMetrics, New Relic aplicará límites de tarifas a su cuenta y creará un evento `NrIntegrationError` asociado.
+Si New Relic encuentra errores durante esta validación asincrónica, los errores se colocan en un evento `NrIntegrationError` en su cuenta New Relic . Por ejemplo, si excede los límites métricos definidos para la integración de Prometheus OpenMetrics, New Relic aplicará límites de tarifas a su cuenta y creará un evento `NrIntegrationError` asociado.
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx
index a409e8b839b..718e5d77df8 100644
--- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx
+++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx
@@ -27,6 +27,6 @@ Agregar más réplicas dará como resultado datos duplicados. Si los límites de
Para verificar el estado y reiniciar el evento del raspador:
-```
+```sh
kubectl describe pod -l "app=nri-prometheus"
-```
+```
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx b/src/i18n/content/es/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx
index a314c29a1f0..267aad85309 100644
--- a/src/i18n/content/es/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx
+++ b/src/i18n/content/es/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx
@@ -1,5 +1,5 @@
---
-title: Política de alertas recomendada
+title: Política de alertas y tablero recomendados
tags:
- Integrations
- Kubernetes integration
@@ -8,23 +8,43 @@ freshnessValidatedDate: '2024-09-02T00:00:00.000Z'
translationType: machine
---
-Cuando [instala por primera vez la integración Kubernetes ](/install/kubernetes/), implementamos un conjunto predeterminado de condición de alerta recomendada en su cuenta que forma la base para la condición de alerta en su clúster de Kubernetes. Estas condiciones se agrupan en una política denominada **Kubernetes alert policy**.
+Cuando [instala por primera vez la integración Kubernetes ](/install/kubernetes/), implementamos un conjunto predeterminado de condiciones de alerta y panel de control recomendadas en su cuenta que forman la base para las condiciones de alerta y panel de control en su clúster de Kubernetes. Las condiciones de alerta se agrupan en un par de políticas: [Kubernetes alert policy](#k8s-alert-conditions) y [Google Kubernetes Engine alert policy](#google-alert-policies).
-Si bien intentamos abordar los casos de uso más comunes en todos los entornos, hay un serial de alertas adicionales que puede configurar para ampliar la política predeterminada. Éstas son nuestras políticas de alerta recomendadas.
+Si bien intentamos abordar los casos de uso más comunes en todos los entornos, hay un serial de alertas adicionales que puede configurar para ampliar la política predeterminada. Consulta [Primeros pasos con las alertas de New Relic](/docs/tutorial-create-alerts/create-new-relic-alerts/) para obtener más información sobre las alertas.
-## Agregar la política de alertas recomendada [#add-recommended-alert-policy]
+## Agregar la condición de alerta y el tablero recomendados [#add-recommended-alert-policy]
-Para agregar una política de alertas recomendada, siga estos pasos:
+Para agregar la política de alertas y el panel de control recomendados, siga estos pasos:
1. Vaya a **[one.newrelic.com](https://one.newrelic.com) > Integrations & Agents**.
-2. Seleccione **Alerts** para acceder a los recursos prediseñados.
+2. En el cuadro de búsqueda, escriba `kubernetes`.
-
+
-3. Busca **Kubernetes** y selecciona la política de alertas recomendada que deseas agregar.
+3. Seleccione una de estas opciones:
-
+ * **Kubernetes**:Para agregar el conjunto predeterminado de condiciones de alerta recomendadas y un dashboard.
+
+ * **Google Kubernetes Engine**:Para agregar el conjunto predeterminado de condiciones de alerta recomendadas del motor Google Kubernetes y un dashboard.
+
+4. Haga clic en **Begin installation** si necesita instalar la integración de Kubernetes o haga clic en **Skip this step** si ya configuró esta integración.
+
+5. Dependiendo de la opción que seleccionaste en el paso 3, verás diferentes recursos para agregar.
+
+
+
+
+ Conjunto predeterminado de condiciones de alerta recomendadas y un dashboard cuando selecciona **Kubernetes** en el paso 3.
+
+
+
+
+
+ Conjunto predeterminado de condiciones de alerta recomendadas del motor Google Kubernetes y un dashboard cuando selecciona **Google Kubernetes Engine** en el paso 3.
+
+
+6. Haga clic en **See your data** para ver un dashboard con sus datos Kubernetes en New Relic.
## Cómo ver la política de alertas recomendada [#see-recommended-alert-policy]
@@ -38,90 +58,112 @@ Para ver la política de alertas recomendada que agregaste, haz lo siguiente:
+## Cómo ver el panel de control Kubernetes [#see-dashboards]
+
+Hay una colección de paneles prediseñados recomendados para ayudarlo a visualizar instantáneamente sus datos Kubernetes para casos de uso comunes. Consulta [Gestionar tu panel recomendado](/docs/query-your-data/explore-query-data/dashboards/prebuilt-dashboards) para saber cómo ver estos paneles.
+
## Kubernetes política de alertas [#k8s-alert-conditions]
Este es el conjunto predeterminado de condiciones de alerta recomendadas que agregarás:
-
+
+ Este dashboard incluye gráficos y visualizaciones que lo ayudan a visualizar instantáneamente sus datos Kubernetes para casos de uso comunes.
+
+
+
Esta condición de alerta genera una alerta cuando un contenedor se limita en más del 25% durante más de 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sContainerSample
SELECT sum(containerCpuCfsThrottledPeriodsDelta) / sum(containerCpuCfsPeriodsDelta) * 100
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerCPUThrottling.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando el uso promedio de la CPU del contenedor frente al límite excede el 90% durante más de 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sContainerSample
SELECT average(cpuCoresUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerHighCPUUtil.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando el uso promedio de la memoria del contenedor frente al límite excede el 90% durante más de 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sContainerSample
SELECT average(memoryWorkingSetUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerHighMemUtil.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando los reinicios del contenedor superan 0 en una ventana deslizante de 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sContainerSample
SELECT sum(restartCountDelta)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerRestarting.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando un contenedor espera más de 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sContainerSample
SELECT uniqueCount(podName)
- WHERE status = 'Waiting' and clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') FACET containerName, podName, namespaceName, clusterName
+ WHERE status = 'Waiting' AND clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerWaiting.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando al daemonset le falta algún pod durante un periodo superior a 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sDaemonsetSample
SELECT latest(podsMissing)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet daemonsetName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET daemonsetName, namespaceName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/DaemonsetPodsMissing.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando al despliegue le falta algún pod por un periodo mayor a 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sDeploymentSample
SELECT latest(podsMissing)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet deploymentName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET deploymentName, namespaceName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/DeploymentPodsMissing.yaml) para obtener más información.
@@ -131,7 +173,7 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas que agr
id="etcd-utilization-high"
title={<>
Etcd
- la utilización del descriptor de archivo es alta>
+ utilización del descriptor de archivo es alta (condición de alerta)>
}
>
Esta condición de alerta genera una alerta cuando el uso del descriptor de archivo `Etcd` supera el 90% durante más de 5 minutos. Ejecuta esta consulta:
@@ -139,7 +181,8 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas que agr
```sql
FROM K8sEtcdSample
SELECT max(processFdsUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet displayName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET displayName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/EtcdFileDescriptors.yaml) para obtener más información.
@@ -149,7 +192,7 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas que agr
id="etcd-no-leader"
title={<>
Etcd
- no tiene líder>
+ no tiene líder (condición de alerta)>
}
>
Esta condición de alerta genera una alerta cuando el descriptor de archivo `Etcd` no tiene línea guía durante más de 1 minuto. Ejecuta esta consulta:
@@ -157,37 +200,42 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas que agr
```sql
FROM K8sEtcdSample
SELECT min(etcdServerHasLeader)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet displayName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET displayName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/EtcdHasNoLeader.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando las réplicas actuales de un escalador automático de pod horizontal son inferiores a las réplicas deseadas durante más de 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sHpaSample
SELECT latest(desiredReplicas - currentReplicas)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet displayName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET displayName, namespaceName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/HPAMissingReplicas.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando un escalador automático de pod horizontal supera las 5 réplicas. Ejecuta esta consulta:
```sql
FROM K8sHpaSample
SELECT latest(maxReplicas - currentReplicas)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet displayName, namespaceName, clusterName
+ WHERE clusterName in ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET displayName, namespaceName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/HPAMaxReplicas.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando un trabajo informa un estado fallido. Ejecuta esta consulta:
```sql
@@ -199,121 +247,144 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas que agr
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/JobFailed.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando más de 5 pods en un namespace fallan durante más de 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sPodSample
SELECT uniqueCount(podName)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') and status = 'Failed' facet namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ AND status = 'Failed'
+ FACET namespaceName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodsFailingNamespace.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando la utilización promedio de CPU asignable del nodo excede el 90% durante más de 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sNodeSample
SELECT average(allocatableCpuCoresUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighAllocatableCPUUtil.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando la utilización promedio de la memoria asignable del nodo excede el 90% durante más de 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sNodeSample
SELECT average(allocatableMemoryUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighAllocatableMemUtil.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando un nodo no está disponible durante 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sNodeSample
SELECT latest(condition.Ready)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeIsNotReady.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando un nodo está marcado como no programado. Ejecuta esta consulta:
```sql
FROM K8sNodeSample
SELECT latest(unschedulable)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeUnschedulable.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando la capacidad del pod en ejecución de un nodo excede el 90% de la capacidad pod del nodo durante más de 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sPodSample, K8sNodeSample
- SELECT ceil(filter(uniqueCount(podName)
- WHERE status = 'Running') / latest(capacityPods) * 100) as 'Pod Capacity %' where nodeName != '' and nodeName is not null and clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ SELECT ceil
+ (filter
+ (
+ uniqueCount(podName),
+ WHERE status = 'Running'
+ ) / latest(capacityPods) * 100
+ ) AS 'Pod Capacity %'
+ WHERE nodeName != '' AND nodeName IS NOT NULL
+ AND clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodePodCapacity.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando la utilización de la capacidad del sistema de archivos raíz del nodo promedio excede el 90% durante más de 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sNodeSample
SELECT average(fsCapacityUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighFSCapacityUtil.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando el volumen persistente está en estado fallido o pendiente durante más de 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sPersistentVolumeSample
SELECT uniqueCount(volumeName)
- WHERE statusPhase in ('Failed','Pending') and clusterName in ('YOUR_CLUSTER_NAME') facet volumeName, clusterName
+ WHERE statusPhase IN ('Failed','Pending')
+ AND clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET volumeName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PersistentVolumeErrors.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando no se puede programar un pod durante más de 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sPodSample
SELECT latest(isScheduled)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET podName, namespaceName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodNotScheduled.yaml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando un pod no está disponible durante más de 5 minutos. Ejecuta esta consulta:
```sql
FROM K8sPodSample
SELECT latest(isReady)
- WHERE status not in ('Failed', 'Succeeded') where clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet podName, namespaceName, clusterName
+ WHERE status NOT IN ('Failed', 'Succeeded')
+ AND clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET podName, namespaceName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodNotReady.yaml) para obtener más información.
@@ -323,7 +394,7 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas que agr
id="statefulset-missing-pods"
title={<>
statefulset
- falta la vaina>
+ falta cápsula (condición de alerta)>
}
>
Esta condición de alerta genera una alerta cuando a `statefulset` le falta el pod durante 5 minutos. Ejecuta esta consulta:
@@ -331,7 +402,9 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas que agr
```sql
FROM K8sStatefulsetSample
SELECT latest(podsMissing)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet daemonsetName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET daemonsetName, namespaceName, clusterName
```
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/StatefulsetPodsMissing.yaml) para obtener más información.
@@ -343,7 +416,11 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas que agr
Este es el conjunto predeterminado de condiciones de alerta recomendadas para el motor Google Kubernetes que agregará:
-
+
+ Este dashboard incluye gráficos y visualizaciones que lo ayudan a visualizar instantáneamente sus datos de Google Kubernetes para casos de uso comunes.
+
+
+
Esta condición de alerta genera una alerta cuando la utilización de la CPU de un nodo supera el 90% durante al menos 15 minutos. Ejecuta esta consulta:
```sql
@@ -355,7 +432,7 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas para el
Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/google-kubernetes-engine/HighCPU.yml) para obtener más información.
-
+
Esta condición de alerta genera una alerta cuando el uso de memoria de un nodo excede el 85% de su capacidad total. Ejecuta esta consulta:
```sql
diff --git a/src/i18n/content/es/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx b/src/i18n/content/es/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx
index 5bdb7585a85..13b20a9dd2d 100644
--- a/src/i18n/content/es/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx
+++ b/src/i18n/content/es/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx
@@ -315,6 +315,10 @@ Los datos Kubernetes se anexan a estos [eventos](/docs/using-new-relic/data/unde
+
+ `InternalK8sCompositeSample` es un evento que genera New Relic y es bastante crítico para [el clúster de Kubernetes Explorer](/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/kubernetes-cluster-explorer/#cluster-explorer-use). Sin este evento, no verá sus datos Kubernetes en la UI. Si bien todos los eventos enumerados en la tabla son facturables, `InternalK8sCompositeSample` es un evento no facturable. Consulte [Ingesta de datos: facturación y reglas](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/) para obtener más información.
+
+
### Metadatos Kubernetes en APM-aplicación de monitorización [#apm-custom-attributes]
[Conectar su aplicación a Kubernetes](/docs/kubernetes-pixie/kubernetes-integration/advanced-configuration/link-apm-applications-kubernetes/) agrega estos atributos a los datos de su aplicación, así como a los metadatos del rastreo distribuido:
diff --git a/src/i18n/content/es/docs/new-relic-solutions/get-started/networks.mdx b/src/i18n/content/es/docs/new-relic-solutions/get-started/networks.mdx
index ad8dcb553ee..d12fbf8ac14 100644
--- a/src/i18n/content/es/docs/new-relic-solutions/get-started/networks.mdx
+++ b/src/i18n/content/es/docs/new-relic-solutions/get-started/networks.mdx
@@ -21,7 +21,7 @@ Esta es una lista de las redes, direcciones IP, dominio, puertos y extremos util
## Cifrado TLS [#tls]
-Para garantizar la seguridad de los datos de nuestros clientes y cumplir con [FedRAMP](https://marketplace.fedramp.gov/#/product/new-relic?sort=productName&productNameSearch=new%20relic) y otros estándares de [cifrado de datos](/docs/security/new-relic-security/compliance/data-encryption), todas las conexiones entrantes para todos los dominios requieren Transport Layer Security (TLS) 1.2 o superior. Para obtener más detalles, consulte [nuestra publicación del Foro de soporte sobre TLS 1.2](https://forum.newrelic.com/s/hubtopic/aAX8W0000008dM6WAI/tls-1011-has-been-disabled-for-all-inbound-connections-on-feb-2nd-2023).
+Para garantizar la seguridad de los datos de nuestros clientes y cumplir con [FedRAMP](https://marketplace.fedramp.gov/#/product/new-relic?sort=productName&productNameSearch=new%20relic) y otros estándares para [el cifrado de datos](/docs/security/new-relic-security/compliance/data-encryption), todas las conexiones entrantes para todos los dominios requieren Seguridad de la capa de transporte (TLS) 1.2. Para obtener más detalles, consulte [nuestra publicación del Foro de soporte sobre TLS 1.2](https://forum.newrelic.com/s/hubtopic/aAX8W0000008dM6WAI/tls-1011-has-been-disabled-for-all-inbound-connections-on-feb-2nd-2023).
Para futuras actualizaciones de las versiones de protocolo requeridas y admitidas, siga la [etiqueta`Security Notifications` en el foro de soporte de New Relic](https://discuss.newrelic.com/t/security-notifications/45862).
diff --git a/src/i18n/content/es/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx b/src/i18n/content/es/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx
index bdf851b2170..0eff0d9ad15 100644
--- a/src/i18n/content/es/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx
+++ b/src/i18n/content/es/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx
@@ -27,7 +27,7 @@ Aquí se describen los tipos de entidad New Relic que son compatibles cuando se
Una entidad de servicio se sintetiza siguiendo las convenciones semánticas de recursos de OpenTelemetry que describen una [instancia de servicio](https://opentelemetry.io/docs/specs/semconv/resource/#service).
-Consulte nuestra [documentación y ejemplos](/docs/opentelemetry/get-started/opentelemetry-set-up-your-app) para monitorear entidades de servicios usando OpenTelemetry.
+Consulte nuestra [documentación y ejemplos](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) para monitorear entidades de servicio usando OpenTelemetry.
#### Atributo requerido [#service-required-attributes]
diff --git a/src/i18n/content/es/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx b/src/i18n/content/es/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx
index 457a51d81ec..ddc6f558521 100644
--- a/src/i18n/content/es/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx
+++ b/src/i18n/content/es/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx
@@ -28,4 +28,8 @@ Los siguientes ejemplos demuestran el uso del recolector para monitor varios com
## Correlación de infraestructura con OpenTelemetry APM [#infrastructure-correlation]
-Los siguientes ejemplos demuestran el uso del recolector para correlacionar [APM OpenTelemetry](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) con datos de infraestructura. El patrón general es configurar el recolector con un procesador que detecta y enriquece la telemetría APM con contexto de entorno adicional en forma de atributo de recurso, antes de exportar los datos a New Relic a través de OTLP. New Relic detecta estos datos de correlación y construye relaciones entre APM y la entidad de infraestructura a través de [recursos](/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources).
\ No newline at end of file
+El siguiente ejemplo demuestra el uso del recolector para correlacionar [APM OpenTelemetry](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) con datos de infraestructura:
+
+* [Ejemplo de repositorio de hosts](https://github.com/newrelic/newrelic-opentelemetry-examples/tree/main/other-examples/collector/host-monitoring)
+
+El patrón general es configurar el recolector con un procesador que detecta y enriquece la telemetría APM con contexto de entorno adicional en forma de atributo de recurso, antes de exportar los datos a New Relic a través de OTLP. New Relic detecta estos datos de correlación y construye relaciones entre APM y la entidad de infraestructura a través de [recursos](/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources).
\ No newline at end of file
diff --git a/src/i18n/content/es/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx b/src/i18n/content/es/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx
index 8efa5b2cf61..83aac7b6e26 100644
--- a/src/i18n/content/es/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx
+++ b/src/i18n/content/es/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx
@@ -31,26 +31,18 @@ Requisitos para utilizar esta característica:
Supongamos que crea la siguiente consulta NRQL que contiene facetas para un dashboard existente en la UI:
-
+
- **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**: Para consultas que contengan una cláusula `FACET` y cumplan con [los requisitos del tipo de gráfico](#requirements), puede configurar esos atributos para que se utilicen como un filtro dashboard sencillo. Puede configurar el atributo para filtrar el dashboard actual en el que se encuentra o filtrar un dashboard relacionado que seleccione.
+ **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**: Para consultas que contengan una cláusula `FACET` y cumplan con [los requisitos del tipo de gráfico](#requirements), puede configurar esos atributos para que se utilicen como un filtro dashboard sencillo. Puede configurar el atributo para filtrar el dashboard actual en el que se encuentra o filtrar un dashboard relacionado que seleccione.
Si selecciona **Filter the current dashboard**, ese gráfico se utilizará para filtrar el dashboard actual por el atributo `userAgentName` disponible. A continuación se muestra una vista de cómo seleccionar uno de esos atributos para filtrar ese dashboard. Observe que el atributo elegido aparece como un filtro en la barra de búsqueda en la parte superior.
-
+
- **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**: cuando selecciona un atributo que ha configurado para el filtrado de facetas, se filtra el dashboard actual.
+ **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**: cuando selecciona un atributo que ha configurado para el filtrado de facetas, se filtra el dashboard actual.
Para obtener más información sobre esta característica, consulte la [publicación del Foro de soporte sobre filtrado de facetas](https://discuss.newrelic.com/t/facet-linking-in-new-relic-one-now-you-can-use-facets-to-filter-your-new-relic-one-dashboards/82289).
@@ -59,31 +51,29 @@ Para obtener más información sobre esta característica, consulte la [publicac
[`FACET CASES`](/docs/query-your-data/nrql-new-relic-query-language/get-started/nrql-syntax-clauses-functions#sel-facet-cases) es una función NRQL que permite agrupar facetas según condiciones. Apoyamos múltiples casos en la misma faceta.
-Supongamos que desea consultar algunos datos y colocar las respuestas en categorías mnemotécnicas para un dashboard o informe. Esta sintaxis le permitirá realizar consultas según la duración de la transacción y clasificar los resultados en dos categorías: ACEPTABLE e INACEPTABLE. Esto puede ser realmente útil para hacer que el panel sea más legible y procesable por humanos.
+Digamos que desea consultar algunos datos y colocar las respuestas en categorías mnemotécnicas para un dashboard o reporte. Esta sintaxis le permitirá realizar consultas en función de la duración de la transacción y poner los resultados en dos categorías: *ACEPTABLE* e *INACEPTABLE*. Esto puede ser muy útil para hacer que el tablero sea más legible y procesable para las personas.
-```
-SELECT filter(count(*), WHERE duration > 1) as 'UNACCEPTABLE', filter(count(*),
-WHERE duration <=1) as 'ACCEPTABLE'
-FROM Transaction FACET appName LIMIT 5 since 5 minutes ago
+```sql
+SELECT filter(count(*), WHERE duration > 1) AS 'UNACCEPTABLE',
+ filter(count(*), WHERE duration <=1) AS 'ACCEPTABLE'
+FROM Transaction FACET appName LIMIT 5 SINCE 5 minutes ago
```
-
+
Al utilizar FACET CASES, podemos utilizar de manera más eficiente múltiples condiciones complejas para generar un conjunto de facetas personalizadas. Basándonos en el ejemplo anterior, digamos que queremos incluir una condición compuesta que excluya los errores de nuestros datos de duración y los agregue a una tercera categoría:
-```
+```sql
SELECT count(*)
-FROM Transaction FACET CASES (where duration > 1 and error is NULL as 'UNACCEPTABLE', where duration <= 1 and error is NULL as 'ACCEPTABLE', where error is not NULL as 'ERROR') since 5 minutes ago
+FROM Transaction FACET CASES
+(
+ WHERE duration > 1 AND error IS NULL AS 'UNACCEPTABLE',
+ WHERE duration <= 1 AND error IS NULL AS 'ACCEPTABLE',
+ WHERE error IS NOT NULL AS 'ERROR'
+)
+SINCE 5 minutes ago
```
-
+
-Luego, utilizando el enlace de facetas, puede filtrar su panel por esas facetas.
+Luego, utilizando el enlace de facetas, puede filtrar su panel por esas facetas.
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx b/src/i18n/content/jp/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx
index 5680805b8d2..f45c6e8d501 100644
--- a/src/i18n/content/jp/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx
+++ b/src/i18n/content/jp/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx
@@ -30,34 +30,22 @@ New Relic のパートナーから特別なオファーを受け取った場合
### A-Mパートナー [#a-m-partners]
-
+
AWSをアプリにインストールするか、ホストにインストールするかによって、インストール方法やページの見方が異なります。詳しくは、 [Amazon Web Services(AWS)のユーザー](/docs/accounts-partnerships/partnerships/partner-based-installation/amazon-web-services-aws-users) をご覧ください。
-
- [Google Cloud Platform (GCP) パートナー](https://newrelic.com/partner/gcp)として、New Relic は[App Engine フレキシブル環境を](https://cloud.google.com/appengine/docs/flexible)サポートしています。 各エージェントには[、GAE flex 環境に対する独自の要件](/docs/accounts-partnerships/partnerships/google-cloud-platform-gcp/google-app-engine-environment)があります。 New Relic エージェントをインストールすると、 [APM](/docs/apm/new-relic-apm/getting-started/introduction-new-relic-apm)を使用してアプリのパフォーマンスを表示できます。
+
+ [Google Cloud Platform (GCP) パートナー](https://newrelic.com/partner/gcp)として、New Relic は[App Engine フレキシブル環境を](https://cloud.google.com/appengine/docs/flexible)サポートしています。 各エージェントには[、GAE flex 環境に対する独自の要件](/docs/accounts-partnerships/partnerships/google-cloud-platform-gcp/google-app-engine-environment)があります。 New Relic エージェントをインストールすると、 [APM](/docs/apm/new-relic-apm/getting-started/introduction-new-relic-apm)を使用してアプリのパフォーマンスを表示できます。
-
- [Heroku](https://www.heroku.com/)は、Web アプリケーションをホストできる Platform as a Service (PaaS) ソリューションです。 New Relic Heroku アドオンを使用すると、 とのメトリクスを使用して Heroku を拡張できます。 New RelicアドオンはJava、Node.js、 PHP、Python、Ruby。 Heroku での New Relic のインストールと使用の詳細については、以下を参照してください。
+
+ [Heroku](https://www.heroku.com/)は、Web アプリケーションをホストできる Platform as a Service (PaaS) ソリューションです。 New Relic Heroku アドオンを使用すると、 とのメトリクスを使用して Heroku を拡張できます。 New RelicアドオンはJava、Node.js、 PHP、Python、Ruby。 Heroku での New Relic のインストールと使用の詳細については、以下を参照してください。
* [Heroku開発センターのドキュメント](https://devcenter.heroku.com/articles/newrelic "リンクが新しいウィンドウで開きます")
* [HerokuをインストールするためのNew Relicのドキュメント](/docs/accounts-partnerships/partnerships/heroku-new-relic/heroku-installing-new-relic)
-
+
MagentoはNew Relicと提携し、マーチャントがデータに素早くアクセスし、すぐに使えるツールを提供します。 [New Relic Reporting Extension](http://www.magentocommerce.com/magento-connect/new-relic-reporting.html) は、Eコマース事業者のデータに基づいた意思決定を支援します。
[Magento](http://newrelic.com/magento) PHP アプリ用の New Relic アカウントを作成するには、以下の手順に従います。
@@ -73,10 +61,7 @@ New Relic のパートナーから特別なオファーを受け取った場合
### N-Zパートナー [#n-z-partners]
-
+
[Pantheonを通じてNew Relicのアカウントを作成するには](https://pantheon.io/features/new-relic) and sign into New Relic:
1. [Pantheon と New Relic のパートナー ページ](https://pantheon.io/features/new-relic)から、 **sign up**リンクを選択します。
@@ -88,10 +73,7 @@ New Relic のパートナーから特別なオファーを受け取った場合
数分後、 [APM **Overview**ページ](/docs/apm/applications-menu/monitoring/applications-overview-dashboard)でアプリのパフォーマンスを確認できます。 詳細については、 [Pantheon のドキュメント](https://pantheon.io/docs/new-relic/)を参照してください。
-
+
[Rackspace Cloud Tools](https://www.rackspace.com) からアカウントを作成し、New Relic にサインインするには、以下の基本的な手順に従います。詳細については、 [Rackspace Cloud Load Balancer plugin](/docs/accounts-partnerships/accounts/install-new-relic/partner-based-installation/rackspace-cloud-load-balancer-plugin) を参照してください。
1. [cloudtools.rackspace.com/myapps](https://cloudtools.rackspace.com/myapps) で、CloudTools アカウントにログインします。
@@ -105,10 +87,7 @@ New Relic のパートナーから特別なオファーを受け取った場合
数分待ってから、 [APM **Overview**ページ](/docs/apm/applications-menu/monitoring/applications-overview-dashboard)でアプリのパフォーマンスを確認してください。
-
+
[W3 Total Cache](https://wordpress.org/plugins/w3-total-cache/) を通じてアカウントを作成し、New Relic にサインインするには、API キーを取得するだけでなく、W3 PHP エージェントをインストールして実行する必要があります。
@@ -129,17 +108,14 @@ New Relic のパートナーから特別なオファーを受け取った場合
3. New Relic がデータ収集を開始するのを待ちます。
- エージェントをデプロイしてから数分後には、アプリに関するパフォーマンスデータがAPMの [Applications Overview p](/docs/apm/applications-menu/monitoring/applications-overview-dashboard)時代に表示されます。
+ エージェントをデプロイしてから数分以内に、アプリのパフォーマンス データが APM[アプリケーションの概要](/docs/apm/applications-menu/monitoring/applications-overview-dashboard)ページに表示されます。
[WordPress](https://wordpress.org/plugins/rt-newrelic-browser/) は、私たちの [ブラウザ監視](/docs/agents/php-agent/installation/wordpress-users-new-relic#browser) のためのプラグインも提供しています。
-
+
[Windows Azure](https://www.windowsazure.com/) は、.NETやNode.jsなどの様々な言語を使用したWebアプリケーションをホスティングすることができるPaaS(Platform as a Service)ソリューションです。
当社の.NETエージェントをAzureで使用する場合の詳細については、以下を参照してください。
@@ -154,4 +130,4 @@ New Relic のパートナーから特別なオファーを受け取った場合
当社の Node.js エージェントを Azure にインストールして使用する場合の詳細については、 [Node.js agent on Microsoft Azure](/docs/agents/nodejs-agent/hosting-services/nodejs-agent-microsoft-azure) を参照してください。
-
+
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx b/src/i18n/content/jp/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx
index 8ca8bbcd0d4..8712dd91564 100644
--- a/src/i18n/content/jp/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx
+++ b/src/i18n/content/jp/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx
@@ -16,81 +16,20 @@ New Relic の REST API Explorer (v2) は、利用可能なあらゆる API エ
[API Explorer](https://rpm.newrelic.com/api/explore) を使用する前に、APIアクセスを有効にして、 [APIキー](/docs/apis/rest-api-v2/requirements/rest-api-key) をお客様のアカウント用に生成する必要があります。
- ユーザー キーには制限が少ないため、 [REST APIキー](/docs/apis/intro-apis/new-relic-api-keys/#rest-api-key)ではなく を使用することをお勧めします。
+ ユーザー キーには制限が少ないため、 [REST APIキー](/docs/apis/intro-apis/new-relic-api-keys/#rest-api-key)ではなく を使用することをお勧めします。
ヒント
-* New Relicにサインインしている場合は、API Explorer を使用するときに、 の上部にある[API キー](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key)UI を選択すると、そのキーが
+* New Relicにサインインしている場合は、API Explorer を使用するときに、 の上部にある[API キー](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key)UI を選択すると、そのキーが**Request** **Parameters**Explorer の セクションと セクションに自動的に表示されます。
+* New Relicにサインインしていない場合は、 [APIキー](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key)をAPI Explorer の **Parameters** に貼り付けることができます。
-
- **Request**
-
+## API Explorerの使用 [#use-api-explorer]
-
- **Parameters**
-
-
- Explorer の セクションと セクションに自動的に表示されます。
-
-* New Relicにサインインしていない場合は、 [APIキー](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key)をAPI Explorer の
-
-
- **Parameters**
-
-
- に貼り付けることができます。
-
-## API Explorerにアクセスする [#accessing]
-
-New Relic API Explorer を使用するには、以下のようになります。
-
-1.
- **[rpm.newrelic.com/api/explore](https://rpm.newrelic.com/api/explore)**
-
-
- に移動します。
-
-2. API Explorerのメニューバーから、ドロップダウンリストでアプリのアカウント名を選択します。
-
-3. サイドバーから、機能(アプリケーション、ブラウザなど)と利用可能なAPI[機能](/docs/apm/apis/api-explorer-v2/parts-api-explorer#functions)(
-
-
- **GET**
-
-
- 、
-
-
- **PUT**
-
-
- 、
-
-
- **DELETE**
-
-
- )を選択します。
-
-4. APIコールのその他の
-
-
- **Parameters**
-
-
- 値を入力します。 (v2 の説明と要件については UI を参照してください。)
-
-5. リクエストの
-
-
- **format**
-
-
- を選択します: JSON または XML。
-
-6.
- **Send Request**
-
-
- を選択します。
+1. **[API Explorer](https://api.newrelic.com/docs/)**に移動します。
+2. **Servers**ドロップダウンから、米国または EU ベースの API URL を選択します。
+3. **Authorize** をクリックし、ユーザーAPIキーを入力して、もう一度 **Authorize** をクリックします。
+4. 使用可能な API 関数の 1 つを展開します: **GET** 、 **PUT** 、 **DELETE** 。
+5. (オプション) APIコールに **Parameters** 値を追加して、応答をフィルタリングします (v2 の説明と要件についてはUIを参照してください)。
+6. **Media type**ドロップダウンから、リクエストの形式(JSON または XML)を選択します。
+7. **Try it out**をクリックし、次に**Execute**クリックします。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx b/src/i18n/content/jp/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx
index faa14a3598e..3119f443eaf 100644
--- a/src/i18n/content/jp/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx
+++ b/src/i18n/content/jp/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx
@@ -19,51 +19,31 @@ IDは以下のものが考えられます。
これらの ID を [New Relic API Explorer](/docs/apis/using-the-api-explorer) にリストアップするには、 [API キー](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) が必要です。
-## API Explorerの使用 [#explorer]
+## API Explorerの使用 [#use-api-explorer]
-API Explorerを使用して、特定の製品のすべてのプロダクトIDのリストを返すことができます。
+1. **[API Explorer](https://api.newrelic.com/docs/)**に移動します。
+2. **Servers**ドロップダウンから、米国または EU ベースの API URL を選択します。
+3. **Authorize** をクリックし、ユーザーAPIキーを入力して、もう一度 **Authorize** をクリックします。
+4. 使用可能な API 関数の 1 つを展開します: **GET** 、 **PUT** 、 **DELETE** 。
+5. (オプション) APIコールに **Parameters** 値を追加して、応答をフィルタリングします (v2 の説明と要件についてはUIを参照してください)。
+6. **Media type**ドロップダウンから、リクエストの形式(JSON または XML)を選択します。
+7. **Try it out**をクリックし、次に**Execute**クリックします。
-1.
- **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > (select an app)**
-
+## 製品IDを一覧表示する [#list-product-ids]
- に移動します。
+特定の製品のすべての製品 ID のリストを返すには:
-2. [rpm.newrelic.com/api/explore](https://rpm.newrelic.com/api/explore)のAPIエクスプローラーにアクセスし、 次に、
+1. `GET /applications.json`ドロップダウンをクリックします。
+2. **Try it out** \[試してみる]をクリックし、 **Execute** 「実行」をクリックします。
+3. 応答を参照してすべての製品 ID を表示します。
-
- **Select an account**
-
+特定の製品 ID を見つけたら、後で他の REST API呼び出しで使用するためにそれをコピーします。
- ドロップダウンからアカウント名を選択します。
+## アプリケーションIDの一覧 [#locating\_app\_id][#locating_app_id]
-3. サイドバーから
+エージェントによって監視される各アプリには名前が割り当てられます。 その名前には一意の`$APP_ID`も関連付けられています。 `$APP_ID`は、アプリに関する情報を取得するための基本です。 `$APP_ID`一覧表示と使用、および概要データの取得の詳細については、 [「アプリ ID の一覧表示」](/docs/apis/rest-api-v2/application-examples-v2/listing-your-app-id-metric-data-v2)を参照してください。
-
- **(product category) > GET List**
-
-
- を選択します。
-
-
- **Send Request**
-
-
- を選択します。
-
-4.
- **Response**
-
-
- を参照して製品 ID を見つけます。
-
-REST APIコールに配置したプロダクトIDを使用してください。
-
-## アプリケーションIDの一覧 [#locating_app_id]
-
-エージェントによって監視される各アプリには名前が割り当てられます。 その名前には一意の`$APP_ID`も関連付けられています。 `$APP_ID`は、アプリに関する情報を取得するための基本です。 `$APP_ID`一覧表示と使用、および概要データの取得の詳細については、 [「アプリ ID の一覧表示」](/docs/apis/rest-api-v2/application-examples-v2/listing-your-app-id-metric-data-v2)を参照してください。
-
-## ホストIDの一覧表示 [#locating_host_id]
+## ホストIDの一覧表示 [#locating\_host\_id][#locating_host_id]
`$HOST_ID`は、アプリを実行している特定のホストの APM データを取得するために使用されます。物理サーバーには複数のホストがある場合があります。たとえば、物理サーバー上で実行されている Web サーバー プログラムは、複数の仮想ホストを持つように構成されている場合があります。
@@ -71,33 +51,12 @@ REST APIコールに配置したプロダクトIDを使用してください。
`$HOST_ID`を使用して、ホストのサマリー メトリックと特定のメトリック タイムスライス値を取得します。利用可能な指標の詳細については、次を参照してください。
-1.
- **[rpm.newrelic.com](https://rpm.newrelic.com)**
-
-
- に移動します。
-
-2. [API エクスプローラー](https://rpm.newrelic.com/api/explore/application_hosts/list)に移動し、
-
-
- **Select an account**
-
-
- ドロップダウンからアカウント名を選択します。
-
-3. [rpm.newrelic.com/api/explore/application_hosts/names](https://rpm.newrelic.com/api/explore/application_hosts/names)にある API Explorer の
-
-
- **Application host**
-
-
- ページに移動します。
+1. **[rpm.newrelic.com](https://rpm.newrelic.com)**に移動します。
+2. [API エクスプローラー](https://rpm.newrelic.com/api/explore/application_hosts/list)に移動し、 **Select an account**ドロップダウンからアカウント名を選択します。
+3. [rpm.newrelic.com/api/explore/application\_hosts/names](https://rpm.newrelic.com/api/explore/application_hosts/names)にある API Explorer の**Application host**ページに移動します。
-
+
API Explorer を使用して特定のアプリケーションのすべての`$HOST_ID`のリストを返すには、 [`$APP_ID`](/docs/apis/rest-api-v2/requirements/finding-product-id)が必要です。
1. [API エクスプローラー](https://rpm.newrelic.com/api/explore/application_hosts/list)に移動し、 **Select an account**ドロップダウンからアカウント名を選択します。
@@ -116,10 +75,7 @@ REST APIコールに配置したプロダクトIDを使用してください。
4. **Response**を参照して、各ホストの`{HOST_ID}`を見つけます。
-
+
以下のように出力されます。
```
@@ -162,7 +118,7 @@ REST APIコールに配置したプロダクトIDを使用してください。
-## インスタンスIDの一覧 [#locating_instance_id]
+## インスタンスIDの一覧 [#locating\_instance\_id][#locating_instance_id]
InstanceID の意味は、使用されているNew Relic言語エージェントによって異なります。 この ID は REST API から一覧表示できます。 Java[ JVM](#UI)の場合、APM の**Overview** ページから インスタンス ID ( ) を表示すること もできます。
@@ -255,10 +211,7 @@ InstanceID の意味は、使用されているNew Relic言語エージェント
`{INSTANCE_ID}`を使用して、インスタンスのサマリー メトリックと特定のメトリック タイムスライス値を取得できます。使用可能なメトリックの詳細については、 [REST API エクスプローラーのアプリケーション インスタンス](https://rpm.newrelic.com/api/explore/application_instances/names)ページを使用してください。
-
+
API Explorer を使用して特定のアプリケーションのすべての`$INSTANCE_ID`のリストを返すには、 [`$APP_ID`](/docs/apis/rest-api-v2/requirements/finding-product-id)が必要です。
1. [API エクスプローラー](https://rpm.newrelic.com/api/explore/application_hosts/list)に移動し、 **Select an account**ドロップダウンからアカウント名を選択します。
@@ -277,11 +230,8 @@ InstanceID の意味は、使用されているNew Relic言語エージェント
4. **Response**を参照して、各インスタンスの`$INSTANCE_ID`を見つけます。
-
- {INSTANCE_ID}の出力は以下のようになります。
+
+ \{INSTANCE\_ID}の出力は以下のようになります。
```
{
@@ -318,13 +268,10 @@ InstanceID の意味は、使用されているNew Relic言語エージェント
```
-
+
Java アプリ: New Relic で特定の JVM `$INSTANCE_ID`を見つけるには:
- 1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > Applications > (select an app) > JVMs**に移動します。
+ 1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > Applications > (select an app) > JVMs**に移動します。
2. インスタンスの名前を選択します。
@@ -393,4 +340,4 @@ curl -X GET 'https://api.newrelic.com/v2/applications.json' \
}
],
. . .
-```
+```
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx b/src/i18n/content/jp/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx
deleted file mode 100644
index 5506366cf22..00000000000
--- a/src/i18n/content/jp/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx
+++ /dev/null
@@ -1,91 +0,0 @@
----
-title: PythonエージェントとStackato
-tags:
- - Agents
- - Python agent
- - Hosting services
-metaDescription: 'How to install, configure, and initialize the Python agent with ActiveState''s Stackato solution.'
-freshnessValidatedDate: never
-translationType: machine
----
-
-[Stackato](http://www.activestate.com/cloud) は ActiveState 社が開発したプライベート PaaS ソリューションです。Pythonエージェントは、以下の手順でStackatoと併用することができます。
-
-ここでは、Stackato VM イメージのバージョン 0.6 以上を使用することを前提に説明しています。古いバージョンのStackato VMイメージを使用している場合は、アップグレードする必要があります。
-
-## パッケージのインストール
-
-ActiveState[ は、](http://code.activestate.com/pypm/newrelic/)[ PyPM](http://code.activestate.com/pypm) パッケージ リポジトリに Python エージェント パッケージの コピーをホストしています 。エージェントの Python パッケージをインストールするには、 `requirements.txt`ファイルに`newrelic`を 1 行だけ追加します。
-
-```
-newrelic
-```
-
-次に、Stackato クライアントを使用して`update`コマンドを実行します。
-
-PyPM パッケージリポジトリは毎日更新されています。もし、PyPM パッケージリポジトリから入手できるものよりも新しいバージョンの Python エージェントを使用する必要がある場合は、代わりに [pip](http://www.pip-installer.org/en/latest/) と [PyPI](http://pypi.python.org) からソースパッケージを使用する必要があります。
-
-この場合、PyPM で使用される`requirements.txt`ファイルに加えて、pip の入力として`requirements.pip`ファイルを作成する必要があります。 `requirements.pip`ファイルには`newrelic`パッケージをリストする必要があります。
-
-## エージェント構成ファイル
-
-[Python agent installation](/docs/agents/python-agent/installation-and-configuration/python-agent-installation) で説明しているように、ローカルシステム上でPython agent configurationを生成し、Stackatoインスタンスにプッシュするディレクトリに追加する必要があります。
-
-エージェントのログファイルの出力先を指定するためのエージェント設定ファイルのオプションが設定されている必要があります。
-
-```ini
-log_file = stderr
-```
-
-## Pythonエージェントの初期化 [#python-agent-intialization]
-
-Python アプリケーションとの 統合の手順に従って、 エントリ ポイントを含む PythonWSGI[ ](/docs/agents/python-agent/installation-and-configuration/python-agent-integration)モジュールに Python エージェントを初期化するコードを手動で含めることもできますが、`newrelic-admin` スクリプトを使用した簡略化された起動方法も利用できます。
-
-手動で行う場合、このような変更は通常、Python Web アプリケーションが含まれる`wsgi.py`ファイルに対して行われます。 エージェント設定ファイルは同じディレクトリにあるため、 `wsgi.py`ファイルへの変更は次のようになります。
-
-```py
-import newrelic.agent
-
-config_file = os.path.join(os.path.dirname(__file__), 'newrelic.ini')
-newrelic.agent.initialize(config_file)
-```
-
-アプリケーションがインストールされるファイルシステム内のディレクトリは変更される可能性があるため、エージェント設定の場所は`wsgi.py`ファイルの場所を基準にして自動的に計算されます。
-
-エージェントの初期化を手動で実行するコードを追加する代わりに、 `newrelic-admin`スクリプトを使用することもできます。
-
-`processes`セクションの`web`エントリを設定して、Web アプリケーションの起動方法を`stackato.yml`ファイルで明示的に定義している場合:
-
-```yml
-processes:
- web: python app.py
-```
-
-`web`を次のように置き換えます。
-
-```yml
-processes:
- web: newrelic-admin run-program python app.py
-```
-
-つまり、既存のコマンドの前に`newrelic-admin run-program`を付けています。
-
-同時に、次のコードを使用して`stackato.yml`ファイルに`env`セクションを追加する必要があります。
-
-```yml
-env:
- NEW_RELIC_CONFIG_FILE: newrelic.ini
-```
-
-`web`エントリをまだオーバーライドしておらず、代わりに uWSGI を実行する Stackato スタックのデフォルトに依存している場合、プロセスは少し異なります。 この場合、次のように`web`エントリを`stackato.yml`に追加する必要があります。
-
-```yml
-processes:
- web: newrelic-admin run-program $PROCESSES_WEB
-```
-
-`env`セクションも必要です。
-
-`PROCESSES_WEB`が定義されておらず、これが機能しない場合は、古い VM イメージを使用しており、アップグレードする必要があることを示しています。
-
-手動でも自動でも、使用しているPythonウェブフレームワークに必要であれば、WSGIアプリケーションエントリーポイントオブジェクトも適切にラップする必要があります。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx b/src/i18n/content/jp/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx
deleted file mode 100644
index b2658a099b6..00000000000
--- a/src/i18n/content/jp/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx
+++ /dev/null
@@ -1,12 +0,0 @@
----
-title: PythonエージェントとWebFaction
-tags:
- - Agents
- - Python agent
- - Hosting services
-metaDescription: 'To use the Python agent with WebFaction hosting services, follow the instructions for Apache/mod_wsgi.'
-freshnessValidatedDate: never
-translationType: machine
----
-
-WebFaction 上で動作するアプリケーションに Python エージェントをインストールすることができます。 [WebFaction](http://www.webfaction.com/) は、Python を含む様々な言語を使用した Web アプリケーションをホストすることができる汎用の Web ホスティングサービスです。WebFaction上でPythonのWebアプリケーションをホストする典型的な方法は、Apache/mod_wsgiを使用することです。WebFaction の Python アプリケーションへの The agent のインストールについては、 [Install the Python agent](/docs/agents/python-agent/installation-configuration/python-agent-installation) を参照し、mod_wsgi の指示に従ってください。
diff --git a/src/i18n/content/jp/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx b/src/i18n/content/jp/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx
index 61415044ab2..aa3829b1e3f 100644
--- a/src/i18n/content/jp/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx
+++ b/src/i18n/content/jp/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx
@@ -52,7 +52,7 @@ Python エージェント バージョン 9.8.0 以降。
`trace_id`
- _ストリング_
+ *ストリング*
|
@@ -64,7 +64,7 @@ Python エージェント バージョン 9.8.0 以降。
|
`rating`
- _文字列_または_整数_
+ *文字列*または*整数*
|
@@ -76,7 +76,7 @@ Python エージェント バージョン 9.8.0 以降。
|
`category`
- _ストリング_
+ *ストリング*
|
@@ -88,7 +88,7 @@ Python エージェント バージョン 9.8.0 以降。
|
`message`
- _ストリング_
+ *ストリング*
|
@@ -100,7 +100,7 @@ Python エージェント バージョン 9.8.0 以降。
|
`metadata`
- _ディクト_
+ *ディクト*
|
@@ -110,7 +110,7 @@ Python エージェント バージョン 9.8.0 以降。
-## 戻り値 [#return-valuess]
+## 戻り値 [#return-values]
なし。
@@ -129,4 +129,4 @@ Python エージェント バージョン 9.8.0 以降。
def post_feedback(request):
newrelic.agent.record_llm_feedback_event(trace_id=request.trace_id, rating=request.rating, metadata= {"my_key": "my_val"})
```
-````
+````
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx b/src/i18n/content/jp/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx
new file mode 100644
index 00000000000..368dc3c5153
--- /dev/null
+++ b/src/i18n/content/jp/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx
@@ -0,0 +1,85 @@
+---
+title: WithLlmCustomAttributes (Python エージェントAPI )
+type: apiDoc
+shortDescription: LLMイベントにカスタムアトリビュートを追加
+tags:
+ - Agents
+ - Python agent
+ - Python agent API
+metaDescription: 'Python API: This API adds custom attributes to a Large Language Model (LLM) events generated in AI applications.'
+freshnessValidatedDate: never
+translationType: machine
+---
+
+## 構文 [#syntax]
+
+```py
+ with newrelic.agent.WithLlmCustomAttributes(custom_attribute_map):
+```
+
+アプリケーション コード内の LLM 呼び出しによって生成される大規模言語モデル(LLM) (LLM) イベントにユーザー指定のプロパティを追加するコンテキスト マネージャーAPI 。
+
+## 要件 [#requirements]
+
+Python エージェント バージョン 10.1.0 またはそれ以上。
+
+## 説明 [#description]
+
+このコンテキスト マネージャー API は、LLM への呼び出しに基づいて、コンテキスト内で生成された各 LLM イベントにユーザー指定のカスタム属性を追加します。 エージェントは、渡された辞書引数で指定された各カスタムアトリビュート キー名に`llm.`プレフィックスを自動的に追加します。 この API は、アクティブなトランザクションのコンテキスト内で呼び出す必要があります。
+
+これらのカスタムアトリビュートは、LLM イベントで表示したり、 New Relic UIで投稿したりできます。 AI モニタリングの詳細については、 [AI ドキュメント を](https://docs.newrelic.com/docs/ai-monitoring/intro-to-ai-monitoring/)参照してください。
+
+## パラメーター [#parameters]
+
+
+
+
+
+ パラメータ
+ |
+
+
+ 説明
+ |
+
+
+
+
+
+
+ `custom_attribute_map`
+
+ *辞書*
+ |
+
+
+ 必須。 各キーの値のペアがカスタムアトリビュート名とそのそれぞれの値を示す空ではない辞書。
+ |
+
+
+
+
+## 戻り値 [#return-values]
+
+なし。
+
+## 例 [#examples]
+
+### OpenAI チャット完了呼び出しにカスタムアトリビュートを追加する
+
+```py
+ import newrelic.agent
+
+ from openai import OpenAI
+
+ client = OpenAI()
+
+ with newrelic.agent.WithLlmCustomAttributes({"custom": "attr", "custom1": "attr1"}):
+ response = client.chat.completions.create(
+ messages=[{
+ "role": "user",
+ "content": "Say this is a test",
+ }],
+ model="gpt-4o-mini",
+ )
+```
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx b/src/i18n/content/jp/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
index a5547040173..f920c9ad50a 100644
--- a/src/i18n/content/jp/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
@@ -248,6 +248,7 @@ Azure Monitor が統合される前は、Azure を監視するには、メトリ
* Azure Monitor 統合を有効にすると、すべてのリソースに対して新しい個別のエンティティが作成されます。Azure Polling 統合によって作成されたエンティティはそのままです。これは、ダッシュボード、アラート、およびそれらのエンティティを参照するその他の機能を更新する必要があることを意味します。
* 古いエンティティは 24 時間利用できます。
+* メトリクスに異なる寸法の組み合わせがある場合、メトリクス名が 2 回表示されることがあります。 [データの集計をフィルタリングする書き込みを作成する](/docs/infrastructure/microsoft-azure-integrations/get-started/azure-integration-metrics/#metrics-with-many-dimension-combinations)ことで、メトリクス名の重複を防ぐことができます。
## 以前の Azure Polling 統合からの移行手順 [#migration-from-polling]
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx
index 0f3215899f7..06cf42ae681 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx
@@ -132,7 +132,6 @@ newrelic_remote_write:
extra_write_relabel_configs:
# Enable the extra_write_relabel_configs below for backwards compatibility with legacy POMI labels.
# This helpful when migrating from POMI to ensure that Prometheus metrics will contain both labels (e.g. cluster_name and clusterName).
- # For more migration info, please visit the [migration guide](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide/).
- source_labels: [namespace]
action: replace
target_label: namespaceName
@@ -218,4 +217,4 @@ newrelic-prometheus-agent:
enabled: false
```
-この[ドキュメント](/docs/kubernetes-pixie/kubernetes-integration/installation/install-kubernetes-integration-using-helm/#upgrade)で説明されている手順に従って、Helm を使用して Kubernetes クラスターをアップグレードします。
+この[ドキュメント](/docs/kubernetes-pixie/kubernetes-integration/installation/install-kubernetes-integration-using-helm/#upgrade)で説明されている手順に従って、Helm を使用して Kubernetes クラスターをアップグレードします。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx
index 36f978d1b39..b568fabe105 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx
@@ -23,8 +23,8 @@ Helm を使用してエージェントを構成するには、次の 2 つの方
```yaml
global:
- licenseKey: _YOUR_NEW_RELIC_LICENSE_KEY_
- cluster: _K8S_CLUSTER_NAME_
+ licenseKey: YOUR_NEW_RELIC_LICENSE_KEY
+ cluster: K8S_CLUSTER_NAME
newrelic-prometheus-agent:
enabled: true
@@ -37,8 +37,8 @@ Helm を使用してエージェントを構成するには、次の 2 つの方
このオプションは、上級ユーザーの場合にのみお勧めします。
```yaml
- licenseKey: _YOUR_NEW_RELIC_LICENSE_KEY_
- cluster: _K8S_CLUSTER_NAME_
+ licenseKey: YOUR_NEW_RELIC_LICENSE_KEY
+ cluster: K8S_CLUSTER_NAME
config:
# YOUR CONFIGURATION GOES HERE. An example:
@@ -66,8 +66,8 @@ app_values: ["redis", "traefik", "calico", "nginx", "coredns", "kube-dns", "etcd
さらに、統合フィルターの新しいバージョンにより、1 つのジョブによって既にスクレイピングされたターゲットが 2 回目にスクレイピングされる可能性があります。重複データが発生した場合に通知を受け取る (および重複スクレイピングを完全に防止する) ために、次のクエリに基づいてアラートを作成できます。
-```
-FROM Metric select uniqueCount(job) facet instance, cluster_name limit 10 since 2 minutes ago
+```sql
+FROM Metric SELECT uniqueCount(job) FACET instance, cluster_name LIMIT 10 SINCE 2 minutes ago
```
いずれかの値が 1 以外の場合、同じクラスター内の同じインスタンスをスクレイピングする 2 つ以上のジョブがあります。
@@ -99,19 +99,19 @@ Kubernetes ジョブは、 `target_discovery`構成に従ってターゲット
```yaml
kubernetes:
jobs:
- - job_name_prefix: example
- integrations_filter:
- enabled: false
- target_discovery:
- pod: true
- endpoints: true
- filter:
- annotations:
- # :
- newrelic.io/scrape: 'true'
- label:
- # :
- k8s.io/app: '(postgres|mysql)'
+ - job_name_prefix: example
+ integrations_filter:
+ enabled: false
+ target_discovery:
+ pod: true
+ endpoints: true
+ filter:
+ annotations:
+ # :
+ newrelic.io/scrape: "true"
+ label:
+ # :
+ k8s.io/app: "(postgres|mysql)"
```
@@ -174,21 +174,21 @@ common:
scrape_interval: 30s
kubernetes:
jobs:
- # this job will use the default scrape_interval defined in common.
- - job_name_prefix: default-targets-with-30s-interval
- target_discovery:
- pod: true
- filter:
- annotations:
- newrelic.io/scrape: 'true'
-
- - job_name_prefix: slow-targets-with-60s-interval
- scrape_interval: 60s
- target_discovery:
- pod: true
- filter:
- annotations:
- newrelic.io/scrape_slow: 'true'
+ # this job will use the default scrape_interval defined in common.
+ - job_name_prefix: default-targets-with-30s-interval
+ target_discovery:
+ pod: true
+ filter:
+ annotations:
+ newrelic.io/scrape: "true"
+
+ - job_name_prefix: slow-targets-with-60s-interval
+ scrape_interval: 60s
+ target_discovery:
+ pod: true
+ filter:
+ annotations:
+ newrelic.io/scrape_slow: "true"
```
## 指標とラベルの変換 [#metric-label-transformations]
@@ -203,21 +203,21 @@ YAML 構成ファイルのさまざまな部分で使用する方法の例を次
```yaml
static_targets:
-- name: self-metrics
- urls:
- - 'http://static-service:8181'
- extra_metric_relabel_config:
- # Drop metrics with prefix 'go_' for this target.
- - source_labels: [__name__]
- regex: 'go_.+'
- action: drop
+ - name: self-metrics
+ urls:
+ - "http://static-service:8181"
+ extra_metric_relabel_config:
+ # Drop metrics with prefix 'go_' for this target.
+ - source_labels: [__name__]
+ regex: "go_.+"
+ action: drop
newrelic_remote_write:
extra_write_relabel_configs:
- # Drop all metrics with the specified name before sent to New Relic.
- - source_labels: [__name__]
- regex: 'metric_name'
- action: drop
+ # Drop all metrics with the specified name before sent to New Relic.
+ - source_labels: [__name__]
+ regex: "metric_name"
+ action: drop
```
### YAML ファイル スニペットのサンプル [#config-samples]
@@ -270,10 +270,10 @@ newrelic_remote_write:
```yaml
- source_labels: [__name__]
- regex: 'prefix_.+'
- target_label: new_label
- action: replace
- replacement: newLabelValue
+ regex: 'prefix_.+'
+ target_label: new_label
+ action: replace
+ replacement: newLabelValue
```
@@ -282,7 +282,7 @@ newrelic_remote_write:
```yaml
- regex: 'label_name'
- action: labeldrop
+ action: labeldrop
```
@@ -303,36 +303,37 @@ newrelic_remote_write:
```yaml
kubernetes:
jobs:
- - job_name_prefix: skip-verify-on-https-targets
- target_discovery:
- pod: true
- filter:
- annotations:
- newrelic.io/scrape: 'true'
- - job_name_prefix: bearer-token
- target_discovery:
- pod: true
- filter:
- label:
- k8s.io/app: my-app-with-token
- authorization:
- type: Bearer
- credentials_file: '/etc/my-app/token'
+ - job_name_prefix: skip-verify-on-https-targets
+ target_discovery:
+ pod: true
+ filter:
+ annotations:
+ newrelic.io/scrape: "true"
+ - job_name_prefix: bearer-token
+ target_discovery:
+ pod: true
+ filter:
+ label:
+ k8s.io/app: my-app-with-token
+ authorization:
+ type: Bearer
+ credentials_file: "/etc/my-app/token"
static_targets:
jobs:
- - job_name: mtls-target
- scheme: https
- targets:
- - 'my-mtls-target:8181'
- tls_config:
- ca_file: '/etc/my-app/client-ca.crt'
- cert_file: '/etc/my-app/client.crt'
- key_file: '/etc/my-app/client.key'
-
- - job_name: basic-auth-target
- targets:
- - 'my-basic-auth-static:8181'
- basic_auth:
- password_file: '/etc/my-app/pass.htpasswd'
+ - job_name: mtls-target
+ scheme: https
+ targets:
+ - "my-mtls-target:8181"
+ tls_config:
+ ca_file: "/etc/my-app/client-ca.crt"
+ cert_file: "/etc/my-app/client.crt"
+ key_file: "/etc/my-app/client.key"
+
+ - job_name: basic-auth-target
+ targets:
+ - "my-basic-auth-static:8181"
+ basic_auth:
+ password_file: "/etc/my-app/pass.htpasswd"
+
```
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx
index 3ee1395e2dc..73043bacbfc 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx
@@ -23,10 +23,10 @@ global:
これが値ファイルで更新されたら、次の helm upgrade コマンドを実行します。
```bash
-helm upgrade newrelic-prometheus-configurator/newrelic-prometheus-agent \
---namespace \
--f values-newrelic.yaml \
-[--version fixed-chart-version]
+helm upgrade RELEASE_NAME newrelic-prometheus-configurator/newrelic-prometheus-agent \
+ --namespace NEWRELIC_NAMESPACE \
+ -f values-newrelic.yaml \
+ [--version fixed-chart-version]
```
## ターゲットのメトリックが表示されない [#target-with-no-metrics]
@@ -35,7 +35,7 @@ helm upgrade newrelic-prometheus-configurator/newrelic-prometheus
Kubernetes でデフォルト構成を使用している場合は、ポッドまたはサービスに`prometheus.io/scrape=true`アノテーションがあることを確認してください。
-デフォルトでは、Prometheus エージェントは[Prometheus 統合](/docs/infrastructure/prometheus-integrations/integrations-list/integrations-list-intro)からのみメトリクスをスクレイピングします。クラスター内のすべての Prometheus エンドポイントをスクレイピングすることを選択しない限り、Prometheus エージェントは[source_labels](https://github.com/newrelic/newrelic-prometheus-configurator/blob/main/charts/newrelic-prometheus-agent/values.yaml)で定義されたラベルを使用して、スクレイピングするエンドポイントをフィルタリングします。
+デフォルトでは、Prometheus エージェントは[Prometheus 統合](/docs/infrastructure/prometheus-integrations/integrations-list/integrations-list-intro)からのみメトリクスをスクレイピングします。クラスター内のすべての Prometheus エンドポイントをスクレイピングすることを選択しない限り、Prometheus エージェントは[source\_labels](https://github.com/newrelic/newrelic-prometheus-configurator/blob/main/charts/newrelic-prometheus-agent/values.yaml)で定義されたラベルを使用して、スクレイピングするエンドポイントをフィルタリングします。
## ダッシュボードに指標が表示されない [#dashboard-with-no-metrics]
@@ -45,8 +45,8 @@ Kubernetes でデフォルト構成を使用している場合は、ポッドま
すべてのターゲット スクレイプは、すべてのターゲット メトリックで`up`メトリックを生成します。スクレイピングが成功した場合、これらの指標の値は`1`になります。成功しなかった場合、それらの値は`0`です。
-```SQL
-FROM Metric SELECT latest(up) WHERE cluster_name= 'YOUR_CLUSTER_NAME' AND pod = 'TARGET_POD_NAME' TIMESERIES
+```sql
+FROM Metric SELECT latest(up) WHERE cluster_name = 'YOUR_CLUSTER_NAME' AND pod = 'TARGET_POD_NAME' TIMESERIES
```
このメトリックがターゲットに存在しない場合は、削除された可能性があります。
@@ -103,4 +103,4 @@ kubectl exec newrelic-prometheus-agent-0 -- wget -O - 'localhost:9090/api/v1/tar
]
}
}
-```
+```
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx
index b8bf299d870..e32702b6147 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx
@@ -20,11 +20,7 @@ New Relic を使用して、Prometheus メトリクスに基づいたダッシ
* Argo CD サーバーの統計
* リポジトリ統計
-
+
## 統合を有効にする
@@ -46,7 +42,7 @@ New Relic を使用して、Prometheus メトリクスに基づいたダッシ
FROM Metric SELECT count(*) WHERE instrumentation.name = 'remote-write' AND metricName LIKE 'argocd_%' FACET metricName LIMIT MAX
```
-4. [Argo CDクイックスタートを](https://newrelic.com/instant-observability/argocd-quickstart) インストールしてビルトインにアクセス と [アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/)。
+4. [](https://newrelic.com/instant-observability/argocd-quickstart)組み込みの と[ アラート にアクセスするには、 Argo](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) CD クイックスタート をインストールします。
インポートしたら、アセットを編集または複製して、特定の要件に適合させることができます。
@@ -84,8 +80,8 @@ Prometheus メトリックは、ディメンション メトリックとして
* 次のコマンドを使用して、Argo CD Prometheus エンドポイントが、Argo CD で構成された任意の K8s ノードでメトリックを発行していることを確認します。
- ```
+ ```sh
curl :8082/metrics
```
-* Prometheus 統合の特定の [トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) を確認することもできます。
+* Prometheus 統合の特定の [トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) を確認することもできます。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx
index a03ed8f7f8b..cb229e85473 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx
@@ -21,11 +21,7 @@ New Relic を使用して、k8s クラスターの Calico CNI を理解するの
* IP テーブルの保存と復元のエラー
* BPF が Calico のデータプレーンとして使用されている場合の BPF 固有のメトリック
-
+
## 統合を有効にする
@@ -80,18 +76,18 @@ Prometheus メトリックは、ディメンション メトリックとして
* データの取り込みを見積もります (毎日の取り込み、バイト単位):
```sql
- FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'felix_%' SINCE
- 1 day ago
+ FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'felix_%'
+ SINCE 1 day ago
```
## トラブルシューティング
* 次のコマンドを使用して、Calico CNI で構成された任意の K8s ノードで Calico Prometheus エンドポイントがメトリックを発行していることを確認します。
- ```
+ ```sh
curl :9091/metrics
```
* [Calico ドキュメント](https://projectcalico.docs.tigera.io/maintenance/monitor/monitor-component-metrics)のトラブルシューティングのヒントに従って、メトリックがクラスターで期待どおりに構成されていることを確認してください。
-* Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。
+* Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx
index b8369dff7e5..d6069e456f9 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx
@@ -29,11 +29,7 @@ New Relic を使用して以下を監視します。
* 開いているファイル記述子の数が多い
* 証明書の有効期限
-
+
## 統合を有効にする
@@ -52,10 +48,10 @@ New Relic を使用して以下を監視します。
3. 次のクエリを使用して、メトリクスが期待どおりに取り込まれていることを確認します。
```sql
- SELECT * from Metric where metricName='rocksdb_num_sstables'
+ SELECT * FROM Metric WHERE metricName = 'rocksdb_num_sstables'
```
-4. 組み込みの と[ アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) にアクセスするには、[ CockroachDB クイックスタート](https://newrelic.com/instant-observability/?search=cockroachdb) をインストールします。
+4. 組み込みの と[ アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) にアクセスするには、[ CockroachDB クイックスタート](https://newrelic.com/instant-observability/?search=cockroachdb) をインストールします。
ダッシュボードの一部のグラフには、ポッドまたはエンドポイントの識別を必要とする条件付きのクエリが含まれており、これらのラベル`app.kubernetes.io/name` 、 `app.newrelic.io/name` 、 `k8s-app`のいずれかに文字列`cockroachdb`が含まれています。
@@ -69,17 +65,17 @@ New Relic を使用して以下を監視します。
```yaml
- source_labels: [__name__]
- separator: ;
- regex: timeseries_write_(.*)
- target_label: newrelic_metric_type
- replacement: counter
- action: replace
+ separator: ;
+ regex: timeseries_write_(.*)
+ target_label: newrelic_metric_type
+ replacement: counter
+ action: replace
- source_labels: [__name__]
- separator: ;
- regex: sql_byte(.*)
- target_label: newrelic_metric_type
- replacement: counter
- action: replace
+ separator: ;
+ regex: sql_byte(.*)
+ target_label: newrelic_metric_type
+ replacement: counter
+ action: replace
```
## データを見つけて使用する
@@ -93,33 +89,33 @@ Prometheus メトリックは、ディメンション メトリックとして
次の NRQL クエリを使用して、New Relic に取り込まれている CockroachDB メトリクスを理解します。
-
+
* 一意のメトリック名を一覧表示します。
```sql
- FROM Metric SELECT uniques(metricName) WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') LIMIT MAX
+ FROM Metric SELECT uniques(metricName)
+ WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%')
+ LIMIT MAX
```
* メトリック更新の数をカウントします。
```sql
- FROM Metric SELECT datapointcount() WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') FACET metricName
+ FROM Metric SELECT datapointcount()
+ WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%')
+ FACET metricName
```
* データの取り込みを見積もります (毎日の取り込み、バイト単位):
```sql
- FROM Metric SELECT bytecountestimate() WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') SINCE 1 day ago
+ FROM Metric SELECT bytecountestimate()
+ WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%')
+ SINCE 1 day ago
```
-
+
構成設定に従ってジョブ名を調整します。
@@ -127,7 +123,7 @@ Prometheus メトリックは、ディメンション メトリックとして
* 一意のメトリック名を一覧表示します。
```sql
- FROM Metric SELECT uniques(metricName) WHERE job='cockroachdb' LIMIT MAX
+ FROM Metric SELECT uniques(metricName) WHERE job = 'cockroachdb' LIMIT MAX
```
* メトリック更新の数をカウントします。
@@ -148,4 +144,4 @@ Prometheus メトリックは、ディメンション メトリックとして
[CockroachDB ドキュメント](https://www.cockroachlabs.com/docs/v22.1/monitor-cockroachdb-with-prometheus.html)のトラブルシューティングのヒントに従って、メトリックがクラスターで期待どおりに構成されていることを確認してください。
-Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。
+Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx
index 491590d55fe..d9a72f5a265 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx
@@ -18,11 +18,7 @@ CoreDNS パフォーマンスの視覚化、潜在的なエラーのアラート
* CoreDNS エラー
* キャッシュ統計
-
+
## 統合を有効にする
@@ -41,7 +37,7 @@ CoreDNS パフォーマンスの視覚化、潜在的なエラーのアラート
3. 次のクエリを使用して、メトリクスが期待どおりに取り込まれていることを確認します。
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'coredns_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'coredns_%' FACET metricName LIMIT MAX
```
4. [CoreDNS クイックスタートを](https://newrelic.com/instant-observability/CoreDNS)インストールして、組み込みのダッシュボードと[アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/)にアクセスします。
@@ -65,13 +61,13 @@ Prometheus メトリックは、ディメンション メトリックとして
* 一意のメトリック名を一覧表示します。
```sql
- FROM Metric SELECT uniques(metricName) WHERE metricName LIKE 'coredns_%' LIMIT MAX
+ FROM Metric SELECT uniques(metricName) WHERE metricName LIKE 'coredns_%' LIMIT MAX
```
* メトリック更新の数をカウントします。
```sql
- FROM Metric SELECT datapointcount() WHERE metricName LIKE 'coredns_%' LIMIT MAX
+ FROM Metric SELECT datapointcount() WHERE metricName LIKE 'coredns_%' LIMIT MAX
```
* データの取り込みを見積もります (毎日の取り込み、バイト単位):
@@ -84,4 +80,4 @@ Prometheus メトリックは、ディメンション メトリックとして
[CoreDNS ドキュメント](https://coredns.io/plugins/kubernetes/)のトラブルシューティングのヒントに従って、メトリックがクラスターで期待どおりに構成されていることを確認します。
-Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。
+Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx
index 6ec314b4c38..935061cfba8 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx
@@ -18,11 +18,7 @@ New Relic を使用して、Etcd クラスターの状態を理解するのに
* gRPC 統計
* ディスク書き込みレイテンシ
-
+
## 統合を有効にする
@@ -41,10 +37,10 @@ New Relic を使用して、Etcd クラスターの状態を理解するのに
3. 次のクエリを使用して、メトリクスが期待どおりに取り込まれていることを確認します。
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'etcd_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'etcd_%' FACET metricName LIMIT MAX
```
-4. [Etcd クイックスタート](https://newrelic.com/instant-observability/etcd) をインストールして組み込みにアクセスする と [アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/)。
+4. 組み込みの と[ アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) にアクセスするには、 [Etcd クイックスタート をインストールします。](https://newrelic.com/instant-observability/etcd)
インポートしたら、アセットを編集または複製して、特定の要件に適合させることができます。
@@ -77,12 +73,12 @@ Prometheus メトリックは、ディメンション メトリックとして
* データの取り込みを見積もります (毎日の取り込み、バイト単位):
```sql
- FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'etcd_%' SINCE
- 1 day ago
+ FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'etcd_%'
+ SINCE 1 day ago
```
## トラブルシューティング
[Etcd ドキュメント](https://etcd.io/docs/v3.5/op-guide/monitoring/)のトラブルシューティングのヒントに従って、メトリックがクラスターで期待どおりに構成されていることを確認します。
-Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。
+Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx
index 0ca52a014cf..8d1f2880d8d 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx
@@ -17,11 +17,7 @@ New Relic を使用して、k8s クラスターの Harbor インフラストラ
* Harbor プロジェクトのバイト クォータ使用率
* Harbor サーバーとクライアントのエラー率
-
+
## 統合を有効にする
@@ -81,8 +77,8 @@ Prometheus メトリックは、ディメンション メトリックとして
* 次のコマンドを使用して、Harbor で構成された任意の K8s ノードで、Harbor Prometheus エンドポイントがメトリックを発行していることを確認します。
- ```
+ ```sh
curl :9090/metrics
```
-* Prometheus 統合の特定の [トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) を確認することもできます。
+* Prometheus 統合の特定の [トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) を確認することもできます。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx
index ca947966788..0791f50595c 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx
@@ -20,11 +20,7 @@ New Relic を使用して、NGINX Ingress Controller のパフォーマンスの
* ペイロード サイズと応答時間に関する要求と応答の洞察
* CPU とメモリの統計
-
+
## 統合を有効にする
@@ -43,10 +39,10 @@ New Relic を使用して、NGINX Ingress Controller のパフォーマンスの
3. 次のクエリを使用して、メトリクスが期待どおりに取り込まれていることを確認します。
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'nginx_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'nginx_%' FACET metricName LIMIT MAX
```
-4. [NGINX Ingress Controller クイックスタート](https://newrelic.com/instant-observability/nginx-ingress-controller) をインストールして組み込みにアクセスする と [アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/)。
+4. [](https://newrelic.com/instant-observability/nginx-ingress-controller)組み込みの と アラート[ にアクセスするには、 NGINX Ingress](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) Controller クイックスタート をインストールします。
インポートしたら、アセットを編集または複製して、特定の要件に適合させることができます。
@@ -86,4 +82,4 @@ Prometheus メトリックは、ディメンション メトリックとして
[NGINX Ingress Controller ドキュメント](https://kubernetes.github.io/ingress-nginx/user-guide/monitoring/#prometheus-and-grafana-installation-using-pod-annotations)のトラブルシューティングのヒントに従って、メトリックがクラスターで期待どおりに構成されていることを確認します。
-Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。
+Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx
index 98ebacc25fe..7e92c5b7ed2 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx
@@ -70,6 +70,7 @@ global:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -91,10 +92,7 @@ remote_write:
新しいコメント`# Target setup`の下に静的構成を設定できます。
-
+
必ず``を挿入してください:
```yml lineHighlight=12-16
@@ -103,6 +101,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -111,9 +110,9 @@ remote_write:
# Target setup
static_configs:
- - targets: ['localhost:9100']
- labels:
- instanceid:
+ - targets: ['localhost:9100']
+ labels:
+ instanceid:
remote_write:
- url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter
@@ -122,10 +121,7 @@ remote_write:
```
-
+
必ず``を挿入してください:
```yml lineHighlight=12-16
@@ -134,6 +130,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -142,9 +139,9 @@ remote_write:
# Target setup
static_configs:
- - targets: ['localhost:9100']
- labels:
- instanceid:
+ - targets: ['localhost:9100']
+ labels:
+ instanceid:
remote_write:
- url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter
@@ -153,10 +150,7 @@ remote_write:
```
-
+
必ず``を挿入してください:
```yml lineHighlight=12-16
@@ -165,6 +159,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -173,9 +168,9 @@ remote_write:
# Target setup
static_configs:
- - targets: ['localhost:9100']
- labels:
- instanceid:
+ - targets: ['localhost:9100']
+ labels:
+ instanceid:
remote_write:
- url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter
@@ -190,10 +185,7 @@ remote_write:
静的ターゲットを構成する代わりに、サービス検出を構成できます。
-
+
`# Target setup` の下に `region`、`access_key`、`secret_key`、`port` を指定して、 AWS EC2 インスタンスのサービス検出を設定できます。
```yml lineHighlight=12-22
@@ -202,6 +194,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -227,10 +220,7 @@ remote_write:
```
-
+
`# Target setup`の下に必ず``を挿入してください:
```yml lineHighlight=12-15
@@ -239,6 +229,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -257,10 +248,7 @@ remote_write:
```
-
+
`# Target setup`の下に必ず``を挿入してください:
```yml lineHighlight=12-15
@@ -269,6 +257,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -301,10 +290,7 @@ remote_write:
以下の例では、動的検出とラベルの組み合わせを示します。 静的ターゲットを使用している場合は、上記の[静的ターゲット](#static-targets)を挿入するだけです。
-
+
詳細については、Prometheus [EC2 の](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#ec2_sd_config)ドキュメントを参照してください。
```yml lineHighlight=23-26
@@ -313,6 +299,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -342,10 +329,7 @@ remote_write:
```
-
+
詳細については、Prometheus[EC2 の](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#azure_sd_config)ドキュメントを参照してください。
```yml lineHighlight=16-19
@@ -354,6 +338,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -376,10 +361,7 @@ remote_write:
```
-
+
詳細については、Prometheus [EC2 の](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#gce_sd_config)ドキュメントを参照してください。
```yml lineHighlight=16-19
@@ -388,6 +370,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -417,10 +400,10 @@ remote_write:
1. 以下を実行します。
- ```
+ ```sh
./prometheus --config.file=./prometheus.yml
```
2. キーボード コマンド`CONTROL + z`と`bg`を使用して、スクレーパーをバックグラウンドで実行するように設定します。 本番環境では、これをサービスとして設定する必要があります (たとえば、 `systemd`を使用)。
-3. **[one.newrelic.com](https://one.newrelic.com/)> Infrastructure > Hosts** に移動して、New Relic UI でデータを確認します。
+3. **[one.newrelic.com](https://one.newrelic.com/)> Infrastructure > Hosts** に移動して、New Relic UI でデータを確認します。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx
index 76f2d0d6113..e5cc932d903 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx
@@ -20,11 +20,7 @@ New Relic を使用すると、以下を監視できます。
* 接続されたクライアント、ノードごとの接続されたクライアント、ノードごとの最後の保存以降の変更、ノードごとの期限切れキー/秒、ノードによって使用されたメモリ、およびブロックされたクライアントを示すグラフ
* ノードごとのキースペース ヒット率、ノードごとのエビクトされたキー/秒、ノードごとの入力バイト/秒、ノードごとのネットワーク I/O、および出力バイト/秒を示すグラフ
-
+
## 統合を有効にする
@@ -43,10 +39,10 @@ New Relic を使用すると、以下を監視できます。
3. 次のクエリを使用して、メトリクスが期待どおりに取り込まれていることを確認します。
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'redis_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'redis_%' FACET metricName LIMIT MAX
```
-4. ビルトインにアクセスするために [Redis (Prometheus) クイックスタート](https://newrelic.com/instant-observability/redis-prometheus) をインストールする と [アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/)。
+4. [](https://newrelic.com/instant-observability/redis-prometheus)組み込みの と[ アラート にアクセスするには、 Redis](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) (Prometheus) クイックスタート をインストールします。
インポートしたら、アセットを編集または複製して、特定の要件に適合させることができます。
@@ -90,4 +86,4 @@ Prometheus メトリックは、ディメンション メトリックとして
[Redis エクスポーターのドキュメント](https://github.com/oliver006/redis_exporter)のトラブルシューティングのヒントに従って、メトリックがクラスターで期待どおりに構成されていることを確認してください。
-Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。
+Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx
index 983f6b8089c..f83c7a53d4f 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx
@@ -13,11 +13,7 @@ translationType: machine
New Relic を使用して、キュレートされたダッシュボードを簡単にインストールして、Traefik インスタンスの状態を監視します。
-
+
## 統合を有効にする
@@ -36,7 +32,7 @@ New Relic を使用して、キュレートされたダッシュボードを簡
3. 次のクエリを使用して、メトリクスが期待どおりに取り込まれていることを確認します。
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'traefik_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'traefik_%' FACET metricName LIMIT MAX
```
4. 組み込みのダッシュボードと[アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/)にアクセスするには、 [Traefik クイックスタート](https://newrelic.com/instant-observability/traefik)をインストールします。
@@ -83,4 +79,4 @@ Prometheus メトリックは、ディメンション メトリックとして
[Traefik ドキュメント](https://docs.gitlab.com/ee/user/clusters/agent/troubleshooting.html)のトラブルシューティングのヒントに従って、メトリックがクラスターで期待どおりに構成されていることを確認します。
-Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。
+Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx
index 41678898c9e..db755669758 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx
@@ -18,11 +18,7 @@ New Relic を使用して、k8s クラスターの Velero バックアップ ジ
* インスタンスごとのバックアップ期間とサイズ
* インスタンスごとの復元ステータス
-
+
## 統合を有効にする
@@ -44,7 +40,7 @@ New Relic を使用して、k8s クラスターの Velero バックアップ ジ
FROM Metric SELECT count(*) WHERE metricName LIKE 'velero_%' FACET metricName LIMIT MAX
```
-4. ビルトインにアクセスするには、 [Velero クイックスタート](https://newrelic.com/instant-observability/velero-prometheus) をインストールしてください と [アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/)。
+4. [](https://newrelic.com/instant-observability/velero-prometheus)組み込みの と[ アラート にアクセスするには、](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) Velero クイックスタート をインストールします。
インポートしたら、アセットを編集または複製して、特定の要件に適合させることができます。
@@ -76,10 +72,10 @@ Prometheus メトリックは、ディメンション メトリックとして
* 次のコマンドを使用して、Velero Prometheus エンドポイントが Velero で構成された任意の k8s ノードでメトリックを発行していることを確認します。
- ```
+ ```sh
curl :8085/metrics
```
* [Velero ドキュメント](https://velero.io/docs/main/troubleshooting/#velero-is-not-publishing-prometheus-metrics) のトラブルシューティングのヒントに従って、メトリックがクラスターで期待どおりに構成されていることを確認してください。
-* Prometheus 統合の特定の [トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) を確認することもできます。
+* Prometheus 統合の特定の [トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) を確認することもできます。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx
index c4077cfa3b9..c33adb09fcd 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx
@@ -26,35 +26,19 @@ Prometheus のリモート書き込みデータは、New Relic に送信され
以下は、Prometheus の読み書きデータが我々のシステムを通過する際のバイトレートの変化をシミュレーションしたものです。このケースでは、ローカルのPrometheusサーバーがローカルのnode-exporterをリモートで書き込んだデータを取り込むことでメトリクスが生成されました。
-
+
Prometheusの送信バイト数が、データポイントを解凍する直前に我々が記録したリモートライトの圧縮バイト数とほぼ一致していることに注目してほしい。リモートライトの圧縮バイト数のばらつきが大きくなっているのは、分散システムでのデータ処理の性質によるものだと考えられます。
-
+
データポイントが解凍されると、5~10倍の拡大率が、データ解凍の直前と直後に測定した「リモートライトの圧縮データバイトレート」と「リモートライトの非圧縮バイトレート」の差に反映されます。
-
+
最後に、データが変換され、エンリッチメントが実行されると、リモート書き込みの非圧縮バイトと [`bytecountestimate()`](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts/#byte-count-estimate) の違いが以下のようになります。リストされた `bytecountestimate()` は、保存される前のデータの最終状態のバイト数の尺度です。
-
+
Prometheus の読み取り/書き込みデータが通過する可能性のあるデータ変換/追加をよりよく理解するために、Prometheus サーバーによって報告される測定値である`prometheus_remote_storage_bytes_total`メトリックの比較を次に示します。
@@ -74,26 +58,25 @@ Prometheusサーバーの表現。
NRQLクエリの表現
-```
-"endTimestamp": 1631305327668,
-"instance:" "localhost:9090",
-"instrumentation.name": "remote-write"
-"instrumentation.provider": "prometheus",
-"instrumentation.source": "foobarbaz",
-"instrumentation.version": "0.0.2",
-"job": "prometheus",
-"metricName": "prometheus_remote_storage_bytes_total",
-"newrelic.source": "prometheusAPI",
-"prometheus_remote_storage_bytes_total",
-"newrelic.source": "prometheusAPI",
-"prometheus_remote_storage_bytes_total": {
- "type": "count",
- "count": 23051
-},
-"prometheus_server": "foobarbaz",
-"remote_name": "5dfb33",
-"timestamp": 1631305312668,
-"url": "https://staging-metric-api.newrelic.com/prometheus/v1/write?prometheus_server=foobarbaz"
+```json
+{
+ "endTimestamp": 1631305327668,
+ "instance": "localhost:9090",
+ "instrumentation.name": "remote-write",
+ "instrumentation.provider": "prometheus",
+ "instrumentation.source": "foobarbaz",
+ "instrumentation.version": "0.0.2",
+ "job": "prometheus",
+ "metricName": "prometheus_remote_storage_bytes_total",
+ "newrelic.source": "prometheusAPI",
+ "prometheus_remote_storage_bytes_total": {
+ "type": "count",
+ "count": 23051
+ },
+ "prometheus_server": "foobarbaz",
+ "remote_name": "5dfb33",
+ "timestamp": 1631305312668,
+ "url": "https://staging-metric-api.newrelic.com/prometheus/v1/write?prometheus_server=foobarbaz"
}
```
@@ -107,14 +90,16 @@ NRQLクエリの表現
New Relicに保存されている推定バイト数を表示します。
-```
-FROM Metric SELECT rate(bytecountestimate(), 1 minute) AS 'bytecountestimate()' WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO
+```sql
+FROM Metric SELECT rate(bytecountestimate(), 1 minute) AS 'bytecountestimate()'
+WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO
```
New Relicに送信されるPrometheusのバイトを監視する。
```
-FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) AS 'Prometheus sent bytes rate' WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO
+FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) AS 'Prometheus sent bytes rate'
+WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO
```
## 外部参照 [#references]
@@ -122,4 +107,5 @@ FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) A
圧縮とエンコーディングについて説明しているPrometheusやGitHubのドキュメントへの外部リンクを紹介します。
* [Prometheus referencing Snappy Compression being used in encoding](https://prometheus.io/docs/prometheus/latest/storage/#overview): 読み取りプロトコルと書き込みプロトコルは、どちらも HTTP 上で snappy-compressed protocol buffer encoding を使用しています。このプロトコルはまだ安定した API とはみなされておらず、将来的には、Prometheus とリモートストレージ間のすべてのホップが HTTP/2 をサポートしていると安全に想定できるようになった時点で、HTTP/2 上の gRPC を使用するように変更される可能性があります。
-* [Prometheus Protobuf リファレンス](https://github.com/prometheus/prometheus/blob/main/prompb/types.proto#L58-L64).
+
+* [Prometheus Protobuf リファレンス](https://github.com/prometheus/prometheus/blob/main/prompb/types.proto#L58-L64).
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx
index cd1be2d2dbe..b365ad38d3a 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx
@@ -16,32 +16,20 @@ Prometheus OpenMetricsとNew Relic for DockerやKubernetesとの統合のため
## 解決
-
+
-
- **Docker**
-
+**Docker**
-```
+```sh
docker logs nri-prometheus
docker logs nri-prometheus 2>&1 | grep -v "level=debug"
```
-
+
-
- **Kubernetes**
-
+**Kubernetes**
-```
+```sh
kubectl logs deploy/nri-prometheus
kubectl logs deploy/nri-prometheus | grep -v "level=debug"
-```
+```
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx
index ac8b2f2b1cd..80e41b61d0e 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx
@@ -20,7 +20,7 @@ Docker または Kubernetes の Prometheus OpenMetrics 統合が、許容され
1. 次のように、 [`NrIntegrationError`イベント](/docs/telemetry-data-platform/manage-data/nrintegrationerror)を使用して Prometheus メトリクスのクエリを実行します。
- ```
+ ```sql
FROM NrIntegrationError SELECT * WHERE newRelicFeature = 'Metrics'
```
@@ -32,4 +32,4 @@ Docker または Kubernetes の Prometheus OpenMetrics 統合が、許容され
New Relic は、Prometheus OpenMetrics インテグレーションのメトリクスが送信される際に、基本的な検証を行います。より広範な検証は、メトリクスの処理時に非同期的に行われます。
-New Relic がこの非同期検証中にエラーを検出した場合、エラーは New Relic アカウントの`NrIntegrationError`イベントに入れられます。たとえば、Prometheus OpenMetrics 統合用に定義されたメトリクス制限を超えると、New Relic はアカウントにレート制限を適用し、関連する`NrIntegrationError`イベントを作成します。
+New Relic がこの非同期検証中にエラーを検出した場合、エラーは New Relic アカウントの`NrIntegrationError`イベントに入れられます。たとえば、Prometheus OpenMetrics 統合用に定義されたメトリクス制限を超えると、New Relic はアカウントにレート制限を適用し、関連する`NrIntegrationError`イベントを作成します。
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx
index 23842c66cbb..0dfeb6ca6e2 100644
--- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx
+++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx
@@ -27,6 +27,6 @@ Prometheus OpenMetrics integration for Kubernetesを毎分500Kのデータポイ
スクレーパーの状態や再起動イベントを確認するため。
-```
+```sh
kubectl describe pod -l "app=nri-prometheus"
-```
+```
\ No newline at end of file
diff --git a/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx b/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx
index 95365a670c0..4bd57ddd735 100644
--- a/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx
+++ b/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx
@@ -37,7 +37,7 @@ New Relic で何ができるか見てみましょう:
* [Prometheus](/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic/#Agent)エージェントが提供するサービス検出機能を利用して、クラスタ内の任意のワークロードから Prometheus メトリックを取得します。
-* 統合[ には、事前定義されたアラート条件](/docs/kubernetes-pixie/kubernetes-integration/installation/predefined-alert-policy) [Kubernetesのセットが含まれていますが、](/docs/kubernetes-pixie/kubernetes-integration/installation/create-alerts) Kubernetesデータに基づいて アラートを作成および変更したり 、[ 推奨されるアラート ポリシー](/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies) のセットを追加したりできます。
+* 統合には、[ 事前定義されたアラート条件](/docs/kubernetes-pixie/kubernetes-integration/installation/predefined-alert-policy)[ Kubernetesのセットが含まれていますが、](/docs/kubernetes-pixie/kubernetes-integration/installation/create-alerts) Kubernetesデータに基づいて アラートを作成および変更したり 、[ 推奨されるアラート ポリシー](/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies) のセットを追加したりできます。
* すべての Kubernetes イベントを確認します。 [Kubernetesインテグレーション](/docs/integrations/kubernetes-integration/kubernetes-events/install-kubernetes-events-integration)は、 Kubernetesクラスタで発生するイベントを監視し、それらのイベントをNew Relicに送信します。 その後、クラスター エクスプローラーでイベント データを視覚化できます。 [New Relic Kubernetesインテグレーションをインストールする](/docs/kubernetes-pixie/kubernetes-integration/installation/kubernetes-integration-install-configure/)とデフォルトでインストールされます。
diff --git a/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx b/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx
index 865700ededc..40b8eec3374 100644
--- a/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx
+++ b/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx
@@ -61,8 +61,8 @@ Helm の使用に関する詳細については[、 Kubernetesインテグレー
helm repo add newrelic https://helm-charts.newrelic.com
helm upgrade --install newrelic-bundle newrelic/nri-bundle \
- --set global.licenseKey= \
- --set global.cluster= \
+ --set global.licenseKey=YOUR_NEW_RELIC_INGEST_LICENSE_KEY \
+ --set global.cluster=CLUSTER_NAME \
--namespace=newrelic \
--set newrelic-infrastructure.privileged=true \
--set global.lowDataMode=true \
@@ -81,7 +81,7 @@ helm repo add newrelic-k8s https://newrelic.github.io/k8s-agents-operator
helm upgrade --install k8s-agents-operator newrelic-k8s/k8s-agents-operator \
--namespace newrelic \
--create-namespace \
- --set licenseKey=
+ --set licenseKey=YOUR_NEW_RELIC_INGEST_LICENSE_KEY
```
設定オプションの完全なリストについては、 [README](https://github.com/newrelic/k8s-agents-operator/tree/main/charts/k8s-agents-operator#values)チャートを参照してください。
@@ -93,17 +93,17 @@ helm upgrade --install k8s-agents-operator newrelic-k8s/k8s-agents-operator \
1. オペレーターに測定させるネームスペースごとに、有効な[New Relic取り込みライセンス](/docs/apis/intro-apis/new-relic-api-keys/#license-key)を含むシークレットを作成します。
```shell
- kubectl create secret generic newrelic-key-secret \
- --namespace \
- --from-literal=new_relic_license_key=
+ kubectl create secret generic newrelic-key-secret \
+ --namespace NAMESPACE_TO_MONITOR \
+ --from-literal=new_relic_license_key=YOUR_NEW_RELIC_INGEST_LICENSE_KEY
```
- `` を有効なNew Relicライセンスキーに置き換えてください。
+ `YOUR_NEW_RELIC_INGEST_LICENSE_KEY` を有効なNew Relicライセンスキーに置き換えてください。
2. 自動計装したい各ネームスペースに、以下のカスタムリソース定義(CRD)を適用します。 次のコマンドを実行します:
```shell
- kubectl apply -f -n
+ kubectl apply -f YOUR_YAML_FILE -n NAMESPACE_TO_MONITOR
```
CRD YAML ファイル内で、計装するAPMエージェントを指定します。 利用可能なすべてのAPMエージェントdockerイメージと対応するタグは、DockerHub にリストされています。
@@ -115,35 +115,35 @@ helm upgrade --install k8s-agents-operator newrelic-k8s/k8s-agents-operator \
* [Ruby](https://hub.docker.com/repository/docker/newrelic/newrelic-ruby-init/general)
```yaml
- apiVersion: newrelic.com/v1alpha1
- kind: Instrumentation
- metadata:
- labels:
- app.kubernetes.io/name: instrumentation
- app.kubernetes.io/created-by: k8s-agents-operator
- name: newrelic-instrumentation
- spec:
- java:
- image: newrelic/newrelic-java-init:latest
- # env:
- # Example New Relic agent supported environment variables
- # - name: NEW_RELIC_LABELS
- # value: "environment:auto-injection"
- # Example overriding the appName configuration
- # - name: NEW_RELIC_POD_NAME
- # valueFrom:
- # fieldRef:
- # fieldPath: metadata.name
- # - name: NEW_RELIC_APP_NAME
- # value: "$(NEW_RELIC_LABELS)-$(NEW_RELIC_POD_NAME)"
- nodejs:
- image: newrelic/newrelic-node-init:latest
- python:
- image: newrelic/newrelic-python-init:latest
- dotnet:
- image: newrelic/newrelic-dotnet-init:latest
- ruby:
- image: newrelic/newrelic-ruby-init:latest
+ apiVersion: newrelic.com/v1alpha1
+ kind: Instrumentation
+ metadata:
+ labels:
+ app.kubernetes.io/name: instrumentation
+ app.kubernetes.io/created-by: k8s-agents-operator
+ name: newrelic-instrumentation
+ spec:
+ java:
+ image: newrelic/newrelic-java-init:latest
+ # env:
+ # Example New Relic agent supported environment variables
+ # - name: NEW_RELIC_LABELS
+ # value: "environment:auto-injection"
+ # Example overriding the appName configuration
+ # - name: NEW_RELIC_POD_NAME
+ # valueFrom:
+ # fieldRef:
+ # fieldPath: metadata.name
+ # - name: NEW_RELIC_APP_NAME
+ # value: "$(NEW_RELIC_LABELS)-$(NEW_RELIC_POD_NAME)"
+ nodejs:
+ image: newrelic/newrelic-node-init:latest
+ python:
+ image: newrelic/newrelic-python-init:latest
+ dotnet:
+ image: newrelic/newrelic-dotnet-init:latest
+ ruby:
+ image: newrelic/newrelic-ruby-init:latest
```
## アプリケーションで自動APMインストゥルメンテーションを有効にする [#enable-apm-instrumentation]
@@ -163,30 +163,30 @@ instrumentation.newrelic.com/inject-ruby: "true"
Javaエージェントを計装するためのアノテーション付きのエージェントの例を参照してください。
```yaml
- apiVersion: apps/v1
- kind: Deployment
+apiVersion: apps/v1
+kind: Deployment
+metadata:
+ name: spring-petclinic
+spec:
+ selector:
+ matchLabels:
+ app: spring-petclinic
+ replicas: 1
+ template:
metadata:
- name: spring-petclinic
+ labels:
+ app: spring-petclinic
+ annotations:
+ instrumentation.newrelic.com/inject-java: "true"
spec:
- selector:
- matchLabels:
- app: spring-petclinic
- replicas: 1
- template:
- metadata:
- labels:
- app: spring-petclinic
- annotations:
- instrumentation.newrelic.com/inject-java: "true"
- spec:
- containers:
- - name: spring-petclinic
- image: ghcr.io/pavolloffay/spring-petclinic:latest
- ports:
- - containerPort: 8080
- env:
- - name: NEW_RELIC_APP_NAME
- value: spring-petclinic-demo
+ containers:
+ - name: spring-petclinic
+ image: ghcr.io/pavolloffay/spring-petclinic:latest
+ ports:
+ - containerPort: 8080
+ env:
+ - name: NEW_RELIC_APP_NAME
+ value: spring-petclinic-demo
```
このサンプル ファイルは、環境変数を使用してエージェント設定をグローバルに構成する方法を示しています。 利用可能なすべての設定オプションについては、各エージェントの設定ドキュメントを参照してください。
@@ -216,7 +216,7 @@ Javaエージェントを計装するためのアノテーション付きのエ
次の構文を使用して、nri-bundle チャートのアップグレードを実行します。
```shell
- k8s-agents-operator.enabled=true
+k8s-agents-operator.enabled=true
```
### スタンドアロン インストール
@@ -224,7 +224,7 @@ Javaエージェントを計装するためのアノテーション付きのエ
`helm upgrade`コマンドを実行して、Kubernetes エージェント オペレーターの新しいバージョンに更新します。
```shell
- helm upgrade k8s-agents-operator newrelic/k8s-agents-operator -n newrelic
+helm upgrade k8s-agents-operator newrelic/k8s-agents-operator -n newrelic
```
## Kubernetes エージェント オペレーターのアンインストール [#uninstall-k8s-operator]
@@ -234,7 +234,7 @@ Javaエージェントを計装するためのアノテーション付きのエ
nri-bundle チャートをアンインストールするか、オペレーターのみを削除する場合は、次の引数で helm upgrade を実行します。
```shell
- k8s-agents-operator.enabled=false
+k8s-agents-operator.enabled=false
```
### スタンドアロン インストール
@@ -242,7 +242,7 @@ nri-bundle チャートをアンインストールするか、オペレーター
Kubernetes エージェント オペレーターをアンインストールして削除するには、次のコマンドを実行します。
```shell
- helm uninstall k8s-agents-operator -n newrelic
+helm uninstall k8s-agents-operator -n newrelic
```
## データを見つけて使用する [#find-data]
@@ -300,26 +300,26 @@ Kubernetes エージェント オペレーターをアンインストールし
* シークレットとインストゥルメンテーション CRD がアプリのネームスペースにインストールされていることを確認します。
```shell
- kubectl get secrets -n
- kubectl get instrumentation -n
+ kubectl get secrets -n NAMESPACE
+ kubectl get instrumentation -n NAMESPACE
```
* ポッドに自動インストゥルメンテーションを有効にする注釈があることを確認します。
```shell
- kubectl get pod -n -o jsonpath='{.metadata.annotations}'
+ kubectl get pod POD_NAME -n NAMESPACE -o jsonpath='{.metadata.annotations}'
```
* エージェント オペレーター ポッドからログを取得します。
```shell
- kubectl logs -n newrelic
+ kubectl logs AGENT_OPERATOR_POD -n newrelic
```
* `init`コンテナがアプリケーションのポッド内に挿入され、正常に実行されたことを確認します。
```shell
- kubectl describe pod -n
+ kubectl describe pod POD_NAME -n NAMESPACE
```
## サポート [#support]
diff --git a/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx b/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx
index 4da56bc0e48..0d3fabb25c1 100644
--- a/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx
+++ b/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx
@@ -1,5 +1,5 @@
---
-title: 推奨アラートポリシー
+title: 推奨されるアラートポリシーとダッシュボード
tags:
- Integrations
- Kubernetes integration
@@ -8,23 +8,43 @@ freshnessValidatedDate: '2024-09-02T00:00:00.000Z'
translationType: machine
---
-最初に[Kubernetesインテグレーションをインストールする](/install/kubernetes/)ときに、 Kubernetesクラスタ上のアラート条件の基礎を形成する、推奨されるアラート条件のデフォルト セットがアカウントにデプロイされます。 これらの条件は、 **Kubernetes alert policy**というポリシーにグループ化されます。
+初めて[Kubernetesインテグレーションをインストールすると、Kubernetes クラスター上の](/install/kubernetes/)アラート条件とダッシュボードの基礎を形成する、推奨されるアラート条件とKubernetesボードのデフォルト セットがアカウントにデプロイされます。 アラート条件は、 [Kubernetes alert policy](#k8s-alert-conditions)と[Google Kubernetes Engine alert policy](#google-alert-policies)という 2 つのポリシーにグループ化されます。
-私たちはあらゆる環境で最も一般的なユースケースに対処しようとしましたが、デフォルトのポリシーを拡張するために設定できる追加のアラートがいくつかあります。 これらは私たちが推奨するアラート ポリシーです。
+私たちはあらゆる環境で最も一般的なユースケースに対処しようとしましたが、デフォルトのポリシーを拡張するために設定できる追加のアラートがいくつかあります。 アラートの詳細については、 [「New Relic アラートの使用開始」を](/docs/tutorial-create-alerts/create-new-relic-alerts/)参照してください。
-## 推奨アラートポリシーの追加 [#add-recommended-alert-policy]
+## 推奨アラート条件とダッシュボードの追加 [#add-recommended-alert-policy]
-推奨されるアラート ポリシーを追加するには、次の手順に従います。
+推奨されるアラートポリシーとダッシュボードを追加するには、次の手順に従います。
1. **[one.newrelic.com](https://one.newrelic.com) > Integrations & Agents**に移動します。
-2. 事前に構築されたリソースにアクセスするには、 **Alerts**選択します。
+2. 検索ボックスに `kubernetes`と入力します。
-
+
-3. **Kubernetes**を検索し、追加する推奨アラート ポリシーを選択します。
+3. 次のいずれかのオプションを選択します。
-
+ * **Kubernetes**: 推奨されるアラート条件のデフォルト セットとダッシュボードを追加します。
+
+ * **Google Kubernetes Engine**: 推奨される Google Kubernetes エンジンのアラート条件とダッシュボードのデフォルト セットを追加します。
+
+4. Kubernetesインテグレーションをインストールする必要がある場合は **Begin installation** をクリックし、すでにこのインテグレーションをセットアップしている場合は **Skip this step** をクリックします。
+
+5. 手順 3 で選択したオプションに応じて、追加するさまざまなリソースが表示されます。
+
+
+
+
+ 手順 3 で**Kubernetes**選択した場合に推奨されるアラート条件とダッシュボードのデフォルトのセット。
+
+
+
+
+
+ 手順 3 で**Google Kubernetes Engine**選択した場合に推奨される Google Kubernetes エンジン アラート条件とダッシュボードのデフォルトのセット。
+
+
+6. **See your data**をクリックすると、New Relic の Kubernetes データを含むダッシュボードが表示されます。
## 推奨アラートポリシーを確認する方法 [#see-recommended-alert-policy]
@@ -38,90 +58,112 @@ translationType: machine
+## Kubernetesダッシュボードの見方 [#see-dashboards]
+
+一般的なユースケースの Kubernetes データを即座に視覚化できるようにするために、推奨される事前構築済みダッシュボードのコレクションがあります。 これらのダッシュボードを表示する方法については、 [「推奨ダッシュボードの管理」を](/docs/query-your-data/explore-query-data/dashboards/prebuilt-dashboards)参照してください。
+
## Kubernetes アラートポリシー [#k8s-alert-conditions]
これは、追加する推奨アラート条件のデフォルトのセットです。
-
+
+ このダッシュボードには、一般的なユースケースの Kubernetes データを即座に視覚化するのに役立つグラフと視覚化が含まれています。
+
+
+
このアラート条件は、コンテナが 5 分間以上 25% 以上スロットルされた場合に分割を生成します。 次のクエリを実行します:
```sql
FROM K8sContainerSample
SELECT sum(containerCpuCfsThrottledPeriodsDelta) / sum(containerCpuCfsPeriodsDelta) * 100
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerCPUThrottling.yaml)参照してください。
-
+
このアラート条件は、制限に対するコンテナの平均 CPU 使用率が 5 分以上にわたって 90% を超えた場合に分割を生成します。 次のクエリを実行します:
```sql
FROM K8sContainerSample
SELECT average(cpuCoresUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerHighCPUUtil.yaml)参照してください。
-
+
このアラート条件は、制限に対するコンテナ メモリの平均使用量が 5 分間以上にわたって 90% を超えた場合に、分割を生成します。 次のクエリを実行します:
```sql
FROM K8sContainerSample
SELECT average(memoryWorkingSetUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerHighMemUtil.yaml)参照してください。
-
+
このアラート条件は、コンテナの再起動が 5 分間のスライディング ウィンドウ内で 0 を超えると、分割を生成します。 次のクエリを実行します:
```sql
FROM K8sContainerSample
SELECT sum(restartCountDelta)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerRestarting.yaml)参照してください。
-
+
このアラート条件は、コンテナが 5 分を超えて待機する場合に分割を生成します。 次のクエリを実行します:
```sql
FROM K8sContainerSample
SELECT uniqueCount(podName)
- WHERE status = 'Waiting' and clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') FACET containerName, podName, namespaceName, clusterName
+ WHERE status = 'Waiting' AND clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerWaiting.yaml)参照してください。
-
+
このアラート条件は、daemonset に 5 分を超える期間ポッドが欠落している場合に一括を生成します。 次のクエリを実行します:
```sql
FROM K8sDaemonsetSample
SELECT latest(podsMissing)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet daemonsetName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET daemonsetName, namespaceName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/DaemonsetPodsMissing.yaml)参照してください。
-
+
このアラート条件は、デプロイメントに 5 分を超えてポッドが欠落している場合に分割を生成します。 次のクエリを実行します:
```sql
FROM K8sDeploymentSample
SELECT latest(podsMissing)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet deploymentName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET deploymentName, namespaceName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/DeploymentPodsMissing.yaml)参照してください。
@@ -131,7 +173,7 @@ translationType: machine
id="etcd-utilization-high"
title={<>
Etcd
- ファイル記述子の使用率が高い>
+ ファイル記述子の使用率が高い (アラート条件)>
}
>
このアラート条件は、 `Etcd`ファイル記述子の使用率が 5 分間以上にわたって 90% を超えた場合に、分割を生成します。 次のクエリを実行します:
@@ -139,7 +181,8 @@ translationType: machine
```sql
FROM K8sEtcdSample
SELECT max(processFdsUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet displayName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET displayName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/EtcdFileDescriptors.yaml)参照してください。
@@ -149,7 +192,7 @@ translationType: machine
id="etcd-no-leader"
title={<>
Etcd
- リーダーがいない>
+ リーダーがいない(アラート条件)>
}
>
このアラート条件は、 `Etcd`ファイル記述子が 1 分を超えてリーダーレスである場合に分割を生成します。 次のクエリを実行します:
@@ -157,37 +200,42 @@ translationType: machine
```sql
FROM K8sEtcdSample
SELECT min(etcdServerHasLeader)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet displayName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET displayName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/EtcdHasNoLeader.yaml)参照してください。
-
+
このアラート条件は、水平ポッド オートスケーラーの現在のレプリカが目的のレプリカよりも 5 分以上低い場合に集計を生成します。 次のクエリを実行します:
```sql
FROM K8sHpaSample
SELECT latest(desiredReplicas - currentReplicas)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet displayName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET displayName, namespaceName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/HPAMissingReplicas.yaml)参照してください。
-
+
このアラート条件は、水平ポッド オートスケーラーが 5 つのレプリカを超えると、集計を生成します。 次のクエリを実行します:
```sql
FROM K8sHpaSample
SELECT latest(maxReplicas - currentReplicas)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet displayName, namespaceName, clusterName
+ WHERE clusterName in ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET displayName, namespaceName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/HPAMaxReplicas.yaml)参照してください。
-
+
このアラート条件は、ジョブが失敗ステータスを報告したときに集計を生成します。 次のクエリを実行します:
```sql
@@ -199,121 +247,144 @@ translationType: machine
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/JobFailed.yaml)参照してください。
-
+
このアラート条件は、ネームスペース内の 5 つを超えるポッドが 5 分以上失敗した場合に集計を生成します。 次のクエリを実行します:
```sql
FROM K8sPodSample
SELECT uniqueCount(podName)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') and status = 'Failed' facet namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ AND status = 'Failed'
+ FACET namespaceName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodsFailingNamespace.yaml)参照してください。
-
+
このアラート条件は、平均ノード割り当て可能 CPU 使用率が 5 分を超えて 90% を超えた場合に分割を生成します。 次のクエリを実行します:
```sql
FROM K8sNodeSample
SELECT average(allocatableCpuCoresUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighAllocatableCPUUtil.yaml)参照してください。
-
+
このアラート条件は、ノードの割り当て可能なメモリの平均使用率が 5 分を超えて 90% を超えた場合に分割を生成します。 次のクエリを実行します:
```sql
FROM K8sNodeSample
SELECT average(allocatableMemoryUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighAllocatableMemUtil.yaml)参照してください。
-
+
このアラート条件は、ノードが 5 分間利用できない場合に加算を生成します。 次のクエリを実行します:
```sql
FROM K8sNodeSample
SELECT latest(condition.Ready)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeIsNotReady.yaml)参照してください。
-
+
このアラート条件は、ノードがスケジュールされていないとマークされている場合に分割を生成します。 次のクエリを実行します:
```sql
FROM K8sNodeSample
SELECT latest(unschedulable)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeUnschedulable.yaml)参照してください。
-
+
このアラート条件は、ノードの実行中のポッドが 5 分を超えてノードのポッド容量の 90% を超えた場合に集計を生成します。 次のクエリを実行します:
```sql
FROM K8sPodSample, K8sNodeSample
- SELECT ceil(filter(uniqueCount(podName)
- WHERE status = 'Running') / latest(capacityPods) * 100) as 'Pod Capacity %' where nodeName != '' and nodeName is not null and clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ SELECT ceil
+ (filter
+ (
+ uniqueCount(podName),
+ WHERE status = 'Running'
+ ) / latest(capacityPods) * 100
+ ) AS 'Pod Capacity %'
+ WHERE nodeName != '' AND nodeName IS NOT NULL
+ AND clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodePodCapacity.yaml)参照してください。
-
+
このアラート条件は、ノード ルート ファイル システムの平均容量使用率が 5 分を超えて 90% を超えた場合に加算を生成します。 次のクエリを実行します:
```sql
FROM K8sNodeSample
SELECT average(fsCapacityUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighFSCapacityUtil.yaml)参照してください。
-
+
このアラート条件は、永続ボリュームが 5 分を超えて失敗または保留状態にある場合に、分割を生成します。 次のクエリを実行します:
```sql
FROM K8sPersistentVolumeSample
SELECT uniqueCount(volumeName)
- WHERE statusPhase in ('Failed','Pending') and clusterName in ('YOUR_CLUSTER_NAME') facet volumeName, clusterName
+ WHERE statusPhase IN ('Failed','Pending')
+ AND clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET volumeName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PersistentVolumeErrors.yaml)参照してください。
-
+
このアラート条件は、ポッドを 5 分を超えてスケジュールできない場合に一括を生成します。 次のクエリを実行します:
```sql
FROM K8sPodSample
SELECT latest(isScheduled)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET podName, namespaceName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodNotScheduled.yaml)参照してください。
-
+
このアラート条件は、ポッドが 5 分以上利用できない場合に、集計を生成します。 次のクエリを実行します:
```sql
FROM K8sPodSample
SELECT latest(isReady)
- WHERE status not in ('Failed', 'Succeeded') where clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet podName, namespaceName, clusterName
+ WHERE status NOT IN ('Failed', 'Succeeded')
+ AND clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET podName, namespaceName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodNotReady.yaml)参照してください。
@@ -323,7 +394,7 @@ translationType: machine
id="statefulset-missing-pods"
title={<>
statefulset
- ポッドが不足しています>
+ ポッドがありません (アラート条件)>
}
>
このアラート条件は、 `statefulset`にポッドが 5 分間以上存在しない場合に集計を生成します。 次のクエリを実行します:
@@ -331,7 +402,9 @@ translationType: machine
```sql
FROM K8sStatefulsetSample
SELECT latest(podsMissing)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet daemonsetName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET daemonsetName, namespaceName, clusterName
```
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/StatefulsetPodsMissing.yaml)参照してください。
@@ -343,7 +416,11 @@ translationType: machine
これは、追加する推奨される Google Kubernetes エンジン アラート条件のデフォルトのセットです。
-
+
+ このダッシュボードには、一般的なユースケースの Google Kubernetes データを即座に視覚化するのに役立つグラフと視覚化が含まれています。
+
+
+
このアラート条件は、ノードの CPU 使用率が少なくとも 15 分間 90% を超えた場合に加算を生成します。 次のクエリを実行します:
```sql
@@ -355,7 +432,7 @@ translationType: machine
詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/google-kubernetes-engine/HighCPU.yml)参照してください。
-
+
このアラート条件は、ノードのメモリ使用量が総容量の 85% を超えた場合に、分割を生成します。 次のクエリを実行します:
```sql
diff --git a/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx b/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx
index 4d990034a58..7983e856d8d 100644
--- a/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx
+++ b/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx
@@ -315,6 +315,10 @@ translationType: machine
+
+ `InternalK8sCompositeSample` これはNew Relic生成するイベントであり、 [Kubernetesクラスタ エクスプローラー](/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/kubernetes-cluster-explorer/#cluster-explorer-use)にとって非常に重要です。 このイベントがないと、UI に Kubernetes データが表示されません。 表にリストされているイベントはすべて課金対象ですが、 `InternalK8sCompositeSample`は課金対象外のイベントです。 詳細については、 [「データ取り込み: 課金とルール」を](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/)参照してください。
+
+
### APMが監視するアプリケーションにおけるKubernetesのメタデータ [#apm-custom-attributes]
[アプリケーションをKubernetesに接続すると、](/docs/kubernetes-pixie/kubernetes-integration/advanced-configuration/link-apm-applications-kubernetes/)次のプロパティがアプリケーション データとディストリビューティッド(分散)トレーシング メタデータに追加されます。
diff --git a/src/i18n/content/jp/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx b/src/i18n/content/jp/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx
index 37d9d18f467..22e0d8a3277 100644
--- a/src/i18n/content/jp/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx
+++ b/src/i18n/content/jp/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx
@@ -27,7 +27,7 @@ New Relicここでは、OpenTelemetry インストゥルメンテーションを
サービス エンティティは[、サービス インスタンス](https://opentelemetry.io/docs/specs/semconv/resource/#service)を記述する OpenTelemetry リソースのセマンティック規則に従って合成されます。
-OpenTelemetry を使用してサービス エンティティを監視する方法については、[ドキュメントと例](/docs/opentelemetry/get-started/opentelemetry-set-up-your-app)を参照してください。
+OpenTelemetry を使用してサービス エンティティを監視する方法については[、ドキュメントと例](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro)を参照してください。
#### 必要な属性 [#service-required-attributes]
diff --git a/src/i18n/content/jp/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx b/src/i18n/content/jp/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx
index 92b361f657c..c14edf4a89f 100644
--- a/src/i18n/content/jp/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx
+++ b/src/i18n/content/jp/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx
@@ -28,4 +28,8 @@ translationType: machine
## OpenTelemetry APM によるインフラストラクチャの相関 [#infrastructure-correlation]
-次の例は、コレクターを使用して[APM OpenTelemetry を](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro)インフラストラクチャ データと相関させる方法を示しています。 一般的なパターンは、OTLP 経由でデータを にエクスポートする前に、 テレメトリーを検出し、リソース プロパティの形式で追加の環境コンテキストを使用して強化するプロセッサーを備えたコレクターを構成することです。APMNew RelicNew Relic はこの相関データを検出し、[リソース](/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources)を介して APM とインフラストラクチャ エンティティ間の関係を構築します。
\ No newline at end of file
+次の例は、コレクターを使用して[APM OpenTelemetry を](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro)インフラストラクチャ データと相関させる方法を示しています。
+
+* [ホストリポジトリの例](https://github.com/newrelic/newrelic-opentelemetry-examples/tree/main/other-examples/collector/host-monitoring)
+
+一般的なパターンは、OTLP 経由でデータを にエクスポートする前に、 テレメトリーを検出し、リソース プロパティの形式で追加の環境コンテキストを使用して強化するプロセッサーを備えたコレクターを構成することです。APMNew RelicNew Relic はこの相関データを検出し、[リソース](/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources)を介して APM とインフラストラクチャ エンティティ間の関係を構築します。
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx b/src/i18n/content/kr/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx
index 62d89f98265..a6f85f1f0bd 100644
--- a/src/i18n/content/kr/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx
+++ b/src/i18n/content/kr/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx
@@ -30,34 +30,22 @@ New Relic 파트너로부터 특별 제안을 받은 경우 파트너의 링크
### A - M 파트너 [#a-m-partners]
-
+
앱용으로 AWS를 설치할 것인지 호스트용으로 설치할 것인지에 따라 다른 설치 및 페이지 보기 절차가 적용됩니다. 자세한 내용은 [Amazon Web Services(AWS) 사용자](/docs/accounts-partnerships/partnerships/partner-based-installation/amazon-web-services-aws-users) 를 참조하십시오.
-
- [Google Cloud Platform (GCP) 파트너](https://newrelic.com/partner/gcp) 로서 뉴렐릭은 [App Engine 가변형 환경을](https://cloud.google.com/appengine/docs/flexible) 지원합니다. 각 에이전트에는 [GAE Flex 환경에 대한 자체 요구사항이](/docs/accounts-partnerships/partnerships/google-cloud-platform-gcp/google-app-engine-environment) 있습니다. 뉴렐릭 에이전트를 설치한 후 [APM](/docs/apm/new-relic-apm/getting-started/introduction-new-relic-apm) 으로 앱 성능을 볼 수 있습니다.
+
+ [Google Cloud Platform (GCP) 파트너](https://newrelic.com/partner/gcp) 로서 뉴렐릭은 [App Engine 가변형 환경을](https://cloud.google.com/appengine/docs/flexible) 지원합니다. 각 에이전트에는 [GAE Flex 환경에 대한 자체 요구사항이](/docs/accounts-partnerships/partnerships/google-cloud-platform-gcp/google-app-engine-environment) 있습니다. 뉴렐릭 에이전트를 설치한 후 [APM](/docs/apm/new-relic-apm/getting-started/introduction-new-relic-apm) 으로 앱 성능을 볼 수 있습니다.
-
- [Heroku](https://www.heroku.com/) 는 웹 호스팅이 가능한 PaaS(Platform as a Service) 솔루션입니다. 뉴렐릭 Heroku 추가 기능을 사용하면 및 의 지표로 Heroku 확장할 수 있습니다. 뉴렐릭 추가 기능은 Java, Node.js, PHP, 파이썬, 루비. Heroku 와 함께 뉴렐릭을 설치하고 사용하는 방법에 대한 자세한 내용은 다음을 참조하세요.
+
+ [Heroku](https://www.heroku.com/) 는 웹 호스팅이 가능한 PaaS(Platform as a Service) 솔루션입니다. 뉴렐릭 Heroku 추가 기능을 사용하면 및 의 지표로 Heroku 확장할 수 있습니다. 뉴렐릭 추가 기능은 Java, Node.js, PHP, 파이썬, 루비. Heroku 와 함께 뉴렐릭을 설치하고 사용하는 방법에 대한 자세한 내용은 다음을 참조하세요.
* [Heroku 개발자 센터 문서](https://devcenter.heroku.com/articles/newrelic "링크가 새 창에서 열립니다.")
* [Heroku 설치에 대한 New Relic의 문서](/docs/accounts-partnerships/partnerships/heroku-new-relic/heroku-installing-new-relic)
-
+
Magento는 New Relic과 파트너 관계를 맺어 판매자가 데이터 및 즉시 사용 가능한 도구에 더 빠르게 액세스할 수 있도록 했습니다. [New Relic Reporting Extension](http://www.magentocommerce.com/magento-connect/new-relic-reporting.html) 은 전자 상거래 비즈니스가 데이터 기반 의사 결정을 내리는 데 도움이 됩니다.
PHP 앱용 [Magento](http://newrelic.com/magento) 로 New Relic 계정을 생성하려면:
@@ -73,10 +61,7 @@ New Relic 파트너로부터 특별 제안을 받은 경우 파트너의 링크
### N - Z 파트너 [#n-z-partners]
-
+
[Pantheon](https://pantheon.io/features/new-relic) 을 통해 New Relic 계정을 만들고 New Relic에 로그인하려면:
1. [뉴렐릭이 있는 Pantheon의 파트너 페이지](https://pantheon.io/features/new-relic) 에서 **sign up** 링크를 선택하세요.
@@ -88,10 +73,7 @@ New Relic 파트너로부터 특별 제안을 받은 경우 파트너의 링크
몇 분 후에 [APM **Overview** 페이지](/docs/apm/applications-menu/monitoring/applications-overview-dashboard) 에서 앱 성능을 확인할 수 있습니다. 자세한 내용은 [Pantheon 문서 를](https://pantheon.io/docs/new-relic/) 참조하세요.
-
+
[Rackspace Cloud Tools](https://www.rackspace.com) 를 통해 계정을 만들고 New Relic에 로그인하려면 다음 기본 절차를 따르세요. 자세한 내용은 [Rackspace Cloud Load Balancer 플러그인](/docs/accounts-partnerships/accounts/install-new-relic/partner-based-installation/rackspace-cloud-load-balancer-plugin) 을 참조하십시오.
1. cloudtools.rackspace.com/myapps에서 [CloudTools](https://cloudtools.rackspace.com/myapps) 계정에 로그인합니다.
@@ -105,10 +87,7 @@ New Relic 파트너로부터 특별 제안을 받은 경우 파트너의 링크
몇 분 정도 기다린 후 [APM **Overview** 페이지](/docs/apm/applications-menu/monitoring/applications-overview-dashboard) 에서 앱 성능을 확인하세요.
-
+
[W3 Total Cache](https://wordpress.org/plugins/w3-total-cache/) 를 통해 계정을 생성하고 New Relic에 로그인하려면 API 키만 받는 것이 아니라 W3 PHP 에이전트를 설치하고 실행해야 합니다.
@@ -129,17 +108,14 @@ New Relic 파트너로부터 특별 제안을 받은 경우 파트너의 링크
3. New Relic이 데이터 수집을 시작할 때까지 기다리십시오.
- 에이전트를 배포한 후 몇 분 안에 앱에 대한 성능 데이터가 APM의 [애플리케이션 개요 페이지](/docs/apm/applications-menu/monitoring/applications-overview-dashboard) 에 나타납니다.
+ 구현 후 몇 분 내에 앱에 대한 에이전트, 성능 데이터가 APM [설계 개요](/docs/apm/applications-menu/monitoring/applications-overview-dashboard) 페이지에 표시됩니다.
[WordPress](https://wordpress.org/plugins/rt-newrelic-browser/) 는 [브라우저 모니터링](/docs/agents/php-agent/installation/wordpress-users-new-relic#browser) 을 위한 플러그인도 제공합니다.
-
+
[Windows Azure](https://www.windowsazure.com/) 는 .NET 및 Node.js를 비롯한 다양한 언어를 사용하여 웹 애플리케이션을 호스팅할 수 있는 PaaS(Platform as a Service) 솔루션입니다.
Azure에서 .NET 에이전트를 사용하는 방법에 대한 자세한 내용은 다음을 참조하세요.
@@ -154,4 +130,4 @@ New Relic 파트너로부터 특별 제안을 받은 경우 파트너의 링크
Azure와 함께 Node.js 에이전트를 설치하고 사용하는 방법에 대한 자세한 내용은 [Microsoft Azure의 Node.js 에이전트를](/docs/agents/nodejs-agent/hosting-services/nodejs-agent-microsoft-azure) 참조하세요.
-
+
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/apis/intro-apis/new-relic-api-keys.mdx b/src/i18n/content/kr/docs/apis/intro-apis/new-relic-api-keys.mdx
index ca66d159ce7..316dafc6e24 100644
--- a/src/i18n/content/kr/docs/apis/intro-apis/new-relic-api-keys.mdx
+++ b/src/i18n/content/kr/docs/apis/intro-apis/new-relic-api-keys.mdx
@@ -9,13 +9,9 @@ freshnessValidatedDate: never
translationType: machine
---
-당사의 모니터링 솔루션과 API는 API 키를 사용하여 귀하의 신원을 인증하고 확인합니다. 이 키를 사용하면 조직에서 승인된 사람만 뉴렐릭에 데이터를 보고하고 해당 데이터에 액세스하고 기능을 구성할 수 있습니다. 기본 키는 볼륨 키(데이터 보고용)와 (GraphQL API 인 NerdGraph 작업용)입니다.
+당사의 모니터링 솔루션과 API는 API 키를 사용하여 귀하의 신원을 인증하고 확인합니다. 이 키를 사용하면 조직에서 승인된 사람만 뉴렐릭에 데이터를 보고하고 해당 데이터에 액세스하고 기능을 구성할 수 있습니다. 기본 키는 볼륨 키(데이터 보고용)와 (GraphQL API 인 NerdGraph 작업용)입니다.
-
+
API 키로 시작하려면:
@@ -131,49 +127,35 @@ API 키로 시작하려면:
## API 키 보기 및 관리 [#keys-ui]
-[API 키 UI 페이지](https://one.newrelic.com/api-keys) 에서 대부분의 API 키를 보고 관리할 수 있습니다. 이를 찾으려면 [사용자 메뉴](/docs/accounts/accounts-billing/general-account-settings/intro-account-settings/#user-menu) 에서 **API keys** 클릭하세요. 당신은 또한 수:
+을 클릭하면 [사용자 메뉴](/docs/accounts/accounts-billing/general-account-settings/intro-account-settings/#user-menu) 에 위치한 [API 키 UI 페이지](https://one.newrelic.com/api-keys) 에서 대부분의 키를 관리할 수API **API keys** 있습니다.
-* [NerdGraph 탐색기를 사용](/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph#explorer)하여 사용자 키 확인 및 생성
-* [NerdGraph API](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys)를 사용해 라이선스 키, 브라우저 키 및 사용자 키를 프로그래밍 가능한 방식으로 관리
-
-[계정 ID](/docs/accounts/accounts-billing/account-setup/account-id)는 뉴렐릭에 데이터를 보고할 때 종종 필요한 또 다른 식별 번호입니다.
-
-## UI에서의 키 복사 방법 [#copy-keys]
-
-[**one.newrelic.com/api-keys**](https://one.newrelic.com/api-keys) 에서 기존 API 키와 해당 ID를 복사할 수 있습니다.
-
-* **Copy key**: 키 자체의 값을 복사합니다.
-* **Copy key ID**: API를 통해 키 개체를 참조하는 데 때때로 필요한 키의 ID를 복사합니다.
-* **Copy truncated key**: 이 옵션은 귀하의 것이 아닌 키에 사용할 수 있습니다. 키에서 몇 자리 숫자만 복사하므로 내부 키 추적이나 지원팀과의 대화에 유용할 수 있습니다.
+NerdGraph에서 키를 보려면 키 ID를 복사하세요. [NerdGraph를 사용하여 키를 관리할](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys)수도 있습니다.
## API 키 관리에 대한 권장사항 [#security-practices]
API 키가 잘못된 사람의 손에 들어가면 보안 위험이 발생할 수 있습니다. 예를 들어:
-* 귀하의 가진 누군가가 귀하의 계정으로 임의의 데이터를 보낼 수 있습니다.
+* 귀하의 가진 누군가가 귀하의 계정으로 임의의 데이터를 보낼 수 있습니다.
* 팀원의 사용자 키 중 하나를 가진 사람이 New Relic 데이터를 보고 New Relic 계정을 변경할 수 있습니다.
비밀번호 및 기타 민감한 정보와 마찬가지로 API 키를 안전하게 취급해야 합니다. 몇 가지 권장 사항:
* 라이센스 키와 브라우저 키의 경우 키 순환 전략 구현을 고려하십시오. 새 키를 만들고 정해진 일정에 따라 이전 키를 삭제하십시오. 고려 사항:
- * 계정과 연결된 원래 키는 삭제할 수 없으므로 강력한 보안 전략을 구현하려면 나중에 삭제할 수 있는 추가 키를 생성해야 합니다.
+ * 계정에 연결된 원래 수집 키는 삭제할 수 없으므로 나중에 삭제할 수 있는 추가 수집 키를 만드는 것이 좋습니다. 이를 통해 강력한 보안 태세를 갖추는 것이 가능합니다.
* 모바일 앱 토큰에는 적용되지 않습니다. 토큰을 삭제하거나 추가 토큰을 만들 수 없습니다.
-* 의 경우:
+* 의 경우:
* 팀원들에게 사용자 키를 안전하게 유지하도록 지시하십시오.
- * 직원이 조직을 떠나면 뉴렐릭에서 제거해야 합니다.
+ * 구성원이 조직을 떠날 때 뉴렐릭에서 해당 사용자 ID를 제거하세요. 이렇게 하면 사용자 ID와 연결된 모든 사용자 키가 비활성화됩니다.
## API 키 순환 [#rotate-keys]
API 키를 순환하는 가장 일반적인 4가지 방법은 다음과 같습니다.
-
+
[라이선스 키](/docs/apis/intro-apis/new-relic-api-keys/#license-key)는 거의 모든 데이터를 보고하는 데 사용됩니다. (자체 키를 사용하는 브라우저 및 모바일 모니터링 데이터 제외) 각 키는 특정 계정에 연결되어 있으며 사용자는 원하는 만큼 키를 생성할 수 있습니다. 라이선스 키는 업데이트할 수 없으며 삭제한 후 새 키를 생성하여 교체해야 합니다.
(또는 [**one.eu.newrelic.com/api-keys**](https://one.eu.newrelic.com/api-keys) EU [**one.newrelic.com/api-keys**](https://one.newrelic.com/api-keys) 데이터 센터의 경우 )에서 API 키 에서 귀하의 계정에 대한 키를 찾을 수 있습니다.UI [모든 제품 관리자 권한](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts/#standard-roles) 이나 해당 키를 볼 수 있는 사용자 지정 역할이 없으면 사용 권한이 있는 키만 표시됩니다.
@@ -188,51 +170,28 @@ API 키를 순환하는 가장 일반적인 4가지 방법은 다음과 같습
3. **API keys** 페이지 오른쪽 상단에 있는 **Create a key** 클릭하세요.
-
+
4. 새 키 이름을 입력하고 **Key type** 에 대해 **Ingest - License** 선택한 다음 선택적 설명을 추가하고 **Save** 클릭합니다.
-
+
5. 새 키/값으로 이전 키를 참조하는 모든 파일이나 코드를 업데이트하세요. 새 키와 동일한 행에 있는 **...** 아이콘을 클릭한 후 **Copy key** 클릭하면 새 키를 찾을 수 있습니다.
-
+
6. 외부 의존성/종속성이 업데이트되면 이전 키와 동일한 행에 있는 **...** 아이콘을 클릭한 후 **Delete** 클릭하여 이전 키를 안전하게 삭제할 수 있습니다.
-
+
7. 키가 성공적으로 삭제되면 오른쪽 하단에 다음 메시지가 표시됩니다.
-
+
NerdGraph API를 통해 라이선스 키를 관리할 수도 있습니다. 지침은 [NerdGraph 튜토리얼: API 키 관리](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys/)를 참조하십시오.
-
+
브라우저 키는 브라우저 모니터링 데이터를 보고하는 데 사용됩니다. 각 키는 특정 계정에 연결되어 있으며 고객은 원하는 만큼 키를 생성할 수 있습니다.
(또는 [**one.eu.newrelic.com/api-keys**](https://one.eu.newrelic.com/api-keys) EU [**one.newrelic.com/api-keys**](https://one.newrelic.com/api-keys) 데이터 센터의 경우 )의 API 키 에서 귀하의 계정에 대한 브라우저 키를 찾을 수 있습니다.UI [모든 제품 관리자 권한](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts/#standard-roles) 이나 해당 키를 볼 수 있는 사용자 지정 역할이 없으면 사용 권한이 있는 키만 표시됩니다.
@@ -247,59 +206,33 @@ API 키를 순환하는 가장 일반적인 4가지 방법은 다음과 같습
3. **API keys** 페이지 오른쪽 상단에 있는 **Create a key** 클릭하세요.
-
+
4. 새 키 이름을 입력하고 **Key type** 에 대해 **Ingest - Browser** 선택한 다음 선택적 설명을 추가하고 **Save** 클릭합니다.
-
+
5. 새 키/값으로 이전 키를 참조하는 모든 파일이나 코드를 업데이트하세요. 새 키와 동일한 행에 있는 **...** 아이콘을 클릭한 후 **Copy key** 클릭하면 새 키를 찾을 수 있습니다.
-
+
6. 외부 의존성/종속성이 업데이트되면 이전 키와 동일한 행에 있는 **...** 아이콘을 클릭한 후 **Delete** 클릭하여 이전 키를 안전하게 삭제할 수 있습니다.
-
+
7. 키가 성공적으로 삭제되면 오른쪽 하단에 다음 메시지가 표시됩니다.
-
+
-
+
모바일 모니터링은 라이선스 키 대신 모바일 앱 토큰을 사용하여 데이터를 보고합니다. 모바일 앱 토큰은 모두 고유하며 애플리케이션이 NR1에 등록될 때마다 다시 생성됩니다. 앱과 연결된 모바일 키를 순환하려면 뉴렐릭에서 앱을 다시 인증해야 합니다.
앱 토큰에 대한 보다 자세한 내용은 [모바일 모니터링 설정 구성](/docs/mobile-monitoring/new-relic-mobile/maintenance/configure-settings-for-mobile-monitoring/#application-token)을 참조하십시오.
-
- NerdGraph 및 REST API 를 사용하려면 "개인 API 키"라고도 하는 뉴렐릭 사용자 키가 필요합니다. 키는 조직이나 특정 사용자에게 속할 수 있습니다.
+
+ NerdGraph 및 REST API 를 사용하려면 "개인 API 키"라고도 하는 뉴렐릭 사용자 키가 필요합니다. 키는 조직이나 특정 사용자에게 속할 수 있습니다.
(또는 [**one.eu.newrelic.com/api-keys**](https://one.eu.newrelic.com/api-keys) EU [**one.newrelic.com/api-keys**](https://one.newrelic.com/api-keys) 데이터센터의 경우 )의 API 키 에서 귀하 계정의 사용자 키를 찾을 수 있습니다.UI 모든 제품 관리자 권한이나 해당 키를 볼 수 있는 사용자 지정 역할이 없으면 사용 권한이 있는 키만 표시됩니다.
@@ -315,55 +248,32 @@ API 키를 순환하는 가장 일반적인 4가지 방법은 다음과 같습
3. **API keys** 페이지 오른쪽 상단에 있는 **Create a key** 클릭하세요.
-
+
4. 새 키 이름을 입력하고 **Key type** 에 대해 **User** 선택한 다음 선택적 설명을 추가하고 **Save** 클릭합니다.
-
+
5. 새 키/값으로 이전 키를 참조하는 모든 파일이나 코드를 업데이트하세요. 새 키와 동일한 행에 있는 **...** 아이콘을 클릭한 후 **Copy key** 클릭하면 새 키를 찾을 수 있습니다.
-
+
6. 외부 의존성/종속성이 업데이트되면 이전 키와 동일한 행에 있는 **...** 아이콘을 클릭한 후 **Delete** 클릭하여 이전 키를 안전하게 삭제할 수 있습니다.
-
+
7. 키가 성공적으로 삭제되면 오른쪽 하단에 다음 메시지가 표시됩니다.
-
+
- NerdGraph API를 통해 사용자 키를 관리할 수도 있습니다. 지침은 [NerdGraph 튜토리얼: API 키 관리](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys/)를 참조하십시오.
+ NerdGraph API를 통해 사용자 키를 관리할 수도 있습니다. 지침은 [NerdGraph 튜토리얼: API 키 관리](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys/)를 참조하십시오.
또한 오래되거나 덜 일반적인 API 키 유형도 있습니다. 이러한 키를 순환하려면 다음을 수행합니다.
-
+
이는 고객이 사용하도록 권장하지 않지만 뉴렐릭에서 지원되고 있는 이전 키입니다. 이러한 키는 메트릭, 이벤트, 로그 및 트레이스 API를 통해 데이터를 수집하는 데 사용되며 전체 조직에 적용됩니다.
이러한 키를 순환하려면 다음을 수행합니다.
@@ -374,35 +284,20 @@ API 키를 순환하는 가장 일반적인 4가지 방법은 다음과 같습
3. 페이지 왼쪽에서 **Looking for other keys?** 섹션을 찾아 교체하려는 키 유형에 대한 링크를 클릭합니다.
-
+
4. 새 삽입 또는 쿼리 키를 만들려면 **+** 아이콘을 클릭하세요.
-
+
5. 이전 키를 참조하는 모든 파일이나 코드를 새로운 핵심 가치로 업데이트하세요.
6. 외부 의존성/종속성이 업데이트되면 이전 키를 안전하게 삭제할 수 있습니다. 키를 제거하려면 해당 키 위에 마우스를 놓고 **Delete** 클릭하세요.
-
+
-
+
이는 더 이상 사용되지 않지만 뉴렐릭에서 계속 지원되는 오래된 키입니다. 이제 REST API 키 대신 사용자 키를 사용하는 것이 좋습니다.
이 키를 순환할 수는 없지만 삭제할 수는 있습니다.
@@ -413,29 +308,19 @@ API 키를 순환하는 가장 일반적인 4가지 방법은 다음과 같습
3. 페이지 왼쪽에서 **Looking for other keys?** 섹션을 찾아 **REST API key** 클릭합니다.
-
+
4. **Delete REST API Key** 을(를) 클릭합니다.
-
+
Pixie API 키는 Pixie 플랫폼에 커스텀 애플리케이션을 인증하는 데 사용됩니다. Pixie API 키는 수정할 수 없습니다. Pixie API 키를 순환하려면 새 키를 생성한 다음 이전 키를 삭제해야 합니다. Pixie API 키에 대한 보다 자세한 내용은 Pixie 문서의 [API 키 관리](https://docs.px.dev/reference/admin/api-keys/)를 참조하십시오.
-
+
파트너십 API는 뉴렐릭 담당자가 이를 사용해야 한다고 구체적으로 안내하지 않는 한 조직에서 사용할 수 없습니다. API에 대한 보다 자세한 내용은 [파트너십 API 참조](/docs/new-relic-partnerships/partnerships/partner-api/partner-api-reference/)를 확인하시기 바랍니다.
- 키를 보거나 재생성하려면 파트너십 소유자 자격 증명을 사용하여 뉴렐릭에 로그인한 다음 **Partnerships > Edit settings**s로 이동하세요.
+ 키를 보거나 재생성하려면 파트너십 소유자 자격 증명을 사용하여 뉴렐릭에 로그인한 다음 **Partnerships > Edit settings**s로 이동하세요.
@@ -444,64 +329,45 @@ API 키를 순환하는 가장 일반적인 4가지 방법은 다음과 같습
API 키를 생성하거나 관리하려면 [one.newrelic.com/launcher/api-keys-ui.api-keys-launcher](https://one.newrelic.com/launcher/api-keys-ui.api-keys-launcher) 의 UI 또는 [NerdGraph API를 사용](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys) 하십시오. 자세한 내용을 보려면 키를 선택하십시오.
-
+
데이터 수집에 사용되는 주요 키를 라이선스 키라고 합니다. API 키 UI 및 [NerdGraph](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys) 에서 이 키는 때때로 `ingest - license` 으로 참조됩니다.
거의 모든 New Relic 데이터 수집에는 라이센스 키가 필요합니다. 브라우저 모니터링 데이터(브라우저 키 사용) 및 모바일 모니터링 데이터(모바일 앱 토큰 사용)는 예외입니다.
라이선스 키는 뉴렐릭 계정과 연결된 40자의 16진수 문자열입니다. 뉴렐릭에 처음 [가입](/docs/subscriptions/creating-your-new-relic-account)하면 단일 계정과 자체 라이선스 키가 있는 조직이 생성됩니다. 더 많은 계정이 추가되면 각 계정은 자체 라이선스 키로 시작합니다. 계정에 대해 원래 생성된 라이선스 키는 삭제할 수 없지만 관리 및 삭제할 수 있는 추가 라이선스 키를 생성할 수 있으며, 이는 키 순환과 같은 보안 관행을 구현하는 데 유용합니다. 원래 생성된 계정 라이선스 키를 순환해야 하는 경우 [지원팀에 문의](https://support.newrelic.com)하십시오.
- 사용자가 라이선스 키를 보거나 관리할 수 없도록 제한하려면 해당 권한이 없는 역할을 할당합니다: [기존 사용자 모델](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model#add-on) \| [새로운 사용자 모델](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions)
+ 사용자가 라이선스 키를 보거나 관리할 수 없도록 제한하려면 해당 권한이 없는 역할을 할당합니다: [기존 사용자 모델](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model#add-on) | [새로운 사용자 모델](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions)
-
+
브라우저 모니터링은 라이센스 키가 아닌 브라우저 키를 사용하여 데이터를 보고합니다. 브라우저 키는 [브라우저 모니터링 에이전트](/docs/browser/new-relic-browser/getting-started/introduction-browser-monitoring) 의 데이터를 계정에 연결하는 데 사용됩니다.
계정 생성 시 생성된 원래 브라우저 키는 관리하거나 삭제할 수 없지만, 새 브라우저 키를 생성하고 해당 키를 삭제할 수는 있습니다. 계정의 원래 브라우저 키를 순환하는 데 도움이 필요하면 [지원팀에 문의](https://support.newrelic.com)하시기 바랍니다.
-
+
모바일 모니터링은 라이선스 키가 아닌 모바일 앱 토큰을 사용하여 데이터를 보고합니다. 자세한 내용은 [모바일 앱 토큰](/docs/mobile-monitoring/new-relic-mobile/maintenance/viewing-your-application-token) 을 참조하세요.
-
+
[NerdGraph](/docs/apis/intro-apis/introduction-new-relic-apis/#graphql) 및 [REST API](/docs/apis/intro-apis/introduction-new-relic-apis/#rest-api) 를 사용하려면 "개인 API 키"라고도 하는 New Relic 사용자 키가 필요합니다.
- 은(는) 특정 뉴렐릭 사용자와 연결되어 있으므로 양도할 수 없습니다. 사용자 키를 사용하면 키와 연결된 특정 계정뿐만 아니라 액세스 권한이 부여된 모든 계정에 대해 쿼리를 수행할 수 있습니다. 뉴렐릭 사용자가 뉴렐릭에서 삭제되면 해당 사용자 키도 비활성화되어 작동하지 않습니다.
+ 은(는) 특정 뉴렐릭 사용자와 연결되어 있으므로 양도할 수 없습니다. 사용자 키를 사용하면 키와 연결된 특정 계정뿐만 아니라 액세스 권한이 부여된 모든 계정에 대해 쿼리를 수행할 수 있습니다. 뉴렐릭 사용자가 뉴렐릭에서 삭제되면 해당 사용자 키도 비활성화되어 작동하지 않습니다.
사용자에게 여러 계정에 대한 액세스 권한을 제공하더라도 사용자 키는 단일 특정 계정, 즉 키가 생성된 계정에 연결됩니다. 여기서 중요한 점은 계정이 삭제되면 해당 계정과 연결된 모든 사용자 키가 더 이상 작동하지 않는다는 것입니다. (또한 REST API의 경우 호출은 해당 사용자 키와 연결된 계정으로 제한됩니다.)
- 사용자가 사용자 키를 확인하거나 관리하지 못하도록 하려면 해당 권한이 없는 역할을 할당해야 합니다. [기존 사용자 모델](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model#add-on) \| [새로운 사용자 모델](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions)
+ 사용자가 사용자 키를 확인하거나 관리하지 못하도록 하려면 해당 권한이 없는 역할을 할당해야 합니다. [기존 사용자 모델](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model#add-on) | [새로운 사용자 모델](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions)
위에서 설명한 기본 API 키 외에도 일부 뉴렐릭 고객들이 익히 사용하고 있는 몇 가지 다른 API 키가 있습니다. 이미 사용 중이 아니라면 이 키를 사용할 필요는 없습니다.
-
+
-
+
- 이 키는 아직 사용 중이지만 동일한 작업 등에 사용할 수 있는 사용하는 것이 좋습니다.
+ 이 키는 아직 사용 중이지만 동일한 작업 등에 사용할 수 있는 사용하는 것이 좋습니다.
데이터 수집에 사용되는 이전 New Relic API 키 중 하나는 삽입 키라고도 하는 Insights 삽입 키입니다. 라이센스 키는 동일한 기능 등에 사용되므로 이 키보다 라이센스 키를 권장합니다.
@@ -517,19 +383,13 @@ API 키를 생성하거나 관리하려면 [one.newrelic.com/launcher/api-keys-u
인사이트 삽입 키를 찾고 관리하려면: [사용자 메뉴](/docs/accounts/accounts-billing/general-account-settings/intro-account-settings) 에서 **API keys** ( [API 키 페이지로 직접 연결되는 링크](https://one.newrelic.com/launcher/api-keys-ui.api-keys-launcher) 받기)을 클릭하세요. 그런 다음 **Insights insert keys**) 클릭하세요.
-
+
이전 API 키 중 하나는 인사이트 [쿼리 API](/docs/insights/insights-api/get-data/query-insights-event-data-api) 에 사용되는 인사이트 쿼리 키입니다. 거의 모든 목적에 대해 **we recommend using [NerdGraph](/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph) to query and return New Relic data.** 한 가지 예외는 이 키가 여전히 [Grafana용 Prometheus 데이터 소스로 뉴렐릭을](/docs/more-integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana) 구성하는 데 사용된다는 것입니다.
인사이트 쿼리 키를 찾고 관리하려면: [사용자 메뉴](/docs/accounts/accounts-billing/general-account-settings/intro-account-settings) 에서 **API keys** ( [API 키 페이지로 직접 연결되는 링크](https://one.newrelic.com/launcher/api-keys-ui.api-keys-launcher) 받기)을 클릭하세요. 그런 다음 **Insights query keys**) 클릭하세요.
-
+
관리자 키는 더 이상 사용되지 않는 이전 API 키 중 하나입니다. 2020년 12월 4일부로 기존의 모든 관리 키는 사용자 키로 마이그레이션되었습니다.
관리자 키를 사용하고 있었다면 해당 키를 활성 상태로 유지하기 위해 아무 작업도 수행할 필요가 없습니다. API 키 UI를 통해 자동으로 액세스할 수 있고 사용자 키로 레이블이 지정되며 동일한 권한이 부여됩니다. 동일한 워크플로를 통해 사용자 키처럼 관리할 수 있습니다.
@@ -537,10 +397,7 @@ API 키를 생성하거나 관리하려면 [one.newrelic.com/launcher/api-keys-u
마이그레이션된 모든 관리 키에는 키 테이블에 **Migrated from an admin user key** 라는 메모가 있습니다.
-
+
REST API 키는 [REST API를](/docs/apis/rest-api-v2/get-started/introduction-new-relic-rest-api-v2) 사용하기 위한 이전 키입니다. 이제 REST API 키 대신 사용자 키를 사용하는 것이 좋습니다. 사용자는 계정별이 아닌 사용자별이므로 조직에서 팀 구성원의 액세스를 더 효과적으로 제어할 수 있습니다. 또한 REST API 대신 최신 API인 [NerdGraph를](/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph) 사용하는 것이 좋습니다.
고려해야 할 사항:
@@ -557,4 +414,4 @@ API 키를 생성하거나 관리하려면 [one.newrelic.com/launcher/api-keys-u
-
+
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx b/src/i18n/content/kr/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx
index 31324f644bf..a5660f6b2db 100644
--- a/src/i18n/content/kr/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx
+++ b/src/i18n/content/kr/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx
@@ -16,81 +16,20 @@ New Relic의 REST API Explorer(v2)를 사용하면 사용 가능한 모든 API
[API 탐색기](https://rpm.newrelic.com/api/explore) 를 사용하려면 API 액세스가 활성화되어야 하고 계정에 대한 [API 키](/docs/apis/rest-api-v2/requirements/rest-api-key) 가 생성되어야 합니다.
- 사용자 키에는 제한 사항이 적으므로 [REST API 키](/docs/apis/intro-apis/new-relic-api-keys/#rest-api-key) 가 아닌 사용하는 것이 좋습니다.
+ 사용자 키에는 제한 사항이 적으므로 [REST API 키](/docs/apis/intro-apis/new-relic-api-keys/#rest-api-key) 가 아닌 사용하는 것이 좋습니다.
팁:
-* 뉴렐릭에 로그인한 경우 탐색기를 사용할 때 상단에서 API [API 키를](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) 선택할 수 UI
+* 뉴렐릭에 로그인한 경우 탐색기를 사용할 때 상단에서 API [API 키를](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) 선택할 수 UI **Request** **Parameters** 있으며 해당 키는 탐색기의 및 섹션에 자동으로 표시됩니다.
+* 뉴렐릭에 로그인하지 않은 경우 [API 키를](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) API 탐색기의 **Parameters**에 붙여넣을 수 있습니다.
-
- **Request**
-
+## API 탐색기 사용 [#use-api-explorer]
-
- **Parameters**
-
-
- 있으며 해당 키는 탐색기의 및 섹션에 자동으로 표시됩니다.
-
-* 뉴렐릭에 로그인하지 않은 경우 [API 키를](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) API 탐색기의
-
-
- **Parameters**
-
-
- 에 붙여넣을 수 있습니다.
-
-## API 탐색기에 액세스 [#accessing]
-
-New Relic API 탐색기를 사용하려면:
-
-1.
- **[rpm.newrelic.com/api/explore](https://rpm.newrelic.com/api/explore)**
-
-
- 으)로 이동합니다.
-
-2. API 탐색기의 메뉴 표시줄에 있는 드롭다운 목록에서 앱의 계정 이름을 선택합니다.
-
-3. 사이드바에서 기능(애플리케이션, 브라우저 등)과 사용 가능한 API [함수](/docs/apm/apis/api-explorer-v2/parts-api-explorer#functions)(
-
-
- **GET**
-
-
- ,
-
-
- **PUT**
-
-
- ,
-
-
- **DELETE**
-
-
- )를 선택합니다.
-
-4. API 호출에 대한 다른
-
-
- **Parameters**
-
-
- 값을 입력합니다. (v2에 대한 설명 및 요구 사항은 UI를 참조하세요.)
-
-5. 요청에 대한
-
-
- **format**
-
-
- (JSON 또는 XML)을 선택합니다.
-
-6.
- **Send Request**
-
-
- 선택합니다.
+1. **[API Explorer](https://api.newrelic.com/docs/)** 로 이동합니다.
+2. **Servers** 드롭다운 메뉴에서 US 또는 EU 기반 API URL을 선택하세요.
+3. **Authorize** 클릭하고 사용자 API 키를 입력한 후 **Authorize** 다시 클릭합니다.
+4. 사용 가능한 API 함수 중 하나를 확장하세요: **GET**, **PUT**, **DELETE**.
+5. (선택 사항) API 호출에 대한 **Parameters** 값을 추가하여 응답을 필터링합니다(v2에 대한 설명과 요구 사항은 UI를 참조하세요).
+6. **Media type** 드롭다운 메뉴에서 요청에 대한 형식을 JSON 또는 XML 중에서 선택하세요.
+7. **Try it out** 클릭한 다음 **Execute** 클릭하세요.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx b/src/i18n/content/kr/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx
index 19dae15c169..6c5d5a28f30 100644
--- a/src/i18n/content/kr/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx
+++ b/src/i18n/content/kr/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx
@@ -19,53 +19,31 @@ ID에는 다음이 포함될 수 있습니다.
[New Relic API Explorer](/docs/apis/using-the-api-explorer) 에 이러한 ID를 나열하려면 [API 키](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) 가 필요합니다.
-## API 탐색기 사용 [#explorer]
+## API 탐색기 사용 [#use-api-explorer]
-API 탐색기를 사용하여 특정 제품에 대한 모든 제품 ID 목록을 반환할 수 있습니다.
+1. **[API Explorer](https://api.newrelic.com/docs/)** 로 이동합니다.
+2. **Servers** 드롭다운 메뉴에서 US 또는 EU 기반 API URL을 선택하세요.
+3. **Authorize** 클릭하고 사용자 API 키를 입력한 후 **Authorize** 다시 클릭합니다.
+4. 사용 가능한 API 함수 중 하나를 확장하세요: **GET**, **PUT**, **DELETE**.
+5. (선택 사항) API 호출에 대한 **Parameters** 값을 추가하여 응답을 필터링합니다(v2에 대한 설명과 요구 사항은 UI를 참조하세요).
+6. **Media type** 드롭다운 메뉴에서 요청에 대한 형식을 JSON 또는 XML 중에서 선택하세요.
+7. **Try it out** 클릭한 다음 **Execute** 클릭하세요.
-1.
- **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > (select an app)**
-
+## 제품 ID 나열 [#list-product-ids]
- 으)로 이동합니다.
+특정 제품의 모든 제품 ID 목록을 반환하려면:
-2. [rpm.newrelic.com/api/explore](https://rpm.newrelic.com/api/explore) 에서 API 탐색기로 이동합니다. 그런 다음
+1. `GET /applications.json` 드롭다운 메뉴를 클릭하세요.
+2. **Try it out** \[시도해보기]를 클릭한 다음 **Execute** \[실행]을 클릭합니다.
+3. 모든 제품 ID를 보려면 응답을 탐색하세요.
-
- **Select an account**
-
+특정 제품 ID를 찾으면 나중에 다른 REST API 호출에 사용할 수 있도록 복사하세요.
- 드롭다운 메뉴에서 계정 이름을 선택하세요.
+## 애플리케이션 ID 나열 [#locating\_app\_id][#locating_app_id]
-3. 사이드바에서
+에이전트가 모니터링하는 각 앱에는 이름이 할당됩니다. 고유한 `$APP_ID` 도 해당 이름과 연관되어 있습니다. `$APP_ID` 는 앱에 대한 정보를 검색하는 데 기본입니다. `$APP_ID` 나열 및 사용, 요약 데이터 가져오기에 대한 자세한 내용은 [앱 ID 나열을](/docs/apis/rest-api-v2/application-examples-v2/listing-your-app-id-metric-data-v2) 참조하세요.
-
- **(product category) > GET List**
-
-
- 선택합니다.
-
-
- **Send Request**
-
-
- 선택합니다.
-
-4. 제품 ID를 찾으려면
-
-
- **Response**
-
-
- 을 탐색하세요.
-
-REST API 호출에서 찾은 제품 ID를 사용하십시오.
-
-## 애플리케이션 ID 나열 [#locating_app_id]
-
-에이전트가 모니터링하는 각 앱에는 이름이 할당됩니다. 고유한 `$APP_ID` 도 해당 이름과 연관되어 있습니다. `$APP_ID` 는 앱에 대한 정보를 검색하는 데 기본입니다. `$APP_ID` 나열 및 사용, 요약 데이터 가져오기에 대한 자세한 내용은 [앱 ID 나열을](/docs/apis/rest-api-v2/application-examples-v2/listing-your-app-id-metric-data-v2) 참조하세요.
-
-## 호스트 ID 나열 [#locating_host_id]
+## 호스트 ID 나열 [#locating\_host\_id][#locating_host_id]
`$HOST_ID` 은 앱을 실행하는 특정 호스트에 대한 APM 데이터를 가져오는 데 사용됩니다. 물리적 서버에는 둘 이상의 호스트가 있을 수 있습니다. 예를 들어, 물리적 서버에서 실행되는 웹 서버 프로그램은 하나 이상의 가상 호스트를 갖도록 구성될 수 있습니다.
@@ -73,33 +51,12 @@ REST API 호출에서 찾은 제품 ID를 사용하십시오.
`$HOST_ID` 을 사용하여 호스트에 대한 요약 측정항목과 특정 측정항목 타임슬라이스 값을 검색합니다. 사용 가능한 측정항목에 대한 자세한 내용은 다음을 참조하세요.
-1.
- **[rpm.newrelic.com](https://rpm.newrelic.com)**
-
-
- 으)로 이동합니다.
-
-2. [API Explorer](https://rpm.newrelic.com/api/explore/application_hosts/list) 로 이동한 후
-
-
- **Select an account**
-
-
- 드롭다운 메뉴에서 계정 이름을 선택하세요.
-
-3. [rpm.newrelic.com/api/explore/application_hosts/names](https://rpm.newrelic.com/api/explore/application_hosts/names) 에서 API 탐색기의
-
-
- **Application host**
-
-
- 페이지로 이동합니다.
+1. **[rpm.newrelic.com](https://rpm.newrelic.com)** 으)로 이동합니다.
+2. [API Explorer](https://rpm.newrelic.com/api/explore/application_hosts/list) 로 이동한 후 **Select an account** 드롭다운 메뉴에서 계정 이름을 선택하세요.
+3. [rpm.newrelic.com/api/explore/application\_hosts/names](https://rpm.newrelic.com/api/explore/application_hosts/names) 에서 API 탐색기의 **Application host** 페이지로 이동합니다.
-
+
API 탐색기를 사용하여 특정 애플리케이션에 대한 모든 `$HOST_ID` 목록을 반환하려면 [`$APP_ID`](/docs/apis/rest-api-v2/requirements/finding-product-id) 이 필요합니다.
1. [API Explorer](https://rpm.newrelic.com/api/explore/application_hosts/list) 로 이동한 후 **Select an account** 드롭다운 메뉴에서 계정 이름을 선택하세요.
@@ -118,10 +75,7 @@ REST API 호출에서 찾은 제품 ID를 사용하십시오.
4. 각 호스트에 대한 `{HOST_ID}` 을(를) 찾으려면 **Response** 을 찾아보세요.
-
+
출력은 다음과 유사하게 나타납니다.
```
@@ -164,7 +118,7 @@ REST API 호출에서 찾은 제품 ID를 사용하십시오.
-## 인스턴스 ID 나열 [#locating_instance_id]
+## 인스턴스 ID 나열 [#locating\_instance\_id][#locating_instance_id]
해당 ID의 의미는 사용 중인 뉴렐릭 언어 에이전트에 따라 다릅니다. REST API에서 이 ID를 나열할 수 있습니다. Java의 경우 APM의 **Overview** 페이지에서 [인스턴스 ID(JVM)를 볼](#UI) 수도 있습니다.
@@ -257,10 +211,7 @@ REST API 호출에서 찾은 제품 ID를 사용하십시오.
`{INSTANCE_ID}` 을 사용하여 인스턴스에 대한 요약 측정항목과 특정 측정항목 타임슬라이스 값을 검색할 수 있습니다. 사용 가능한 메트릭에 대한 자세한 내용은 [REST API Explorer 애플리케이션 인스턴스](https://rpm.newrelic.com/api/explore/application_instances/names) 페이지를 사용하십시오.
-
+
API 탐색기를 사용하여 특정 애플리케이션에 대한 모든 `$INSTANCE_ID` 목록을 반환하려면 [`$APP_ID`](/docs/apis/rest-api-v2/requirements/finding-product-id) 이 필요합니다.
1. [API Explorer](https://rpm.newrelic.com/api/explore/application_hosts/list) 로 이동한 후 **Select an account** 드롭다운 메뉴에서 계정 이름을 선택하세요.
@@ -279,11 +230,8 @@ REST API 호출에서 찾은 제품 ID를 사용하십시오.
4. 각 인스턴스에 대한 `$INSTANCE_ID` 를 찾으려면 **Response** 를 찾아보세요.
-
- {INSTANCE_ID} 출력은 다음과 유사하게 표시됩니다.
+
+ \{INSTANCE\_ID} 출력은 다음과 유사하게 표시됩니다.
```
{
@@ -320,13 +268,10 @@ REST API 호출에서 찾은 제품 ID를 사용하십시오.
```
-
+
자바 앱: New Relic에서 특정 JVM `$INSTANCE_ID` 을 찾으려면:
- 1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > Applications > (select an app) > JVMs** 으)로 이동합니다.
+ 1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > Applications > (select an app) > JVMs** 으)로 이동합니다.
2. 인스턴스의 이름을 선택합니다.
@@ -395,4 +340,4 @@ curl -X GET 'https://api.newrelic.com/v2/applications.json' \
}
],
. . .
-```
+```
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx b/src/i18n/content/kr/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx
deleted file mode 100644
index b98a876e7a9..00000000000
--- a/src/i18n/content/kr/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx
+++ /dev/null
@@ -1,91 +0,0 @@
----
-title: Python 에이전트 및 Stackato
-tags:
- - Agents
- - Python agent
- - Hosting services
-metaDescription: 'How to install, configure, and initialize the Python agent with ActiveState''s Stackato solution.'
-freshnessValidatedDate: never
-translationType: machine
----
-
-[Stackato](http://www.activestate.com/cloud) 는 ActiveState에서 개발한 프라이빗 PaaS 솔루션입니다. Python 에이전트는 아래에 설명된 단계에 따라 Stackato와 함께 사용할 수 있습니다.
-
-여기 지침에 따르면 Stackato VM 이미지 버전 0.6 이상을 사용해야 합니다. Stackato VM 이미지의 이전 버전을 사용하는 경우 업그레이드해야 합니다.
-
-## 패키지 설치
-
-ActiveState는 [PyPM](http://code.activestate.com/pypm) 패키지 저장소에 Python 에이전트 패키지의 복사본을 [호스팅합니다 .](http://code.activestate.com/pypm/newrelic/) 에이전트용 Python 패키지를 설치하려면 `requirements.txt` 파일에 한 줄씩 `newrelic` 추가하세요.
-
-```
-newrelic
-```
-
-그런 다음 Stackato 클라이언트를 사용하여 `update` 명령을 수행합니다.
-
-PyPM 패키지 저장소는 매일 업데이트됩니다. PyPM 패키지 리포지토리에서 사용할 수 있는 것보다 최신 버전의 Python 에이전트를 사용해야 하는 경우 대신 [PyPI](http://pypi.python.org) 에서 [pip](http://www.pip-installer.org/en/latest/) 및 소스 패키지를 사용하도록 대체해야 합니다.
-
-이 경우 PyPM에서 사용하는 `requirements.txt` 파일 외에 pip에 대한 입력으로 `requirements.pip` 파일을 생성해야 합니다. `requirements.pip` 파일에 `newrelic` 패키지를 나열해야 합니다.
-
-## 에이전트 구성 파일
-
-[Python 에이전트 설치](/docs/agents/python-agent/installation-and-configuration/python-agent-installation) 에 설명된 대로 로컬 시스템에서 Python 에이전트 구성을 생성하고 이를 Stackato 인스턴스에 푸시하는 디렉토리에 추가해야 합니다.
-
-에이전트 로그 파일 출력 위치를 지정하기 위한 에이전트 구성 파일의 옵션은 다음과 같이 설정해야 합니다.
-
-```ini
-log_file = stderr
-```
-
-## Python 에이전트 초기화 [#python-agent-intialization]
-
-WSGI 애플리케이션 진입점이 포함된 Python 모듈에 Python 에이전트를 초기화하기 위한 코드를 수동으로 포함할 수 있지만 [Python 애플리케이션과의 통합](/docs/agents/python-agent/installation-and-configuration/python-agent-integration) 지침에 따라 `newrelic-admin` 스크립트를 사용하여 단순화된 시작 방법도 사용할 수 있습니다.
-
-수동으로 수행하는 경우 일반적으로 Python 웹 애플리케이션을 포함하는 `wsgi.py` 파일이 변경됩니다. 에이전트 설정 파일은 동일한 디렉터리에 있으므로 `wsgi.py` 파일에 대한 변경 사항은 다음을 추가하는 것입니다.
-
-```py
-import newrelic.agent
-
-config_file = os.path.join(os.path.dirname(__file__), 'newrelic.ini')
-newrelic.agent.initialize(config_file)
-```
-
-강제 설정이 설치된 파일 시스템의 디렉터리가 변경될 수 있으므로, 에이전트 설정의 위치는 `wsgi.py` 파일의 위치를 기준으로 자동으로 계산됩니다.
-
-에이전트 초기화를 수동으로 수행하기 위해 코드를 추가하는 대신 `newrelic-admin` 스크립트를 사용하는 것입니다.
-
-`processes` 섹션에서 `web` 항목을 설정하여 웹 애플리케이션을 시작하는 방법을 `stackato.yml` 파일에 명시적으로 정의하는 경우:
-
-```yml
-processes:
- web: python app.py
-```
-
-다음과 같이 `web` 을 대체합니다.
-
-```yml
-processes:
- web: newrelic-admin run-program python app.py
-```
-
-즉, 기존 명령에 `newrelic-admin run-program` 접두사를 붙입니다.
-
-동시에 다음을 사용하여 `stackato.yml` 파일에 `env` 섹션도 추가해야 합니다.
-
-```yml
-env:
- NEW_RELIC_CONFIG_FILE: newrelic.ini
-```
-
-이미 `web` 항목을 재정의하지 않고 대신 uWSGI를 실행하는 Stackato 스택의 기본값을 사용하는 경우 프로세스는 약간 다릅니다. 이 경우 다음과 같이 `web` 항목을 `stackato.yml` 에 추가해야 합니다.
-
-```yml
-processes:
- web: newrelic-admin run-program $PROCESSES_WEB
-```
-
-`env` 섹션도 다시 필요합니다.
-
-`PROCESSES_WEB` 이 정의되지 않고 이것이 작동하지 않으면 이전 VM 이미지를 사용하고 있으므로 업그레이드해야 함을 나타냅니다.
-
-수동 방법을 사용하든 더 자동화된 방법을 사용하든 사용 중인 Python 웹 프레임워크에 필요한 경우 WSGI 응용 프로그램 진입점 개체도 적절하게 래핑해야 합니다.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx b/src/i18n/content/kr/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx
deleted file mode 100644
index 520f9f723b6..00000000000
--- a/src/i18n/content/kr/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx
+++ /dev/null
@@ -1,12 +0,0 @@
----
-title: Python 에이전트 및 WebFaction
-tags:
- - Agents
- - Python agent
- - Hosting services
-metaDescription: 'To use the Python agent with WebFaction hosting services, follow the instructions for Apache/mod_wsgi.'
-freshnessValidatedDate: never
-translationType: machine
----
-
-WebFaction에서 실행되는 애플리케이션에 Python 에이전트를 설치할 수 있습니다. [WebFaction](http://www.webfaction.com/) 은 Python을 비롯한 다양한 언어를 사용하여 웹 애플리케이션을 호스팅할 수 있는 범용 웹 호스팅 서비스입니다. Python 웹 애플리케이션이 WebFaction에서 호스팅되는 일반적인 방법은 Apache/mod_wsgi를 사용하는 것입니다. WebFaction Python 애플리케이션에 에이전트를 설치하는 방법에 대한 자세한 내용 [은 Python 에이전트 설치](/docs/agents/python-agent/installation-configuration/python-agent-installation) 를 참조하고 mod_wsgi에 대한 지침을 따르십시오.
diff --git a/src/i18n/content/kr/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx b/src/i18n/content/kr/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx
index 45b74d69bc4..23036b5d841 100644
--- a/src/i18n/content/kr/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx
+++ b/src/i18n/content/kr/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx
@@ -52,7 +52,7 @@ Python 에이전트 버전 9.8.0 이상.
`trace_id`
- _끈_
+ *끈*
|
@@ -64,11 +64,11 @@ Python 에이전트 버전 9.8.0 이상.
|
`rating`
- _문자열_ 또는 _정수_
+ *문자열* 또는 *정수*
|
- 필수의. 최종 사용자가 제공한 평가(예: '좋음/나쁨', '1-10')
+ 필수의. 최종 사용자가 제공한 평가(예: '좋음/나쁨', '1-10')
|
@@ -76,11 +76,11 @@ Python 에이전트 버전 9.8.0 이상.
`category`
- _끈_
+ *끈*
|
- 선택 과목. 최종 사용자가 제공한 피드백 카테고리(예: "유익함", "부정확함")
+ 선택 과목. 최종 사용자가 제공한 피드백 카테고리(예: "유익함", "부정확함")
|
@@ -88,7 +88,7 @@ Python 에이전트 버전 9.8.0 이상.
`message`
- _끈_
+ *끈*
|
@@ -100,7 +100,7 @@ Python 에이전트 버전 9.8.0 이상.
|
`metadata`
- _딕셔너리_
+ *딕셔너리*
|
@@ -110,7 +110,7 @@ Python 에이전트 버전 9.8.0 이상.
-## 반환 값 [#return-valuess]
+## 반환 값 [#return-values]
없음.
@@ -129,4 +129,4 @@ Python 에이전트 버전 9.8.0 이상.
def post_feedback(request):
newrelic.agent.record_llm_feedback_event(trace_id=request.trace_id, rating=request.rating, metadata= {"my_key": "my_val"})
```
-````
+````
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx b/src/i18n/content/kr/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx
new file mode 100644
index 00000000000..8bee4504d47
--- /dev/null
+++ b/src/i18n/content/kr/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx
@@ -0,0 +1,85 @@
+---
+title: WithLlmCustomAttributes(Python 에이전트 API)
+type: apiDoc
+shortDescription: LLM 이벤트에 사용자 정의 속성 추가
+tags:
+ - Agents
+ - Python agent
+ - Python agent API
+metaDescription: 'Python API: This API adds custom attributes to a Large Language Model (LLM) events generated in AI applications.'
+freshnessValidatedDate: never
+translationType: machine
+---
+
+## 통사론 [#syntax]
+
+```py
+ with newrelic.agent.WithLlmCustomAttributes(custom_attribute_map):
+```
+
+제작 코드에서 LLM 호출에 의해 생성된 LLM(기능 언어 모델) 이벤트에 사용자 지정 속성을 추가하는 컨텍스트 관리자 API 입니다.
+
+## 요구 사항 [#requirements]
+
+파이썬 에이전트 버전 10.1.0 또는 그 이상.
+
+## 설명 [#description]
+
+이 컨텍스트 관리자 API는 LLM에 대한 호출을 기반으로 컨텍스트 내에서 생성된 각 LLM 이벤트에 사용자 지정 속성을 추가합니다. 에이전트는 전달된 사전 인수에 지정된 각 사용자 속성 키 이름에 자동으로 `llm.` 접두사를 추가합니다. 이 API는 활성 트랜잭션 컨텍스트 내에서 호출되어야 합니다.
+
+이러한 사용자 정의 속성은 뉴렐릭 UI 의 LLM 이벤트 및 쿼리에서 볼 수 있습니다. AI 모니터링에 대한 자세한 내용은 [AI 문서를](https://docs.newrelic.com/docs/ai-monitoring/intro-to-ai-monitoring/) 참조하세요.
+
+## 매개변수 [#parameters]
+
+
+
+
+
+ 매개변수
+ |
+
+
+ 설명
+ |
+
+
+
+
+
+
+ `custom_attribute_map`
+
+ *사전*
+ |
+
+
+ 필수의. 각 키/값 쌍이 사용자 정의 속성 이름과 해당 값을 나타내는 비어 있지 않은 사전입니다.
+ |
+
+
+
+
+## 반환 값 [#return-values]
+
+없음.
+
+## 예 [#examples]
+
+### OpenAI 채팅 완료 호출에 사용자 정의 속성 추가
+
+```py
+ import newrelic.agent
+
+ from openai import OpenAI
+
+ client = OpenAI()
+
+ with newrelic.agent.WithLlmCustomAttributes({"custom": "attr", "custom1": "attr1"}):
+ response = client.chat.completions.create(
+ messages=[{
+ "role": "user",
+ "content": "Say this is a test",
+ }],
+ model="gpt-4o-mini",
+ )
+```
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx b/src/i18n/content/kr/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
index 7d86c214474..0f75575877c 100644
--- a/src/i18n/content/kr/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
@@ -248,6 +248,7 @@ Azure Monitor 통합 전에 Azure를 모니터링하려면 메트릭 및 메타
* Azure Monitor 통합을 사용하도록 설정하면 모든 리소스에 대해 별도의 새 엔터티가 생성됩니다. Azure Polling 통합에서 생성된 엔터티는 그대로 유지됩니다. 즉, 대시보드, 경고 및 해당 엔터티를 참조하는 기타 기능을 업데이트해야 합니다.
* 이전 엔터티는 24시간 동안 사용할 수 있습니다.
+* 지표에 여러 차원 조합이 있는 경우 지표 이름이 두 번 나타날 수 있습니다. [데이터 집계를 필터링하는 쿼리를 생성](/docs/infrastructure/microsoft-azure-integrations/get-started/azure-integration-metrics/#metrics-with-many-dimension-combinations) 하면 중복된 메트릭 이름을 방지할 수 있습니다.
## 이전 Azure Polling 통합에서 마이그레이션 단계 [#migration-from-polling]
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx
index 3632d66808d..1e7469ec7f8 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx
@@ -132,7 +132,6 @@ newrelic_remote_write:
extra_write_relabel_configs:
# Enable the extra_write_relabel_configs below for backwards compatibility with legacy POMI labels.
# This helpful when migrating from POMI to ensure that Prometheus metrics will contain both labels (e.g. cluster_name and clusterName).
- # For more migration info, please visit the [migration guide](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide/).
- source_labels: [namespace]
action: replace
target_label: namespaceName
@@ -218,4 +217,4 @@ newrelic-prometheus-agent:
enabled: false
```
-Helm을 사용하여 Kubernetes 클러스터를 업그레이드하려면 이 [문서](/docs/kubernetes-pixie/kubernetes-integration/installation/install-kubernetes-integration-using-helm/#upgrade) 에 설명된 단계를 따르십시오.
+Helm을 사용하여 Kubernetes 클러스터를 업그레이드하려면 이 [문서](/docs/kubernetes-pixie/kubernetes-integration/installation/install-kubernetes-integration-using-helm/#upgrade) 에 설명된 단계를 따르십시오.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx
index cffc98d45ac..06a26a0ab1c 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx
@@ -23,8 +23,8 @@ Helm을 사용하여 에이전트를 구성하려면 다음 두 가지 방법
```yaml
global:
- licenseKey: _YOUR_NEW_RELIC_LICENSE_KEY_
- cluster: _K8S_CLUSTER_NAME_
+ licenseKey: YOUR_NEW_RELIC_LICENSE_KEY
+ cluster: K8S_CLUSTER_NAME
newrelic-prometheus-agent:
enabled: true
@@ -37,8 +37,8 @@ Helm을 사용하여 에이전트를 구성하려면 다음 두 가지 방법
이 옵션은 고급 사용자인 경우에만 권장됩니다.
```yaml
- licenseKey: _YOUR_NEW_RELIC_LICENSE_KEY_
- cluster: _K8S_CLUSTER_NAME_
+ licenseKey: YOUR_NEW_RELIC_LICENSE_KEY
+ cluster: K8S_CLUSTER_NAME
config:
# YOUR CONFIGURATION GOES HERE. An example:
@@ -66,8 +66,8 @@ app_values: ["redis", "traefik", "calico", "nginx", "coredns", "kube-dns", "etcd
또한 통합 필터의 새 버전으로 인해 한 작업에서 이미 스크랩한 대상이 두 번째로 스크랩될 수 있습니다. 중복 데이터 발생 시 알림을 수신하고 중복 스크래핑을 방지하려면 다음 쿼리를 기반으로 경고를 생성할 수 있습니다.
-```
-FROM Metric select uniqueCount(job) facet instance, cluster_name limit 10 since 2 minutes ago
+```sql
+FROM Metric SELECT uniqueCount(job) FACET instance, cluster_name LIMIT 10 SINCE 2 minutes ago
```
값이 1이 아닌 경우 동일한 클러스터에서 동일한 인스턴스를 스크래핑하는 작업이 둘 이상 있는 것입니다.
@@ -99,19 +99,19 @@ Kubernetes 작업은 `target_discovery` 구성에 따라 대상을 검색하고
```yaml
kubernetes:
jobs:
- - job_name_prefix: example
- integrations_filter:
- enabled: false
- target_discovery:
- pod: true
- endpoints: true
- filter:
- annotations:
- # :
- newrelic.io/scrape: 'true'
- label:
- # :
- k8s.io/app: '(postgres|mysql)'
+ - job_name_prefix: example
+ integrations_filter:
+ enabled: false
+ target_discovery:
+ pod: true
+ endpoints: true
+ filter:
+ annotations:
+ # :
+ newrelic.io/scrape: "true"
+ label:
+ # :
+ k8s.io/app: "(postgres|mysql)"
```
@@ -174,21 +174,21 @@ common:
scrape_interval: 30s
kubernetes:
jobs:
- # this job will use the default scrape_interval defined in common.
- - job_name_prefix: default-targets-with-30s-interval
- target_discovery:
- pod: true
- filter:
- annotations:
- newrelic.io/scrape: 'true'
-
- - job_name_prefix: slow-targets-with-60s-interval
- scrape_interval: 60s
- target_discovery:
- pod: true
- filter:
- annotations:
- newrelic.io/scrape_slow: 'true'
+ # this job will use the default scrape_interval defined in common.
+ - job_name_prefix: default-targets-with-30s-interval
+ target_discovery:
+ pod: true
+ filter:
+ annotations:
+ newrelic.io/scrape: "true"
+
+ - job_name_prefix: slow-targets-with-60s-interval
+ scrape_interval: 60s
+ target_discovery:
+ pod: true
+ filter:
+ annotations:
+ newrelic.io/scrape_slow: "true"
```
## 측정항목 및 라벨 변환 [#metric-label-transformations]
@@ -203,21 +203,21 @@ kubernetes:
```yaml
static_targets:
-- name: self-metrics
- urls:
- - 'http://static-service:8181'
- extra_metric_relabel_config:
- # Drop metrics with prefix 'go_' for this target.
- - source_labels: [__name__]
- regex: 'go_.+'
- action: drop
+ - name: self-metrics
+ urls:
+ - "http://static-service:8181"
+ extra_metric_relabel_config:
+ # Drop metrics with prefix 'go_' for this target.
+ - source_labels: [__name__]
+ regex: "go_.+"
+ action: drop
newrelic_remote_write:
extra_write_relabel_configs:
- # Drop all metrics with the specified name before sent to New Relic.
- - source_labels: [__name__]
- regex: 'metric_name'
- action: drop
+ # Drop all metrics with the specified name before sent to New Relic.
+ - source_labels: [__name__]
+ regex: "metric_name"
+ action: drop
```
### YAML 파일 스니펫 샘플 [#config-samples]
@@ -270,10 +270,10 @@ newrelic_remote_write:
```yaml
- source_labels: [__name__]
- regex: 'prefix_.+'
- target_label: new_label
- action: replace
- replacement: newLabelValue
+ regex: 'prefix_.+'
+ target_label: new_label
+ action: replace
+ replacement: newLabelValue
```
@@ -282,7 +282,7 @@ newrelic_remote_write:
```yaml
- regex: 'label_name'
- action: labeldrop
+ action: labeldrop
```
@@ -303,36 +303,37 @@ newrelic_remote_write:
```yaml
kubernetes:
jobs:
- - job_name_prefix: skip-verify-on-https-targets
- target_discovery:
- pod: true
- filter:
- annotations:
- newrelic.io/scrape: 'true'
- - job_name_prefix: bearer-token
- target_discovery:
- pod: true
- filter:
- label:
- k8s.io/app: my-app-with-token
- authorization:
- type: Bearer
- credentials_file: '/etc/my-app/token'
+ - job_name_prefix: skip-verify-on-https-targets
+ target_discovery:
+ pod: true
+ filter:
+ annotations:
+ newrelic.io/scrape: "true"
+ - job_name_prefix: bearer-token
+ target_discovery:
+ pod: true
+ filter:
+ label:
+ k8s.io/app: my-app-with-token
+ authorization:
+ type: Bearer
+ credentials_file: "/etc/my-app/token"
static_targets:
jobs:
- - job_name: mtls-target
- scheme: https
- targets:
- - 'my-mtls-target:8181'
- tls_config:
- ca_file: '/etc/my-app/client-ca.crt'
- cert_file: '/etc/my-app/client.crt'
- key_file: '/etc/my-app/client.key'
-
- - job_name: basic-auth-target
- targets:
- - 'my-basic-auth-static:8181'
- basic_auth:
- password_file: '/etc/my-app/pass.htpasswd'
+ - job_name: mtls-target
+ scheme: https
+ targets:
+ - "my-mtls-target:8181"
+ tls_config:
+ ca_file: "/etc/my-app/client-ca.crt"
+ cert_file: "/etc/my-app/client.crt"
+ key_file: "/etc/my-app/client.key"
+
+ - job_name: basic-auth-target
+ targets:
+ - "my-basic-auth-static:8181"
+ basic_auth:
+ password_file: "/etc/my-app/pass.htpasswd"
+
```
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx
index 2b4a09b5522..e55fa403a80 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx
@@ -23,10 +23,10 @@ global:
이것이 값 파일에서 업데이트되면 다음 helm upgrade 명령을 실행합니다.
```bash
-helm upgrade newrelic-prometheus-configurator/newrelic-prometheus-agent \
---namespace \
--f values-newrelic.yaml \
-[--version fixed-chart-version]
+helm upgrade RELEASE_NAME newrelic-prometheus-configurator/newrelic-prometheus-agent \
+ --namespace NEWRELIC_NAMESPACE \
+ -f values-newrelic.yaml \
+ [--version fixed-chart-version]
```
## 대상에 대한 메트릭이 표시되지 않음 [#target-with-no-metrics]
@@ -35,7 +35,7 @@ helm upgrade newrelic-prometheus-configurator/newrelic-prometheus
Kubernetes에서 기본 구성을 사용하는 경우 Pod 또는 서비스에 `prometheus.io/scrape=true` 주석이 있는지 확인하세요.
-기본적으로 Prometheus 에이전트는 [Prometheus 통합](/docs/infrastructure/prometheus-integrations/integrations-list/integrations-list-intro) 에서만 측정항목을 스크랩합니다. 클러스터의 모든 Prometheus 엔드포인트를 스크레이핑하도록 선택하지 않은 경우 Prometheus 에이전트는 [source_labels](https://github.com/newrelic/newrelic-prometheus-configurator/blob/main/charts/newrelic-prometheus-agent/values.yaml) 에 정의된 레이블을 사용하여 스크랩할 엔드포인트를 필터링합니다.
+기본적으로 Prometheus 에이전트는 [Prometheus 통합](/docs/infrastructure/prometheus-integrations/integrations-list/integrations-list-intro) 에서만 측정항목을 스크랩합니다. 클러스터의 모든 Prometheus 엔드포인트를 스크레이핑하도록 선택하지 않은 경우 Prometheus 에이전트는 [source\_labels](https://github.com/newrelic/newrelic-prometheus-configurator/blob/main/charts/newrelic-prometheus-agent/values.yaml) 에 정의된 레이블을 사용하여 스크랩할 엔드포인트를 필터링합니다.
## 대시보드에 메트릭이 표시되지 않음 [#dashboard-with-no-metrics]
@@ -45,8 +45,8 @@ Kubernetes에서 기본 구성을 사용하는 경우 Pod 또는 서비스에 `p
모든 대상 스크랩은 모든 대상 지표와 함께 `up` 지표를 생성합니다. 스크래핑에 성공하면 이러한 메트릭의 값은 `1` 입니다. 성공하지 못한 경우 해당 값은 `0` 입니다.
-```SQL
-FROM Metric SELECT latest(up) WHERE cluster_name= 'YOUR_CLUSTER_NAME' AND pod = 'TARGET_POD_NAME' TIMESERIES
+```sql
+FROM Metric SELECT latest(up) WHERE cluster_name = 'YOUR_CLUSTER_NAME' AND pod = 'TARGET_POD_NAME' TIMESERIES
```
대상에 대해 이 메트릭이 없으면 삭제되었을 수 있습니다.
@@ -103,4 +103,4 @@ kubectl exec newrelic-prometheus-agent-0 -- wget -O - 'localhost:9090/api/v1/tar
]
}
}
-```
+```
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx
index 807112bfb22..1344ca4393b 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx
@@ -20,11 +20,7 @@ k8s 클러스터의 Argo CD 인프라를 더 잘 이해하기 위해 New Relic
* Argo CD 서버 통계
* 리포지토리 통계
-
+
## 통합 활성화
@@ -46,7 +42,7 @@ k8s 클러스터의 Argo CD 인프라를 더 잘 이해하기 위해 New Relic
FROM Metric SELECT count(*) WHERE instrumentation.name = 'remote-write' AND metricName LIKE 'argocd_%' FACET metricName LIMIT MAX
```
-4. 내장된 기능에 액세스하려면 [Argo CD 빠른 시작을](https://newrelic.com/instant-observability/argocd-quickstart) 설치하십시오. 및 [경고](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
+4. [내장된](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 및 [알림 에](https://newrelic.com/instant-observability/argocd-quickstart) 액세스하려면 Argo CD 퀵스타트를 설치하세요.
가져온 후에는 자산을 편집하거나 복제하여 특정 요구 사항에 맞게 조정할 수 있습니다.
@@ -84,8 +80,8 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용
* 이 명령을 사용하여 Argo CD Prometheus 엔드포인트가 Argo CD로 구성된 모든 K8s 노드에서 메트릭을 내보내고 있는지 확인합니다.
- ```
+ ```sh
curl :8082/metrics
```
-* Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) 확인할 수도 있습니다.
+* Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) 확인할 수도 있습니다.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx
index 33898fe2df1..66a3240eac5 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx
@@ -21,11 +21,7 @@ New Relic을 사용하여 k8s 클러스터의 Calico CNI를 이해하는 데 도
* IP 테이블 저장 및 복원 오류
* BPF가 Calico의 데이터 플레인으로 사용되는 경우 BPF 특정 메트릭
-
+
## 통합 활성화
@@ -80,18 +76,18 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용
* 데이터 수집 추정(일일 수집, 바이트 단위):
```sql
- FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'felix_%' SINCE
- 1 day ago
+ FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'felix_%'
+ SINCE 1 day ago
```
## 문제점 해결
* 이 명령을 사용하여 Calico Prometheus 엔드포인트가 Calico CNI로 구성된 모든 K8s 노드에서 지표를 내보내고 있는지 확인하십시오.
- ```
+ ```sh
curl :9091/metrics
```
* [Calico 문서](https://projectcalico.docs.tigera.io/maintenance/monitor/monitor-component-metrics) 의 문제 해결 팁에 따라 메트릭이 클러스터에서 예상대로 구성되었는지 확인하십시오.
-* Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다.
+* Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx
index 9db23a4d750..ffc5e2d555e 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx
@@ -29,11 +29,7 @@ New Relic을 사용하여 다음을 모니터링합니다.
* 높은 열린 파일 설명자 수
* 인증서 만료
-
+
## 통합 활성화
@@ -52,10 +48,10 @@ New Relic을 사용하여 다음을 모니터링합니다.
3. 다음 쿼리를 사용하여 메트릭이 예상대로 수집되고 있는지 확인합니다.
```sql
- SELECT * from Metric where metricName='rocksdb_num_sstables'
+ SELECT * FROM Metric WHERE metricName = 'rocksdb_num_sstables'
```
-4. [내장된](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 및 알림 에 액세스하려면 [CockroachDB 퀵스타트를](https://newrelic.com/instant-observability/?search=cockroachdb) 설치하세요.
+4. [내장된](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 및 알림 에 액세스하려면 [CockroachDB 퀵스타트를](https://newrelic.com/instant-observability/?search=cockroachdb) 설치하세요.
대시보드의 일부 차트에는 `cockroachdb` 문자열을 포함하는 `app.kubernetes.io/name` , `app.newrelic.io/name` , `k8s-app` 레이블 중 하나를 사용하여 팟(Pod) 또는 엔드포인트를 식별해야 하는 조건이 있는 쿼리가 포함되어 있습니다.
@@ -69,17 +65,17 @@ New Relic을 사용하여 다음을 모니터링합니다.
```yaml
- source_labels: [__name__]
- separator: ;
- regex: timeseries_write_(.*)
- target_label: newrelic_metric_type
- replacement: counter
- action: replace
+ separator: ;
+ regex: timeseries_write_(.*)
+ target_label: newrelic_metric_type
+ replacement: counter
+ action: replace
- source_labels: [__name__]
- separator: ;
- regex: sql_byte(.*)
- target_label: newrelic_metric_type
- replacement: counter
- action: replace
+ separator: ;
+ regex: sql_byte(.*)
+ target_label: newrelic_metric_type
+ replacement: counter
+ action: replace
```
## 데이터 찾기 및 사용
@@ -93,33 +89,33 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용
다음 NRQL 쿼리를 사용하여 New Relic에서 수집되는 CockroachDB 메트릭을 이해하십시오.
-
+
* 고유한 측정항목 이름 나열:
```sql
- FROM Metric SELECT uniques(metricName) WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') LIMIT MAX
+ FROM Metric SELECT uniques(metricName)
+ WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%')
+ LIMIT MAX
```
* 메트릭 업데이트 수 계산:
```sql
- FROM Metric SELECT datapointcount() WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') FACET metricName
+ FROM Metric SELECT datapointcount()
+ WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%')
+ FACET metricName
```
* 데이터 수집 추정(일일 수집, 바이트 단위):
```sql
- FROM Metric SELECT bytecountestimate() WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') SINCE 1 day ago
+ FROM Metric SELECT bytecountestimate()
+ WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%')
+ SINCE 1 day ago
```
-
+
구성 설정에 따라 작업 이름을 조정하십시오.
@@ -127,7 +123,7 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용
* 고유한 측정항목 이름 나열:
```sql
- FROM Metric SELECT uniques(metricName) WHERE job='cockroachdb' LIMIT MAX
+ FROM Metric SELECT uniques(metricName) WHERE job = 'cockroachdb' LIMIT MAX
```
* 메트릭 업데이트 수 계산:
@@ -148,4 +144,4 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용
[CockroachDB 설명서](https://www.cockroachlabs.com/docs/v22.1/monitor-cockroachdb-with-prometheus.html) 의 문제 해결 팁에 따라 메트릭이 클러스터에서 예상대로 구성되었는지 확인하십시오.
-Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다.
+Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx
index 82a3e6f9aac..5d9aabc2dbb 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx
@@ -18,11 +18,7 @@ New Relic을 사용하여 CoreDNS 성능을 시각화하고, 잠재적인 오류
* CoreDNS 오류
* 캐시 통계
-
+
## 통합 활성화
@@ -41,7 +37,7 @@ New Relic을 사용하여 CoreDNS 성능을 시각화하고, 잠재적인 오류
3. 다음 쿼리를 사용하여 메트릭이 예상대로 수집되고 있는지 확인합니다.
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'coredns_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'coredns_%' FACET metricName LIMIT MAX
```
4. 기본 제공 대시보드 및 [경고](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 에 액세스하려면 [CoreDNS 빠른 시작을](https://newrelic.com/instant-observability/CoreDNS) 설치하십시오.
@@ -65,13 +61,13 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용
* 고유한 측정항목 이름 나열:
```sql
- FROM Metric SELECT uniques(metricName) WHERE metricName LIKE 'coredns_%' LIMIT MAX
+ FROM Metric SELECT uniques(metricName) WHERE metricName LIKE 'coredns_%' LIMIT MAX
```
* 메트릭 업데이트 수 계산:
```sql
- FROM Metric SELECT datapointcount() WHERE metricName LIKE 'coredns_%' LIMIT MAX
+ FROM Metric SELECT datapointcount() WHERE metricName LIKE 'coredns_%' LIMIT MAX
```
* 데이터 수집 추정(일일 수집, 바이트 단위):
@@ -84,4 +80,4 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용
[CoreDNS 설명서](https://coredns.io/plugins/kubernetes/) 의 문제 해결 팁에 따라 메트릭이 클러스터에서 예상대로 구성되었는지 확인하십시오.
-Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다.
+Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx
index 5086998a8ae..07d455604ba 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx
@@ -18,11 +18,7 @@ New Relic을 사용하여 Etcd 클러스터의 상태를 이해하는 데 도움
* gRPC 통계
* 디스크 쓰기 대기 시간
-
+
## 통합 활성화
@@ -41,10 +37,10 @@ New Relic을 사용하여 Etcd 클러스터의 상태를 이해하는 데 도움
3. 다음 쿼리를 사용하여 메트릭이 예상대로 수집되고 있는지 확인합니다.
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'etcd_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'etcd_%' FACET metricName LIMIT MAX
```
-4. 내장된 기능에 액세스하려면 [Etcd 빠른 시작을](https://newrelic.com/instant-observability/etcd) 설치하세요. 및 [경고](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
+4. [내장된](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 및 알림 에 액세스하려면 [Etcd 퀵스타트를](https://newrelic.com/instant-observability/etcd) 설치하세요.
가져온 후에는 자산을 편집하거나 복제하여 특정 요구 사항에 맞게 조정할 수 있습니다.
@@ -77,12 +73,12 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용
* 데이터 수집 추정(일일 수집, 바이트 단위):
```sql
- FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'etcd_%' SINCE
- 1 day ago
+ FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'etcd_%'
+ SINCE 1 day ago
```
## 문제점 해결
[Etcd 설명서](https://etcd.io/docs/v3.5/op-guide/monitoring/) 의 문제 해결 팁에 따라 메트릭이 클러스터에서 예상대로 구성되었는지 확인하십시오.
-Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다.
+Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx
index 79bb1714983..18e49bac56d 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx
@@ -17,11 +17,7 @@ New Relic을 사용하여 k8s 클러스터의 Harbour 인프라를 이해하는
* Harbor Project 바이트 할당량 사용률
* 하버 서버 및 클라이언트 오류율
-
+
## 통합 활성화
@@ -81,8 +77,8 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용
* 이 명령을 사용하여 Harbour Prometheus 엔드포인트가 Harbour로 구성된 모든 K8s 노드에서 지표를 내보내고 있는지 확인하십시오.
- ```
+ ```sh
curl :9090/metrics
```
-* Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) 확인할 수도 있습니다.
+* Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) 확인할 수도 있습니다.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx
index 9cdd44db17a..c781908ddeb 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx
@@ -20,11 +20,7 @@ New Relic을 사용하여 NGINX 인그레스 컨트롤러 성능에 대한 가
* 페이로드 크기 및 응답 시간에 대한 요청 및 응답 통찰력
* CPU 및 메모리 통계
-
+
## 통합 활성화
@@ -43,10 +39,10 @@ New Relic을 사용하여 NGINX 인그레스 컨트롤러 성능에 대한 가
3. 다음 쿼리를 사용하여 메트릭이 예상대로 수집되고 있는지 확인합니다.
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'nginx_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'nginx_%' FACET metricName LIMIT MAX
```
-4. [NGINX 인그레스 컨트롤러 빠른 시작을](https://newrelic.com/instant-observability/nginx-ingress-controller) 설치하여 내장된 기능에 액세스하세요. 및 [경고](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
+4. [NGINX Ingress Controller를](https://newrelic.com/instant-observability/nginx-ingress-controller) 설치하여 기본 제공 및 [알림에](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 액세스하세요.
가져온 후에는 자산을 편집하거나 복제하여 특정 요구 사항에 맞게 조정할 수 있습니다.
@@ -86,4 +82,4 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용
[NGINX 인그레스 컨트롤러 설명서](https://kubernetes.github.io/ingress-nginx/user-guide/monitoring/#prometheus-and-grafana-installation-using-pod-annotations) 의 문제 해결 팁에 따라 메트릭이 클러스터에서 예상대로 구성되었는지 확인하십시오.
-Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다.
+Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx
index 313eda3da49..c26ee410638 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx
@@ -70,6 +70,7 @@ global:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -91,10 +92,7 @@ remote_write:
새 주석 `# Target setup` 아래에서 정적 구성을 설정할 수 있습니다.
-
+
``(를) 삽입하세요.
```yml lineHighlight=12-16
@@ -103,6 +101,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -111,9 +110,9 @@ remote_write:
# Target setup
static_configs:
- - targets: ['localhost:9100']
- labels:
- instanceid:
+ - targets: ['localhost:9100']
+ labels:
+ instanceid:
remote_write:
- url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter
@@ -122,10 +121,7 @@ remote_write:
```
-
+
``(를) 삽입하세요.
```yml lineHighlight=12-16
@@ -134,6 +130,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -142,9 +139,9 @@ remote_write:
# Target setup
static_configs:
- - targets: ['localhost:9100']
- labels:
- instanceid:
+ - targets: ['localhost:9100']
+ labels:
+ instanceid:
remote_write:
- url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter
@@ -153,10 +150,7 @@ remote_write:
```
-
+
``(를) 삽입하세요.
```yml lineHighlight=12-16
@@ -165,6 +159,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -173,9 +168,9 @@ remote_write:
# Target setup
static_configs:
- - targets: ['localhost:9100']
- labels:
- instanceid:
+ - targets: ['localhost:9100']
+ labels:
+ instanceid:
remote_write:
- url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter
@@ -190,10 +185,7 @@ remote_write:
정적, 목표를 구성하는 대신 서비스 검색을 구성할 수 있습니다.
-
+
`# Target setup` 아래에 `region`, `access_key`, `secret_key` 및 `port` 를 제공하여 AWS EC2 인스턴스에 대한 서비스 검색을 설정할 수 있습니다.
```yml lineHighlight=12-22
@@ -202,6 +194,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -227,10 +220,7 @@ remote_write:
```
-
+
`# Target setup` 아래에 `` 을 삽입해야 합니다.
```yml lineHighlight=12-15
@@ -239,6 +229,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -257,10 +248,7 @@ remote_write:
```
-
+
`# Target setup` 아래에 `` 을 삽입해야 합니다.
```yml lineHighlight=12-15
@@ -269,6 +257,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -301,10 +290,7 @@ remote_write:
아래 예에서는 동적 검색과 라벨의 조합을 보여줍니다. 정적 타격, 목표를 사용하는 경우 위에 표시된 [정적 타격, 목표를](#static-targets) 삽입하면 됩니다.
-
+
자세한 내용은 Prometheus [EC2](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#ec2_sd_config) 설명서를 참조하세요.
```yml lineHighlight=23-26
@@ -313,6 +299,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -342,10 +329,7 @@ remote_write:
```
-
+
자세한 내용은 Prometheus [EC2](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#azure_sd_config) 설명서를 참조하세요.
```yml lineHighlight=16-19
@@ -354,6 +338,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -376,10 +361,7 @@ remote_write:
```
-
+
자세한 내용은 Prometheus [EC2](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#gce_sd_config) 설명서를 참조하세요.
```yml lineHighlight=16-19
@@ -388,6 +370,7 @@ remote_write:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -417,10 +400,10 @@ remote_write:
1. 다음을 실행합니다.
- ```
+ ```sh
./prometheus --config.file=./prometheus.yml
```
2. 키보드 명령 `CONTROL + z` 및 `bg` 사용하여 스크레이퍼가 백그라운드에서 실행되도록 설정합니다. 환경에서는 이를 서비스로 설정하려고 합니다(예: `systemd`).
-3. **[one.newrelic.com](https://one.newrelic.com/) > Infrastructure > Hosts** 로으로 이동하여 뉴렐릭 UI에서 데이터를 확인하세요.
+3. **[one.newrelic.com](https://one.newrelic.com/) > Infrastructure > Hosts** 로으로 이동하여 뉴렐릭 UI에서 데이터를 확인하세요.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx
index e8a330abb50..b7a2b66c4f5 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx
@@ -20,11 +20,7 @@ New Relic을 사용하면 다음을 모니터링할 수 있습니다.
* 연결된 클라이언트, 노드별 연결된 클라이언트, 노드별 마지막 저장 이후 변경 사항, 노드별 만료된 키/초, 노드에서 사용된 메모리 및 차단된 클라이언트를 보여주는 차트
* 노드별 키스페이스 적중률, 노드별 초당 제거된 키, 노드별 초당 입력 바이트, 초당 네트워크 I/O, 노드별 초당 출력 바이트를 보여주는 차트
-
+
## 통합 활성화
@@ -43,10 +39,10 @@ New Relic을 사용하면 다음을 모니터링할 수 있습니다.
3. 다음 쿼리를 사용하여 메트릭이 예상대로 수집되고 있는지 확인합니다.
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'redis_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'redis_%' FACET metricName LIMIT MAX
```
-4. 내장된 기능에 액세스하려면 [Redis(Prometheus) 빠른 시작을](https://newrelic.com/instant-observability/redis-prometheus) 설치하세요. 및 [경고](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
+4. [Redis (Prometheus) 퀵스타트를](https://newrelic.com/instant-observability/redis-prometheus) 설치하여 기본 제공 및 [알림에](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 액세스하세요.
가져온 후에는 자산을 편집하거나 복제하여 특정 요구 사항에 맞게 조정할 수 있습니다.
@@ -90,4 +86,4 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용
[Redis 내보내기 문서](https://github.com/oliver006/redis_exporter) 의 문제 해결 팁에 따라 메트릭이 클러스터에서 예상대로 구성되었는지 확인하십시오.
-Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다.
+Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx
index bda9adde8e4..f66f1134589 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx
@@ -13,11 +13,7 @@ translationType: machine
New Relic을 사용하면 선별된 대시보드를 쉽게 설치하여 Traefik 인스턴스의 상태를 모니터링할 수 있습니다.
-
+
## 통합 활성화
@@ -36,7 +32,7 @@ New Relic을 사용하면 선별된 대시보드를 쉽게 설치하여 Traefik
3. 다음 쿼리를 사용하여 메트릭이 예상대로 수집되고 있는지 확인합니다.
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'traefik_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'traefik_%' FACET metricName LIMIT MAX
```
4. 기본 제공 대시보드 및 [경고](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 에 액세스하려면 [Traefik 빠른 시작을](https://newrelic.com/instant-observability/traefik) 설치하십시오.
@@ -83,4 +79,4 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용
[Traefik 설명서](https://docs.gitlab.com/ee/user/clusters/agent/troubleshooting.html) 의 문제 해결 팁에 따라 메트릭이 클러스터에서 예상대로 구성되었는지 확인하십시오.
-Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다.
+Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx
index 046aadd18da..cdcf798243e 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx
@@ -18,11 +18,7 @@ New Relic을 사용하여 k8s 클러스터에 대한 Velero 백업 작업의 성
* 인스턴스별 백업 기간 및 크기
* 인스턴스별 복원 상태
-
+
## 통합 활성화
@@ -44,7 +40,7 @@ New Relic을 사용하여 k8s 클러스터에 대한 Velero 백업 작업의 성
FROM Metric SELECT count(*) WHERE metricName LIKE 'velero_%' FACET metricName LIMIT MAX
```
-4. 내장된 기능에 액세스하려면 [Velero 빠른 시작을](https://newrelic.com/instant-observability/velero-prometheus) 설치하십시오. 및 [경고](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
+4. [내장된](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 및 알림 에 액세스하려면 [Velero 퀵스타트를](https://newrelic.com/instant-observability/velero-prometheus) 설치하세요.
가져온 후에는 자산을 편집하거나 복제하여 특정 요구 사항에 맞게 조정할 수 있습니다.
@@ -76,10 +72,10 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용
* 이 명령을 사용하여 Velero Prometheus 엔드포인트가 Velero로 구성된 모든 k8s 노드에서 지표를 내보내고 있는지 확인하십시오.
- ```
+ ```sh
curl :8085/metrics
```
* [Velero 설명서](https://velero.io/docs/main/troubleshooting/#velero-is-not-publishing-prometheus-metrics) 의 문제 해결 팁에 따라 메트릭이 클러스터에서 예상대로 구성되었는지 확인하십시오.
-* Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) 확인할 수도 있습니다.
+* Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) 확인할 수도 있습니다.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx
index 62c57d6c8e7..3a96dde8712 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx
@@ -26,35 +26,19 @@ Prometheus 원격 쓰기 데이터는 더 빠르고 무손실 전송을 위해 [
아래는 Prometheus 읽기-쓰기 데이터가 시스템을 통해 이동할 때 바이트 속도 변화를 시뮬레이션한 것입니다. 이 경우 메트릭은 로컬 노드 내보내기의 로컬 Prometheus 서버의 원격 쓰기 스크랩을 수집하여 생성되었습니다.
-
+
Prometheus가 보낸 바이트 레이트가 데이터 포인트 압축을 풀기 직전에 우리가 기록하는 원격 쓰기 압축 바이트 수와 얼마나 밀접하게 일치하는지 주목하십시오. 원격 쓰기 압축 바이트 속도의 증가된 변동은 분산 시스템을 통해 데이터를 처리하는 특성에 기인할 수 있습니다.
-
+
데이터 포인트가 압축 해제됨에 따라 데이터 압축 해제 직전과 직후에 측정한 원격 쓰기 압축 데이터 바이트 비율과 원격 쓰기 비압축 바이트 비율 간의 차이에 5-10x 확장 계수가 반영됩니다.
-
+
마지막으로 데이터가 변환되고 보강이 수행됨에 따라 압축되지 않은 원격 쓰기 바이트와 [`bytecountestimate()`](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts/#byte-count-estimate) 간의 차이는 아래에서 확인할 수 있습니다. 나열된 `bytecountestimate()` 은 저장되기 전 데이터의 최종 상태에 대한 바이트 수를 측정한 것입니다.
-
+
Prometheus 읽기-쓰기 데이터가 통과할 수 있는 데이터 변환/추가를 더 잘 이해할 수 있도록 Prometheus 서버에서 보고한 측정값인 `prometheus_remote_storage_bytes_total` 측정항목을 비교합니다.
@@ -74,26 +58,25 @@ Prometheus 서버 표현:
NRQL 쿼리 표현
-```
-"endTimestamp": 1631305327668,
-"instance:" "localhost:9090",
-"instrumentation.name": "remote-write"
-"instrumentation.provider": "prometheus",
-"instrumentation.source": "foobarbaz",
-"instrumentation.version": "0.0.2",
-"job": "prometheus",
-"metricName": "prometheus_remote_storage_bytes_total",
-"newrelic.source": "prometheusAPI",
-"prometheus_remote_storage_bytes_total",
-"newrelic.source": "prometheusAPI",
-"prometheus_remote_storage_bytes_total": {
- "type": "count",
- "count": 23051
-},
-"prometheus_server": "foobarbaz",
-"remote_name": "5dfb33",
-"timestamp": 1631305312668,
-"url": "https://staging-metric-api.newrelic.com/prometheus/v1/write?prometheus_server=foobarbaz"
+```json
+{
+ "endTimestamp": 1631305327668,
+ "instance": "localhost:9090",
+ "instrumentation.name": "remote-write",
+ "instrumentation.provider": "prometheus",
+ "instrumentation.source": "foobarbaz",
+ "instrumentation.version": "0.0.2",
+ "job": "prometheus",
+ "metricName": "prometheus_remote_storage_bytes_total",
+ "newrelic.source": "prometheusAPI",
+ "prometheus_remote_storage_bytes_total": {
+ "type": "count",
+ "count": 23051
+ },
+ "prometheus_server": "foobarbaz",
+ "remote_name": "5dfb33",
+ "timestamp": 1631305312668,
+ "url": "https://staging-metric-api.newrelic.com/prometheus/v1/write?prometheus_server=foobarbaz"
}
```
@@ -107,14 +90,16 @@ NRQL 쿼리 표현
New Relic에 저장된 예상 바이트 수를 보려면:
-```
-FROM Metric SELECT rate(bytecountestimate(), 1 minute) AS 'bytecountestimate()' WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO
+```sql
+FROM Metric SELECT rate(bytecountestimate(), 1 minute) AS 'bytecountestimate()'
+WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO
```
New Relic으로 전송된 Prometheus 바이트를 모니터링하려면:
```
-FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) AS 'Prometheus sent bytes rate' WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO
+FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) AS 'Prometheus sent bytes rate'
+WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO
```
## 외부 참조 [#references]
@@ -122,4 +107,5 @@ FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) A
다음은 압축 및 인코딩을 명확히 하는 Prometheus 및 GitHub 문서에 대한 몇 가지 외부 링크입니다.
* [인코딩에 사용되는 Snappy Compression을 참조하는 Prometheus](https://prometheus.io/docs/prometheus/latest/storage/#overview) : 읽기 및 쓰기 프로토콜은 모두 HTTP를 통한 빠른 압축 프로토콜 버퍼 인코딩을 사용합니다. 프로토콜은 아직 안정적인 API로 간주되지 않으며 앞으로 Prometheus와 원격 저장소 간의 모든 홉이 HTTP/2를 지원하는 것으로 안전하게 가정할 수 있게 되면 HTTP/2를 통한 gRPC를 사용하도록 변경될 수 있습니다.
-* [프로메테우스 프로토부프 참조](https://github.com/prometheus/prometheus/blob/main/prompb/types.proto#L58-L64) .
+
+* [프로메테우스 프로토부프 참조](https://github.com/prometheus/prometheus/blob/main/prompb/types.proto#L58-L64) .
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx
index 8a1b189b42c..9b51f811e04 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx
@@ -16,32 +16,20 @@ Docker 또는 Kubernetes용 New Relic과 Prometheus OpenMetrics 통합에 대한
## 해결책
-
+
-
- **Docker**
-
+**Docker**
-```
+```sh
docker logs nri-prometheus
docker logs nri-prometheus 2>&1 | grep -v "level=debug"
```
-
+
-
- **Kubernetes**
-
+**Kubernetes**
-```
+```sh
kubectl logs deploy/nri-prometheus
kubectl logs deploy/nri-prometheus | grep -v "level=debug"
-```
+```
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx
index dd627af804f..6ce99e489ba 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx
@@ -20,7 +20,7 @@ Docker 또는 Kubernetes용 Prometheus OpenMetrics 통합이 허용되는 메트
1. 다음과 같이 [`NrIntegrationError` 이벤트](/docs/telemetry-data-platform/manage-data/nrintegrationerror) 를 사용하여 Prometheus 측정항목 쿼리를 실행합니다.
- ```
+ ```sql
FROM NrIntegrationError SELECT * WHERE newRelicFeature = 'Metrics'
```
@@ -32,4 +32,4 @@ Docker 또는 Kubernetes용 Prometheus OpenMetrics 통합이 허용되는 메트
New Relic은 제출될 때 Prometheus OpenMetrics 통합 메트릭의 기본 유효성 검사를 수행합니다. 메트릭을 처리할 때 더 광범위한 유효성 검사가 비동기적으로 수행됩니다.
-New Relic이 이 비동기식 검증 중에 오류를 발견하면 오류는 New Relic 계정의 `NrIntegrationError` 이벤트에 기록됩니다. 예를 들어, Prometheus OpenMetrics 통합에 대해 정의된 측정항목 제한을 초과하는 경우 New Relic은 계정에 비율 제한을 적용하고 연결된 `NrIntegrationError` 이벤트를 생성합니다.
+New Relic이 이 비동기식 검증 중에 오류를 발견하면 오류는 New Relic 계정의 `NrIntegrationError` 이벤트에 기록됩니다. 예를 들어, Prometheus OpenMetrics 통합에 대해 정의된 측정항목 제한을 초과하는 경우 New Relic은 계정에 비율 제한을 적용하고 연결된 `NrIntegrationError` 이벤트를 생성합니다.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx
index 8ad44419a41..283889ba1fe 100644
--- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx
+++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx
@@ -27,6 +27,6 @@ Kubernetes용 Prometheus OpenMetrics 통합을 실행할 때 다시 시작하고
스크레이퍼의 상태 및 재시작 이벤트를 확인하려면:
-```
+```sh
kubectl describe pod -l "app=nri-prometheus"
-```
+```
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx b/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx
index 1b1e89c80b3..ff287e953aa 100644
--- a/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx
+++ b/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx
@@ -37,7 +37,7 @@ Kubernetes를 관리하는 것은 어려울 수 있습니다. 몇 분 만에 컨
* [Prometheus 에이전트](/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic/#Agent) 가 제공하는 서비스 검색 덕분에 클러스터의 모든 워크로드에서 Prometheus 메트릭을 스크랩합니다.
-* 통합에는 [미리 정의된 공지 정책 세트가](/docs/kubernetes-pixie/kubernetes-integration/installation/predefined-alert-policy) 포함되어 있지만,[ Kubernetes ](/docs/kubernetes-pixie/kubernetes-integration/installation/create-alerts)Kubernetes 데이터를 기반으로 공지 정책을 만들고 수정 [하거나 권장 공지 정책 세트를 추가할](/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies) 수 있습니다.
+* 통합에는 [미리 정의된 공지 정책 세트가](/docs/kubernetes-pixie/kubernetes-integration/installation/predefined-alert-policy) 포함되어 있지만,[ Kubernetes ](/docs/kubernetes-pixie/kubernetes-integration/installation/create-alerts)Kubernetes 데이터를 기반으로 알림을 만들고 수정하거나 [권장되는 공지 정책 세트를 추가할](/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies) 수 있습니다.
* 모든 Kubernetes 이벤트를 확인하세요. [Kubernetes 이벤트 통합은](/docs/integrations/kubernetes-integration/kubernetes-events/install-kubernetes-events-integration) 쿠버네티스 클러스터에서 발생하는 이벤트를 감시하고 해당 이벤트를 뉴렐릭으로 보냅니다. 그런 다음 클러스터 탐색기에서 이벤트 데이터를 시각화할 수 있습니다. [뉴렐릭 Kubernetes 통합 설치](/docs/kubernetes-pixie/kubernetes-integration/installation/kubernetes-integration-install-configure/) 후 기본으로 설치됩니다.
diff --git a/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx b/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx
index 638db91af35..8eafb31f52e 100644
--- a/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx
+++ b/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx
@@ -61,8 +61,8 @@ Helm 사용에 대한 자세한 내용은 [Kubernetes 통합 설치](/install/ku
helm repo add newrelic https://helm-charts.newrelic.com
helm upgrade --install newrelic-bundle newrelic/nri-bundle \
- --set global.licenseKey= \
- --set global.cluster= \
+ --set global.licenseKey=YOUR_NEW_RELIC_INGEST_LICENSE_KEY \
+ --set global.cluster=CLUSTER_NAME \
--namespace=newrelic \
--set newrelic-infrastructure.privileged=true \
--set global.lowDataMode=true \
@@ -81,7 +81,7 @@ helm repo add newrelic-k8s https://newrelic.github.io/k8s-agents-operator
helm upgrade --install k8s-agents-operator newrelic-k8s/k8s-agents-operator \
--namespace newrelic \
--create-namespace \
- --set licenseKey=
+ --set licenseKey=YOUR_NEW_RELIC_INGEST_LICENSE_KEY
```
설정 옵션의 전체 목록을 보려면 [README](https://github.com/newrelic/k8s-agents-operator/tree/main/charts/k8s-agents-operator#values) 차트를 참조하세요.
@@ -93,17 +93,17 @@ helm upgrade --install k8s-agents-operator newrelic-k8s/k8s-agents-operator \
1. 연산자가 리소스를 사용하도록 하려는 각 컨테이너 공간에 대해 유효한 [뉴렐릭 수집 볼륨 키가](/docs/apis/intro-apis/new-relic-api-keys/#license-key) 포함된 비밀을 생성하세요.
```shell
- kubectl create secret generic newrelic-key-secret \
- --namespace \
- --from-literal=new_relic_license_key=
+ kubectl create secret generic newrelic-key-secret \
+ --namespace NAMESPACE_TO_MONITOR \
+ --from-literal=new_relic_license_key=YOUR_NEW_RELIC_INGEST_LICENSE_KEY
```
- `` 유효한 뉴렐릭 클러스터 키로 바꾸세요.
+ `YOUR_NEW_RELIC_INGEST_LICENSE_KEY` 유효한 뉴렐릭 클러스터 키로 바꾸세요.
2. 자동으로 계측하려는 각 네임스페이스에 다음의 사용자 지정 리소스 정의(CRD)를 적용합니다. 다음 명령을 실행하세요:
```shell
- kubectl apply -f -n
+ kubectl apply -f YOUR_YAML_FILE -n NAMESPACE_TO_MONITOR
```
CRD YAML 파일 내에서 축소하려는 APM 에이전트를 지정합니다. 사용 가능한 모든 APM 에이전트 docker 이미지와 해당 태그는 DockerHub에 나열되어 있습니다.
@@ -115,35 +115,35 @@ helm upgrade --install k8s-agents-operator newrelic-k8s/k8s-agents-operator \
* [루비](https://hub.docker.com/repository/docker/newrelic/newrelic-ruby-init/general)
```yaml
- apiVersion: newrelic.com/v1alpha1
- kind: Instrumentation
- metadata:
- labels:
- app.kubernetes.io/name: instrumentation
- app.kubernetes.io/created-by: k8s-agents-operator
- name: newrelic-instrumentation
- spec:
- java:
- image: newrelic/newrelic-java-init:latest
- # env:
- # Example New Relic agent supported environment variables
- # - name: NEW_RELIC_LABELS
- # value: "environment:auto-injection"
- # Example overriding the appName configuration
- # - name: NEW_RELIC_POD_NAME
- # valueFrom:
- # fieldRef:
- # fieldPath: metadata.name
- # - name: NEW_RELIC_APP_NAME
- # value: "$(NEW_RELIC_LABELS)-$(NEW_RELIC_POD_NAME)"
- nodejs:
- image: newrelic/newrelic-node-init:latest
- python:
- image: newrelic/newrelic-python-init:latest
- dotnet:
- image: newrelic/newrelic-dotnet-init:latest
- ruby:
- image: newrelic/newrelic-ruby-init:latest
+ apiVersion: newrelic.com/v1alpha1
+ kind: Instrumentation
+ metadata:
+ labels:
+ app.kubernetes.io/name: instrumentation
+ app.kubernetes.io/created-by: k8s-agents-operator
+ name: newrelic-instrumentation
+ spec:
+ java:
+ image: newrelic/newrelic-java-init:latest
+ # env:
+ # Example New Relic agent supported environment variables
+ # - name: NEW_RELIC_LABELS
+ # value: "environment:auto-injection"
+ # Example overriding the appName configuration
+ # - name: NEW_RELIC_POD_NAME
+ # valueFrom:
+ # fieldRef:
+ # fieldPath: metadata.name
+ # - name: NEW_RELIC_APP_NAME
+ # value: "$(NEW_RELIC_LABELS)-$(NEW_RELIC_POD_NAME)"
+ nodejs:
+ image: newrelic/newrelic-node-init:latest
+ python:
+ image: newrelic/newrelic-python-init:latest
+ dotnet:
+ image: newrelic/newrelic-dotnet-init:latest
+ ruby:
+ image: newrelic/newrelic-ruby-init:latest
```
## 애플리케이션에서 자동 APM 계측 활성화 [#enable-apm-instrumentation]
@@ -163,30 +163,30 @@ instrumentation.newrelic.com/inject-ruby: "true"
부하 에이전트에 대한 주석이 포함된 배포 예시를 참조하세요.
```yaml
- apiVersion: apps/v1
- kind: Deployment
+apiVersion: apps/v1
+kind: Deployment
+metadata:
+ name: spring-petclinic
+spec:
+ selector:
+ matchLabels:
+ app: spring-petclinic
+ replicas: 1
+ template:
metadata:
- name: spring-petclinic
+ labels:
+ app: spring-petclinic
+ annotations:
+ instrumentation.newrelic.com/inject-java: "true"
spec:
- selector:
- matchLabels:
- app: spring-petclinic
- replicas: 1
- template:
- metadata:
- labels:
- app: spring-petclinic
- annotations:
- instrumentation.newrelic.com/inject-java: "true"
- spec:
- containers:
- - name: spring-petclinic
- image: ghcr.io/pavolloffay/spring-petclinic:latest
- ports:
- - containerPort: 8080
- env:
- - name: NEW_RELIC_APP_NAME
- value: spring-petclinic-demo
+ containers:
+ - name: spring-petclinic
+ image: ghcr.io/pavolloffay/spring-petclinic:latest
+ ports:
+ - containerPort: 8080
+ env:
+ - name: NEW_RELIC_APP_NAME
+ value: spring-petclinic-demo
```
이 예제 파일은 환경 변수를 사용하여 에이전트 설정을 전역적으로 구성하는 방법을 보여줍니다. 사용 가능한 모든 설정 옵션은 각 에이전트의 설정 문서를 참조하세요.
@@ -216,7 +216,7 @@ instrumentation.newrelic.com/inject-ruby: "true"
다음과 같은 방법으로 nri-bundle 차트의 업그레이드를 실행하십시오:
```shell
- k8s-agents-operator.enabled=true
+k8s-agents-operator.enabled=true
```
### 독립형 설치
@@ -224,7 +224,7 @@ instrumentation.newrelic.com/inject-ruby: "true"
`helm upgrade` 명령어를 실행하여 최신 버전의 Kubernetes 에이전트 연산자로 업데이트하세요.
```shell
- helm upgrade k8s-agents-operator newrelic/k8s-agents-operator -n newrelic
+helm upgrade k8s-agents-operator newrelic/k8s-agents-operator -n newrelic
```
## Kubernetes 에이전트 오퍼레이터 제거 [#uninstall-k8s-operator]
@@ -234,7 +234,7 @@ instrumentation.newrelic.com/inject-ruby: "true"
nri-번들 차트를 제거하거나 연산자만 제거하려는 경우 다음 매개변수를 사용하여 helm 업그레이드를 실행하십시오.
```shell
- k8s-agents-operator.enabled=false
+k8s-agents-operator.enabled=false
```
### 독립형 설치
@@ -242,7 +242,7 @@ nri-번들 차트를 제거하거나 연산자만 제거하려는 경우 다음
Kubernetes 에이전트 연산자를 제거하고 삭제하려면 다음 명령을 실행하세요.
```shell
- helm uninstall k8s-agents-operator -n newrelic
+helm uninstall k8s-agents-operator -n newrelic
```
## 데이터 찾기 및 사용 [#find-data]
@@ -300,26 +300,26 @@ Kubernetes 에이전트 연산자를 제거하고 삭제하려면 다음 명령
* 비밀과 계측 CRD가 앱의 네임스페이스에 설치되어 있는지 확인하세요.
```shell
- kubectl get secrets -n
- kubectl get instrumentation -n
+ kubectl get secrets -n NAMESPACE
+ kubectl get instrumentation -n NAMESPACE
```
* 파드에 자동 로그를 활성화하는 주석이 있는지 확인하세요.
```shell
- kubectl get pod -n -o jsonpath='{.metadata.annotations}'
+ kubectl get pod POD_NAME -n NAMESPACE -o jsonpath='{.metadata.annotations}'
```
* 에이전트 운영자 Padd로부터 로그를 받으세요.
```shell
- kubectl logs -n newrelic
+ kubectl logs AGENT_OPERATOR_POD -n newrelic
```
* `init` 컨테이너가 삽입되어 있고 제작의 파드 내부에 성공적으로 실행되었는지 확인하세요.
```shell
- kubectl describe pod -n
+ kubectl describe pod POD_NAME -n NAMESPACE
```
## 지원하다 [#support]
diff --git a/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx b/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx
index 5ea19a224b4..1ffdfcfd775 100644
--- a/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx
+++ b/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx
@@ -1,5 +1,5 @@
---
-title: 추천 공지사항
+title: 추천 공지 및 대시보드
tags:
- Integrations
- Kubernetes integration
@@ -8,23 +8,43 @@ freshnessValidatedDate: '2024-09-02T00:00:00.000Z'
translationType: machine
---
-[Kubernetes 통합을 처음 설치](/install/kubernetes/) 하면 귀하의 쿠버네티스 클러스터에 공지 조건의 기초를 형성하는 권장 공지 조건의 기본 세트가 귀하의 계정에 구현되고 배포됩니다. 이러한 조건은 **Kubernetes alert policy** 이라는 정책으로 그룹화됩니다.
+[Kubernetes 통합을 처음 설치](/install/kubernetes/) 하면 쿠버네티스 클러스터에서 공지 조건 및 대시보드의 기반을 형성하는 권장 공지 조건 및 대시보드의 기본 세트를 계정에 구현하고 배포합니다. 주의사항은 [Kubernetes alert policy](#k8s-alert-conditions) 및 [Google Kubernetes Engine alert policy](#google-alert-policies) 의 몇 가지 정책으로 그룹화됩니다.
-모든 환경에서 가장 일반적인 사용 사례를 다루려고 노력했지만 기본 정책을 확장하여 설정할 수 있는 추가 알림도 많이 있습니다. 권장하는 알림 정책은 다음과 같습니다.
+모든 환경에서 가장 일반적인 사용 사례를 다루려고 노력했지만 기본 정책을 확장하여 설정할 수 있는 추가 알림도 많이 있습니다. 알림에 대해 자세히 알아보려면 [뉴렐릭 알림 시작하기를](/docs/tutorial-create-alerts/create-new-relic-alerts/) 참조하세요.
-## 추천 공지 추가 [#add-recommended-alert-policy]
+## 권장 공지 조건 및 대시보드 추가 [#add-recommended-alert-policy]
-추천 공지를 추가하려면 다음 단계를 따르세요.
+추천 공지 및 대시보드를 추가하려면 다음 단계를 따르세요.
1. **[one.newrelic.com](https://one.newrelic.com) > Integrations & Agents** 으)로 이동합니다.
-2. **Alerts** 선택하여 사전 구축된 리소스에 액세스하세요.
+2. 검색 상자에 `kubernetes`입력합니다.
-
+
-3. **Kubernetes** 검색하여 추가하고 싶은 추천 공지 정책을 선택하세요.
+3. 다음 옵션 중 하나를 선택하세요.
-
+ * **Kubernetes**: 권장되는 공지 조건과 대시보드의 기본 세트를 추가합니다.
+
+ * **Google Kubernetes Engine**: 권장되는 Google Kubernetes 엔진 공지 조건 및 대시보드의 기본 세트를 추가합니다.
+
+4. Kubernetes 통합을 설치해야 하는 경우 **Begin installation** 클릭하고, 이미 통합을 설정한 경우 **Skip this step** 클릭하세요.
+
+5. 3단계에서 선택한 옵션에 따라 추가할 수 있는 리소스가 달라집니다.
+
+
+
+
+ 3단계에서 **Kubernetes** 선택하면 권장되는 공지 조건과 대시보드의 기본 집합입니다.
+
+
+
+
+
+ 3단계에서 **Google Kubernetes Engine** 을 선택하면 권장되는 Google Kubernetes 엔진 공지 조건 및 대시보드의 기본 집합입니다.
+
+
+6. **See your data** 을 클릭하면 Kubernetes 데이터가 포함된 대시보드가 뉴렐릭으로 표시됩니다.
## 추천 공지 보는 방법 [#see-recommended-alert-policy]
@@ -38,90 +58,112 @@ translationType: machine
+## Kubernetes 대시보드를 보는 방법 [#see-dashboards]
+
+일반적인 사용 사례에 대한 Kubernetes 데이터를 즉시 시각화하는 데 도움이 되는 권장 사전 구축 대시보드 모음이 있습니다. 이러한 대시보드를 보는 방법을 알아보려면 [추천 대시보드 관리를](/docs/query-your-data/explore-query-data/dashboards/prebuilt-dashboards) 참조하세요.
+
## Kubernetes 공지 위치 [#k8s-alert-conditions]
이것은 권장되는 공지 사항의 기본 세트입니다. 추가할 사항은 다음과 같습니다.
-
+
+ 이 대시보드에는 일반적인 사용 사례에 대한 Kubernetes 데이터를 즉시 시각화하는 데 도움이 되는 차트와 시각화가 포함되어 있습니다.
+
+
+
이 공지 조건은 컨테이너가 5분 이상 25% 이상 제한될 때 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sContainerSample
SELECT sum(containerCpuCfsThrottledPeriodsDelta) / sum(containerCpuCfsPeriodsDelta) * 100
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerCPUThrottling.yaml) 참조하세요.
-
+
이 공지 조건은 제한에 대한 평균 컨테이너 CPU 사용량이 5분 이상 90%를 초과하는 경우 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sContainerSample
SELECT average(cpuCoresUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerHighCPUUtil.yaml) 참조하세요.
-
+
이 공지 조건은 제한에 대한 평균 컨테이너 메모리 사용량이 5분 이상 90%를 초과하는 경우 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sContainerSample
SELECT average(memoryWorkingSetUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerHighMemUtil.yaml) 참조하세요.
-
+
이 공지 조건은 다시 시작이 5분 슬라이딩 창에서 0을 초과할 때 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sContainerSample
SELECT sum(restartCountDelta)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerRestarting.yaml) 참조하세요.
-
+
이 공지 조건은 컨테이너가 5분 이상 기다릴 때 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sContainerSample
SELECT uniqueCount(podName)
- WHERE status = 'Waiting' and clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') FACET containerName, podName, namespaceName, clusterName
+ WHERE status = 'Waiting' AND clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerWaiting.yaml) 참조하세요.
-
+
이 공지 조건은 데몬셋에 5분 이상 파일이 없는 경우 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sDaemonsetSample
SELECT latest(podsMissing)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet daemonsetName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET daemonsetName, namespaceName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/DaemonsetPodsMissing.yaml) 참조하세요.
-
+
이 공지 조건은 배포에 5분 이상의 기간 동안 파드가 누락된 경우 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sDeploymentSample
SELECT latest(podsMissing)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet deploymentName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET deploymentName, namespaceName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/DeploymentPodsMissing.yaml) 참조하세요.
@@ -131,7 +173,7 @@ translationType: machine
id="etcd-utilization-high"
title={<>
Etcd
- 파일 기술자 활용도가 높습니다>
+ 파일 설명자 활용도가 높습니다 (공지 조건)>
}
>
이 공지 조건은 `Etcd` 파일 설명자 사용량이 5분 이상 90%를 초과할 경우 공지를 생성합니다. 다음 쿼리를 실행합니다.
@@ -139,7 +181,8 @@ translationType: machine
```sql
FROM K8sEtcdSample
SELECT max(processFdsUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet displayName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET displayName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/EtcdFileDescriptors.yaml) 참조하세요.
@@ -149,7 +192,7 @@ translationType: machine
id="etcd-no-leader"
title={<>
Etcd
- 리더가 없다>
+ 리더가 없다 (공지조건)>
}
>
이 공지 조건은 `Etcd` 파일 설명자가 1분 이상 리더가 없는 경우 공지를 생성합니다. 다음 쿼리를 실행합니다.
@@ -157,37 +200,42 @@ translationType: machine
```sql
FROM K8sEtcdSample
SELECT min(etcdServerHasLeader)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet displayName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET displayName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/EtcdHasNoLeader.yaml) 참조하세요.
-
+
이 공지 조건은 수평 파드 자동 확장기의 현재 복제본이 원하는 복제본보다 5분 이상 낮은 경우 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sHpaSample
SELECT latest(desiredReplicas - currentReplicas)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet displayName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET displayName, namespaceName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/HPAMissingReplicas.yaml) 참조하세요.
-
+
이 공지 조건은 수평 파드 자동 스케일러가 5개의 복제본을 초과할 때 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sHpaSample
SELECT latest(maxReplicas - currentReplicas)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet displayName, namespaceName, clusterName
+ WHERE clusterName in ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET displayName, namespaceName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/HPAMaxReplicas.yaml) 참조하세요.
-
+
이 공지 조건은 작업이 실패 상태를 보고할 때 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
@@ -199,121 +247,144 @@ translationType: machine
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/JobFailed.yaml) 참조하세요.
-
+
이 공지 조건은 지우스페이스 내 5개 이상의 패드가 5분 이상 실패할 경우 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sPodSample
SELECT uniqueCount(podName)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') and status = 'Failed' facet namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ AND status = 'Failed'
+ FACET namespaceName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodsFailingNamespace.yaml) 참조하세요.
-
+
이 공지 조건은 평균 노드 할당 CPU 사용률이 5분 이상 90%를 초과할 때 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sNodeSample
SELECT average(allocatableCpuCoresUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighAllocatableCPUUtil.yaml) 참조하세요.
-
+
이 공지 조건은 평균 노드 할당 가능 메모리 사용률이 5분 이상 90%를 초과하는 경우 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sNodeSample
SELECT average(allocatableMemoryUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighAllocatableMemUtil.yaml) 참조하세요.
-
+
이 공지 조건은 노드를 5분간 사용할 수 없을 때 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sNodeSample
SELECT latest(condition.Ready)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeIsNotReady.yaml) 참조하세요.
-
+
이 공지 조건은 노드가 예정되지 않은 것으로 표시되면 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sNodeSample
SELECT latest(unschedulable)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeUnschedulable.yaml) 참조하세요.
-
+
이 공지 조건은 노드의 실행 중인 패드가 노드 패드 용량의 90%를 5분 이상 초과할 때 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sPodSample, K8sNodeSample
- SELECT ceil(filter(uniqueCount(podName)
- WHERE status = 'Running') / latest(capacityPods) * 100) as 'Pod Capacity %' where nodeName != '' and nodeName is not null and clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ SELECT ceil
+ (filter
+ (
+ uniqueCount(podName),
+ WHERE status = 'Running'
+ ) / latest(capacityPods) * 100
+ ) AS 'Pod Capacity %'
+ WHERE nodeName != '' AND nodeName IS NOT NULL
+ AND clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodePodCapacity.yaml) 참조하세요.
-
+
이 공지 조건은 평균 노드 루트 파일 시스템 용량 사용률이 5분 이상 90%를 초과할 때 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sNodeSample
SELECT average(fsCapacityUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighFSCapacityUtil.yaml) 참조하세요.
-
+
이 공지 조건은 지속형 볼륨이 5분 이상 실패 또는 보류 상태일 때 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sPersistentVolumeSample
SELECT uniqueCount(volumeName)
- WHERE statusPhase in ('Failed','Pending') and clusterName in ('YOUR_CLUSTER_NAME') facet volumeName, clusterName
+ WHERE statusPhase IN ('Failed','Pending')
+ AND clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET volumeName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PersistentVolumeErrors.yaml) 참조하세요.
-
+
이 공지 조건은 5분 이상 파드를 예약할 수 없을 때 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sPodSample
SELECT latest(isScheduled)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET podName, namespaceName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodNotScheduled.yaml) 참조하세요.
-
+
이 공지 조건은 파드를 5분 이상 사용할 수 없을 때 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
FROM K8sPodSample
SELECT latest(isReady)
- WHERE status not in ('Failed', 'Succeeded') where clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet podName, namespaceName, clusterName
+ WHERE status NOT IN ('Failed', 'Succeeded')
+ AND clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET podName, namespaceName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodNotReady.yaml) 참조하세요.
@@ -323,7 +394,7 @@ translationType: machine
id="statefulset-missing-pods"
title={<>
statefulset
- 파드가 없습니다>
+ is 누락됨 Padd (공지 조건)>
}
>
이 공지 조건은 `statefulset` 에 5분 이상 파드가 누락된 경우 공지를 생성합니다. 다음 쿼리를 실행합니다.
@@ -331,7 +402,9 @@ translationType: machine
```sql
FROM K8sStatefulsetSample
SELECT latest(podsMissing)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet daemonsetName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET daemonsetName, namespaceName, clusterName
```
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/StatefulsetPodsMissing.yaml) 참조하세요.
@@ -343,7 +416,11 @@ translationType: machine
이는 권장되는 Google Kubernetes 엔진 공지 사항의 기본 세트입니다. 다음을 추가합니다.
-
+
+ 이 대시보드에는 일반적인 사용 사례에 대한 Google Kubernetes 데이터를 즉시 시각화하는 데 도움이 되는 차트와 시각화가 포함되어 있습니다.
+
+
+
이 공지 조건은 노드의 CPU 사용률이 최소 15분 동안 90%를 초과할 때 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
@@ -355,7 +432,7 @@ translationType: machine
자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/google-kubernetes-engine/HighCPU.yml) 참조하세요.
-
+
이 공지 조건은 노드의 메모리 사용량이 전체 용량의 85%를 초과할 때 공지를 생성합니다. 다음 쿼리를 실행합니다.
```sql
diff --git a/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx b/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx
index 3940bff7c6f..fecabddf396 100644
--- a/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx
+++ b/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx
@@ -315,6 +315,10 @@ translationType: machine
+
+ `InternalK8sCompositeSample` 뉴렐릭이 생성하는 이벤트이며 [쿠버네티스 클러스터 Explorer](/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/kubernetes-cluster-explorer/#cluster-explorer-use) 에게는 매우 중요합니다. 이 이벤트가 없으면 UI에서 Kubernetes 데이터를 볼 수 없습니다. 표에 나열된 모든 이벤트는 청구 가능하지만 `InternalK8sCompositeSample` 은 청구 불가능한 이벤트입니다. 자세한 내용은 [데이터 수집: 청구 및 규칙을](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/) 참조하세요.
+
+
### APM 모니터링 애플리케이션의 Kubernetes 메타데이터 [#apm-custom-attributes]
[Kubernetes에 연결하면](/docs/kubernetes-pixie/kubernetes-integration/advanced-configuration/link-apm-applications-kubernetes/) 다음과 같은 속성이 귀하의 특수 데이터는 물론이고 내보내고 싶은 데이터에 추가됩니다.
diff --git a/src/i18n/content/kr/docs/new-relic-solutions/get-started/networks.mdx b/src/i18n/content/kr/docs/new-relic-solutions/get-started/networks.mdx
index 0bf920aeda0..41e23694f50 100644
--- a/src/i18n/content/kr/docs/new-relic-solutions/get-started/networks.mdx
+++ b/src/i18n/content/kr/docs/new-relic-solutions/get-started/networks.mdx
@@ -21,7 +21,7 @@ API 클라이언트 또는 에이전트가 뉴렐릭과 통신하는 데 사용
## TLS 암호화 [#tls]
-고객의 데이터 보안을 보장하고 [FedRAMP](https://marketplace.fedramp.gov/#/product/new-relic?sort=productName&productNameSearch=new%20relic) 및 기타 [데이터 암호화](/docs/security/new-relic-security/compliance/data-encryption) 표준을 준수하려면 모든 도메인에 대한 모든 인바운드 연결에 전송 계층 보안(TLS) 1.2 이상이 필요합니다. 보다 자세한 내용은 [TLS 1.2에 대한 지원 포럼 게시물](https://forum.newrelic.com/s/hubtopic/aAX8W0000008dM6WAI/tls-1011-has-been-disabled-for-all-inbound-connections-on-feb-2nd-2023)을 참조하십시오.
+고객의 데이터 보안을 보장하고 [FedRAMP](https://marketplace.fedramp.gov/#/product/new-relic?sort=productName&productNameSearch=new%20relic) 및 기타 [데이터 암호화](/docs/security/new-relic-security/compliance/data-encryption) 표준을 준수하기 위해 모든 도메인에 대한 모든 인바운드 연결에는 TLS(전송 계층 보안) 1.2가 필요합니다. 자세한 내용은 [TLS 1.2에 대한 지원 포럼 게시물을](https://forum.newrelic.com/s/hubtopic/aAX8W0000008dM6WAI/tls-1011-has-been-disabled-for-all-inbound-connections-on-feb-2nd-2023) 참조하세요.
요구 및 지원되는 프로토콜 버전에 대한 향후 업데이트는 [뉴렐릭의 지원 포럼에서`Security Notifications` 태그를](https://discuss.newrelic.com/t/security-notifications/45862) 따르십시오.
diff --git a/src/i18n/content/kr/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx b/src/i18n/content/kr/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx
index 3a9022dcdeb..a71481fd173 100644
--- a/src/i18n/content/kr/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx
+++ b/src/i18n/content/kr/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx
@@ -27,7 +27,7 @@ OpenTelemetry 사용 시 지원되는 뉴웰릭 엔터티 유형에 대해 설
서비스 엔터티는 OpenTelemetry [서비스](https://opentelemetry.io/docs/specs/semconv/resource/#service) 를 설명하는 자원 의미론적 규칙을 준수하여 합성됩니다.
-OpenTelemetry를 사용하여 서비스 엔터티를 모니터링하려면 [설명서와 예제를](/docs/opentelemetry/get-started/opentelemetry-set-up-your-app) 참조하세요.
+OpenTelemetry를 사용하여 서비스 엔터티를 모니터링하는 방법에 대한 [설명서와 예시를](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) 참조하세요.
#### 필수 속성 [#service-required-attributes]
diff --git a/src/i18n/content/kr/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx b/src/i18n/content/kr/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx
index 7266dc4fde6..4454e212d2b 100644
--- a/src/i18n/content/kr/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx
+++ b/src/i18n/content/kr/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx
@@ -28,4 +28,8 @@ translationType: machine
## OpenTelemetry APM과 인프라 상호 연결 [#infrastructure-correlation]
-다음 예에서는 수집기를 사용하여 [APM OpenTelemetry](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) 와 Insight 데이터를 연관시키는 방법을 보여줍니다. 일반적인 패턴은 OTLP를 통해 데이터를 뉴럴릭으로 내보내기 전에 리소스 속성 형태의 추가 환경 컨텍스트로 APM 텔레메트리를 감지하고 강화하는 프로세서로 수집기를 구성하는 것입니다. 뉴렐릭은 이 상관 데이터를 감지하고 리소스를 APM 통해 과 관측 엔터티 [간의](/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources) 관계를 구성합니다.
\ No newline at end of file
+다음 예에서는 수집기를 사용하여 [APM OpenTelemetry](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) 와 Insight 데이터를 연관시키는 방법을 보여줍니다.
+
+* [호스트 리포지터리 예시](https://github.com/newrelic/newrelic-opentelemetry-examples/tree/main/other-examples/collector/host-monitoring)
+
+일반적인 패턴은 OTLP를 통해 데이터를 뉴럴릭으로 내보내기 전에 리소스 속성 형태의 추가 환경 컨텍스트로 APM 텔레메트리를 감지하고 강화하는 프로세서로 수집기를 구성하는 것입니다. 뉴렐릭은 이 상관 데이터를 감지하고 리소스를 APM 통해 과 관측 엔터티 [간의](/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources) 관계를 구성합니다.
\ No newline at end of file
diff --git a/src/i18n/content/kr/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx b/src/i18n/content/kr/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx
index 370b0659db3..587ebacdb4a 100644
--- a/src/i18n/content/kr/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx
+++ b/src/i18n/content/kr/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx
@@ -31,26 +31,18 @@ translationType: machine
UI의 기존 대시보드에 대해 다음 패싯이 포함된 NRQL 쿼리를 생성한다고 가정해 보겠습니다.
-
+
- **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**: `FACET` 절을 포함하고 [차트 유형 요구 사항을](#requirements) 충족하는 쿼리의 경우 해당 속성을 설정하여 간편한 대시보드 필터로 사용할 수 있습니다. 현재 있는 대시보드를 필터링하거나 선택한 관련 대시보드를 필터링하도록 속성을 설정할 수 있습니다.
+ **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**: `FACET` 절을 포함하고 [차트 유형 요구 사항을](#requirements) 충족하는 쿼리의 경우 해당 속성을 간단한 대시보드 필터로 사용하도록 설정할 수 있습니다. 현재 있는 대시보드를 필터링하거나, 선택한 관련 대시보드를 필터링하도록 속성을 설정할 수 있습니다.
-**현재 대시보드 필터링** 을 선택하면 해당 차트가 사용 가능한 `userAgentName` 속성으로 현재 대시보드를 필터링하는 데 사용됩니다. 다음은 해당 대시보드를 필터링하기 위해 해당 속성 중 하나를 선택하는 보기입니다. 선택한 속성이 상단의 검색 표시줄에 필터로 나타납니다.
+**Filter the current dashboard** 선택하면 해당 차트는 사용 가능한 `userAgentName` 속성에 따라 현재 대시보드를 필터링하는 데 사용됩니다. 대시보드를 필터링하기 위해 해당 속성 중 하나를 선택하는 방법은 다음과 같습니다. 선택한 속성이 상단 검색창에 필터로 표시됩니다.
-
+
- **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**: 패싯 필터링을 위해 설정한 속성을 선택하면 현재 대시보드를 필터링합니다.
+ **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**: 패싯 필터링에 설정한 속성을 선택하면 현재 대시보드가 필터링됩니다.
이 기능에 대한 자세한 내용은 [패싯 필터링에 대한 지원 포럼 게시물을](https://discuss.newrelic.com/t/facet-linking-in-new-relic-one-now-you-can-use-facets-to-filter-your-new-relic-one-dashboards/82289) 참조하십시오.
@@ -59,31 +51,29 @@ UI의 기존 대시보드에 대해 다음 패싯이 포함된 NRQL 쿼리를
[`FACET CASES`](/docs/query-your-data/nrql-new-relic-query-language/get-started/nrql-syntax-clauses-functions#sel-facet-cases) 은 조건에 따라 패싯을 그룹화할 수 있는 NRQL 함수입니다. 동일한 측면에서 여러 사례를 지원합니다.
-일부 데이터를 쿼리하고 대시보드 또는 보고서에 대한 니모닉 범주에 응답을 입력한다고 가정해 보겠습니다. 이 구문을 사용하면 트랜잭션 기간을 기반으로 쿼리하고 결과를 ACCEPTABLE 및 UNACCEPTABLE의 두 가지 범주로 분류할 수 있습니다. 이것은 대시보드를 사람이 더 읽기 쉽고 실행 가능하게 만드는 데 정말 유용할 수 있습니다.
+예를 들어, 일부 데이터를 쿼리하여 대시보드나 보고서에 대한 니모닉 카테고리로 응답을 분류하고 싶다고 가정해 보겠습니다. 이 구문을 사용하면 기간을 기준으로 쿼리를 실행하고 결과를 *허용* 및 *허용 불가의* 두 가지 범주로 분류할 수 있습니다. 이는 대시보드를 사람이 더 읽기 쉽고 활용하기 쉽게 만드는 데 매우 유용할 수 있습니다.
-```
-SELECT filter(count(*), WHERE duration > 1) as 'UNACCEPTABLE', filter(count(*),
-WHERE duration <=1) as 'ACCEPTABLE'
-FROM Transaction FACET appName LIMIT 5 since 5 minutes ago
+```sql
+SELECT filter(count(*), WHERE duration > 1) AS 'UNACCEPTABLE',
+ filter(count(*), WHERE duration <=1) AS 'ACCEPTABLE'
+FROM Transaction FACET appName LIMIT 5 SINCE 5 minutes ago
```
-
+
FACET CASES를 사용하면 여러 복잡한 조건을 보다 효율적으로 사용하여 사용자 정의 패싯 세트를 생성할 수 있습니다. 이전 예를 바탕으로 기간 데이터에서 오류를 제외하고 세 번째 범주에 추가하는 복합 조건을 포함하려고 한다고 가정해 보겠습니다.
-```
+```sql
SELECT count(*)
-FROM Transaction FACET CASES (where duration > 1 and error is NULL as 'UNACCEPTABLE', where duration <= 1 and error is NULL as 'ACCEPTABLE', where error is not NULL as 'ERROR') since 5 minutes ago
+FROM Transaction FACET CASES
+(
+ WHERE duration > 1 AND error IS NULL AS 'UNACCEPTABLE',
+ WHERE duration <= 1 AND error IS NULL AS 'ACCEPTABLE',
+ WHERE error IS NOT NULL AS 'ERROR'
+)
+SINCE 5 minutes ago
```
-
+
-그런 다음 패싯 연결을 사용하여 해당 패싯별로 대시보드를 필터링할 수 있습니다.
+그런 다음 패싯 연결을 사용하여 해당 패싯별로 대시보드를 필터링할 수 있습니다.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts.mdx b/src/i18n/content/pt/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts.mdx
index 132f776d820..1c2f2f8bb9b 100644
--- a/src/i18n/content/pt/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts.mdx
+++ b/src/i18n/content/pt/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts.mdx
@@ -35,11 +35,7 @@ Quando você se inscreve inicialmente no New Relic, sua organização tem alguma
Quer controlar como o usuário acessa New Relic? Gerencie o domínio de autenticação [aqui](/docs/accounts/accounts-billing/new-relic-one-user-management/authentication-domains-saml-sso-scim-more/).
-
+
Uma visualização da [interface**Access management** ](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-ui-and-tasks#where), mostrando como nossos grupos padrão (**Admin** e **User**) recebem acesso a funções, contas e configurações administrativas.
@@ -47,11 +43,7 @@ Quando você se inscreve inicialmente no New Relic, sua organização tem alguma
Aqui está um diagrama que mostra como funciona o acesso ao grupo e como eles se relacionam com a organização mais ampla:
-
+
Um diagrama que mostra como os grupos dão ao usuário desse grupo acesso a funções e contas.
@@ -75,29 +67,8 @@ usuário e grupos estão localizados em um [domínio de autenticação](/docs/ac
Temos dois grupos de usuários padrão:
-*
- **User**
-
-
- : um usuário neste grupo pode usar e configurar nosso recurso de observabilidade e monitoramento, mas **não pode** executar tarefas em nível de conta, como gerenciar faturamento ou gerenciar outros usuários. Ele tem acesso à função
-
-
- [**All product admin**](#standard-roles)
-
-
- , que concede controle sobre todas as ferramentas da plataforma de observabilidade, mas não possui [configurações de administração](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts#admin-settings), que concedem acesso aos recursos de gerenciamento de contas e usuários de nível superior.
-
-*
- **Admin**
-
-
- : tem a [função](#standard-roles)
-
-
- [**All product admin**](#standard-roles)
-
-
- [](#standard-roles)e, além disso, possui todas as [configurações de administração](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts#admin-settings) disponíveis. Como resultado, este grupo tem acesso a todos os recursos, incluindo o recurso admin de nível superior.
+* **User**: um usuário neste grupo pode usar e configurar nosso recurso de observabilidade e monitoramento, mas **não pode** executar tarefas em nível de conta, como gerenciar faturamento ou gerenciar outros usuários. Ele tem acesso à função [**All product admin**](#standard-roles) , que concede controle sobre todas as ferramentas da plataforma de observabilidade, mas não possui [configurações de administração](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts#admin-settings), que concedem acesso aos recursos de gerenciamento de contas e usuários de nível superior.
+* **Admin**: tem a [função**All product admin** ](#standard-roles)e, além disso, possui todas as [configurações de administração](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts#admin-settings) disponíveis. Como resultado, este grupo tem acesso a todos os recursos, incluindo o recurso admin de nível superior.
Para editar o grupo em que um usuário está, você pode acessar a interface do usuário **Access management** e editar um grupo ou acessar a interface do usuário **User management** e editar o usuário.
@@ -149,7 +120,7 @@ Aqui está uma tabela com nossas funções padrão. Para entender melhor essas f
|
- Essa função inclui todas as permissões da plataforma New Relic **except** a capacidade de gerenciar configurações, usuário e faturamento no nível da organização. É uma função de administrador no sentido de que permite a configuração do nosso recurso de plataforma (por exemplo, a capacidade de definir configurações ), mas não fornece permissões de administrador em nível de organização (essas requerem [as configurações de administração](#admin-settings)).
+ Essa função inclui todas as permissões da plataforma New Relic **except** a capacidade de gerenciar configurações, usuário e faturamento no nível da organização. É uma função de administrador no sentido de que permite a configuração do nosso recurso de plataforma (por exemplo, a capacidade de definir configurações ), mas não fornece permissões de administrador em nível de organização (essas requerem [as configurações de administração](#admin-settings)).
Essa função é essencialmente a função **Standard user** , abaixo, com a capacidade adicional de configurar o recurso de observabilidade.
|
@@ -167,7 +138,7 @@ Aqui está uma tabela com nossas funções padrão. Para entender melhor essas f
|
- Fornece acesso ao nosso recurso de plataforma (por exemplo, UI do APM e UI ), mas não possui permissões para configurar esses recursos e não possui permissões de gerenciamento de usuário e de nível de organização.
+ Fornece acesso ao nosso recurso de plataforma (por exemplo, UI do APM e UI ), mas não possui permissões para configurar esses recursos e não possui permissões de gerenciamento de usuário e de nível de organização.
Use a interface de gerenciamento de acesso para visualizar os recursos incluídos no perfil do usuário padrão em toda a plataforma.
|
@@ -203,53 +174,16 @@ Você pode adicionar vários **Administration settings** a um grupo.
As configurações incluem:
-*
- **Organization settings**
-
-
- : permissões relacionadas às configurações da organização, incluindo adição de contas e alteração do nome da organização e das contas.
-
-*
- **Authentication domain settings**
-
-
- : Permissões relacionadas à adição e gerenciamento de usuários, incluindo configuração de domínio de autenticação e personalização de grupos e funções. As opções incluem:
+* **Organization settings**: permissões relacionadas às configurações da organização, incluindo adição de contas e alteração do nome da organização e das contas.
- *
- **Manage**
-
+* **Authentication domain settings**: Permissões relacionadas à adição e gerenciamento de usuários, incluindo configuração de domínio de autenticação e personalização de grupos e funções. As opções incluem:
- : Pode gerenciar todos os aspectos de autenticação de domínio, incluindo configuração de domínio e adição de usuário.
+ * **Manage**: Pode gerenciar todos os aspectos de autenticação de domínio, incluindo configuração de domínio e adição de usuário.
+ * **Read only**: pode visualizar o domínio de autenticação e as informações do usuário.
+ * **Add users**: pode visualizar informações do usuário e adicionar usuários à organização, mas não possui outros recursos de configuração e gerenciamento de domínio de autenticação.
+ * **Read users**: só é possível visualizar informações do usuário.
- *
- **Read only**
-
-
- : pode visualizar o domínio de autenticação e as informações do usuário.
-
- *
- **Add users**
-
-
- : pode visualizar informações do usuário e adicionar usuários à organização, mas não possui outros recursos de configuração e gerenciamento de domínio de autenticação.
-
- *
- **Read users**
-
-
- : só é possível visualizar informações do usuário.
-
-*
- **Billing**
-
-
- : permite que um usuário visualize e gerencie o faturamento, o uso e a retenção de dados. Para organizações com múltiplas contas, a cobrança é agregada em
-
-
- **reporting account**
-
-
- (geralmente a primeira conta criada em uma organização).
+* **Billing**: permite que um usuário visualize e gerencie o faturamento, o uso e a retenção de dados. Para organizações com múltiplas contas, a cobrança é agregada em **reporting account** (geralmente a primeira conta criada em uma organização).
### Admin do grupo [#group-admin]
@@ -259,11 +193,6 @@ Com esse recurso, você pode dar ao usuário selecionado a capacidade de adicion
Para usar a função **Group admin** , um usuário deve estar em um grupo com pelo menos uma das configurações de administrador do domínio de autenticação.
-
-
## Capacidades [#capabilities]
Para obter informações sobre as permissões que as funções possuem e que estão disponíveis para adição às funções personalizadas, consulte [Permissões](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions).
@@ -280,56 +209,9 @@ Para saber como gerenciar seus usuários e grupos via API, consulte [nossa docum
Para obter uma explicação de como funciona o acesso do usuário a contas e funções, consulte [Conceitos de gerenciamento de usuários](#understand-concepts). Aqui estão algumas definições para alguns dos nossos termos de gerenciamento de usuários:
-* Uma New Relic
-
-
- **organization**
-
-
- é a representação da sua organização, contendo todas as suas contas, usuários e dados. Para obter mais informações, consulte [Estrutura da organização e da conta](/docs/accounts/accounts-billing/account-structure/new-relic-account-structure).
-
-* Um
-
-
- **permission**
-
-
- é a capacidade de usar ou editar um recurso específico e granular do New Relic. Para obter mais informações, consulte [Permissões](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions).
-
-* Um
-
-
- **role**
-
-
- é um conjunto de permissões. É o que dá permissões ao usuário. Nossas [funções padrão](#standard-roles) padrão têm várias permissões, e você pode criar funções personalizadas com permissões personalizadas.
-
-* Um usuário
-
-
- **group**
-
-
- possui uma ou mais funções associadas a ele. Você atribui seu usuário a um grupo. Temos [grupos de usuários padrão](#default-groups) (
-
-
- **Admin**
-
-
- e
-
-
- **User**
-
-
- ) e você pode criar seus próprios grupos.
-
-* Um
-
-
- [**authentication domain**](/docs/accounts/accounts-billing/new-relic-one-pricing-users/configure-authentication-domains)
-
-
- contém um conjunto de usuários que são adicionados ao New Relic e que login no New Relic da mesma maneira.
-
-* Se um usuário for um [usuário básico](/docs/accounts/accounts-billing/new-relic-one-user-management/user-type), isso terá precedência sobre quaisquer permissões relacionadas à função. Para obter mais informações, consulte [Usuário e funções básicas](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts/#user-type-groups-relation).
+* Uma New Relic **organization** é a representação da sua organização, contendo todas as suas contas, usuários e dados. Para obter mais informações, consulte [Estrutura da organização e da conta](/docs/accounts/accounts-billing/account-structure/new-relic-account-structure).
+* Um **permission** é a capacidade de usar ou editar um recurso específico e granular do New Relic. Para obter mais informações, consulte [Permissões](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions).
+* Um **role** é um conjunto de permissões. É o que dá permissões ao usuário. Nossas [funções padrão](#standard-roles) padrão têm várias permissões, e você pode criar funções personalizadas com permissões personalizadas.
+* Um usuário **group** possui uma ou mais funções associadas a ele. Você atribui seu usuário a um grupo. Temos [grupos de usuários padrão](#default-groups) (**Admin** e **User**) e você pode criar seus próprios grupos.
+* Um [**authentication domain**](/docs/accounts/accounts-billing/new-relic-one-pricing-users/configure-authentication-domains) contém um conjunto de usuários que são adicionados ao New Relic e que login no New Relic da mesma maneira.
+* Se um usuário for um [usuário básico](/docs/accounts/accounts-billing/new-relic-one-user-management/user-type), isso terá precedência sobre quaisquer permissões relacionadas à função. Para obter mais informações, consulte [Usuário e funções básicas](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts/#user-type-groups-relation).
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx b/src/i18n/content/pt/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx
index 16443a618c0..ae681d48afd 100644
--- a/src/i18n/content/pt/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx
+++ b/src/i18n/content/pt/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx
@@ -30,34 +30,22 @@ Esses parceiros exigem procedimentos específicos de login e implantação para
### Parceiros A - M [#a-m-partners]
-
+
Diferentes procedimentos de instalação e visualização de página se aplicam, dependendo se você deseja instalar a AWS para seu aplicativo ou seu host. Para obter mais informações, consulte [Usuário da Amazon Web Services (AWS)](/docs/accounts-partnerships/partnerships/partner-based-installation/amazon-web-services-aws-users).
-
- Como [parceira do Google Cloud Platform (GCP)](https://newrelic.com/partner/gcp), a New Relic oferece suporte ao [ambiente flexível do App Engine](https://cloud.google.com/appengine/docs/flexible). Cada agente tem seus próprios [requisitos para o ambiente flexível do GAE](/docs/accounts-partnerships/partnerships/google-cloud-platform-gcp/google-app-engine-environment). Depois de instalar o agente New Relic, você poderá visualizar o desempenho do seu aplicativo com [o APM](/docs/apm/new-relic-apm/getting-started/introduction-new-relic-apm).
+
+ Como [parceira do Google Cloud Platform (GCP)](https://newrelic.com/partner/gcp), a New Relic oferece suporte ao [ambiente flexível do App Engine](https://cloud.google.com/appengine/docs/flexible). Cada agente tem seus próprios [requisitos para o ambiente flexível do GAE](/docs/accounts-partnerships/partnerships/google-cloud-platform-gcp/google-app-engine-environment). Depois de instalar o agente New Relic, você poderá visualizar o desempenho do seu aplicativo com [o APM](/docs/apm/new-relic-apm/getting-started/introduction-new-relic-apm).
-
- [Heroku](https://www.heroku.com/) é uma solução de plataforma como serviço (PaaS) capaz de hospedar aplicativos web. Com o complemento New Relic Heroku, você pode estender o Heroku com métricas de e . O complemento New Relic suporta Java, Node.js, PHP, Python e Ruby. Para obter mais informações sobre como instalar e usar o New Relic com Heroku, consulte:
+
+ [Heroku](https://www.heroku.com/) é uma solução de plataforma como serviço (PaaS) capaz de hospedar aplicativos web. Com o complemento New Relic Heroku, você pode estender o Heroku com métricas de e . O complemento New Relic suporta Java, Node.js, PHP, Python e Ruby. Para obter mais informações sobre como instalar e usar o New Relic com Heroku, consulte:
* [Documentação do centro de desenvolvimento Heroku](https://devcenter.heroku.com/articles/newrelic "O link abre em uma nova janela")
* [Documentação da New Relic para instalação do Heroku](/docs/accounts-partnerships/partnerships/heroku-new-relic/heroku-installing-new-relic)
-
+
Magento fez parceria com a New Relic para oferecer aos comerciantes acesso mais rápido a dados e ferramentas prontas para uso. A [New Relic Reporting Extension](http://www.magentocommerce.com/magento-connect/new-relic-reporting.html) ajuda empresas de comércio eletrônico a tomar decisões orientadas por dados.
Para criar uma conta New Relic com [Magento](http://newrelic.com/magento) para seu aplicativo PHP:
@@ -73,10 +61,7 @@ Esses parceiros exigem procedimentos específicos de login e implantação para
### Parceiros N - Z [#n-z-partners]
-
+
Para criar uma conta New Relic através [do Pantheon](https://pantheon.io/features/new-relic) e entrar no New Relic:
1. Na [página de parceria da Pantheon com a New Relic](https://pantheon.io/features/new-relic), selecione o link **sign up** .
@@ -88,10 +73,7 @@ Esses parceiros exigem procedimentos específicos de login e implantação para
Após alguns minutos, você poderá verificar o desempenho do seu aplicativo na [página **Overview** do APM](/docs/apm/applications-menu/monitoring/applications-overview-dashboard). Para obter mais informações, consulte [a documentação do Pantheon](https://pantheon.io/docs/new-relic/).
-
+
Para criar uma conta por meio do [Rackspace Cloud Tools](https://www.rackspace.com) e entrar no New Relic, siga estes procedimentos básicos. Para obter mais informações, consulte [Plug-in Rackspace Cloud Load Balancer](/docs/accounts-partnerships/accounts/install-new-relic/partner-based-installation/rackspace-cloud-load-balancer-plugin).
1. Login em sua conta CloudTools em [cloudtools.rackspace.com/myapps](https://cloudtools.rackspace.com/myapps).
@@ -105,10 +87,7 @@ Esses parceiros exigem procedimentos específicos de login e implantação para
Aguarde alguns minutos e verifique o desempenho do seu aplicativo na [página **Overview** do APM](/docs/apm/applications-menu/monitoring/applications-overview-dashboard).
-
+
Para criar uma conta através do [W3 Total Cache](https://wordpress.org/plugins/w3-total-cache/) e entrar no New Relic, você deve instalar e executar o agente PHP do W3, e não apenas obter uma chave de API.
@@ -129,17 +108,14 @@ Esses parceiros exigem procedimentos específicos de login e implantação para
3. Aguarde até que o New Relic comece a coletar dados.
- Alguns minutos após a implantação do agente, os dados de desempenho do seu aplicativo aparecerão na página [Visão geral de aplicativos](/docs/apm/applications-menu/monitoring/applications-overview-dashboard)do APM.
+ Poucos minutos após a implantação do agente, os dados de desempenho do seu aplicativo aparecerão na APM página [Visão geral do aplicativo .](/docs/apm/applications-menu/monitoring/applications-overview-dashboard)
[O WordPress](https://wordpress.org/plugins/rt-newrelic-browser/) também oferece um plug-in para nosso [monitoramento de Browser](/docs/agents/php-agent/installation/wordpress-users-new-relic#browser).
-
+
[O Windows Azure](https://www.windowsazure.com/) é uma solução de plataforma como serviço (PaaS) capaz de hospedar aplicativos da web usando várias linguagens, incluindo .NET e Node.js.
Para obter mais informações sobre como usar nosso agente .NET com o Azure, consulte:
@@ -154,4 +130,4 @@ Esses parceiros exigem procedimentos específicos de login e implantação para
Para obter mais informações sobre como instalar e usar nosso agente Node.js com Azure, consulte [Agente Node.js no Microsoft Azure](/docs/agents/nodejs-agent/hosting-services/nodejs-agent-microsoft-azure).
-
+
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/apis/intro-apis/new-relic-api-keys.mdx b/src/i18n/content/pt/docs/apis/intro-apis/new-relic-api-keys.mdx
index ca774239e8c..59b381a4a51 100644
--- a/src/i18n/content/pt/docs/apis/intro-apis/new-relic-api-keys.mdx
+++ b/src/i18n/content/pt/docs/apis/intro-apis/new-relic-api-keys.mdx
@@ -9,13 +9,9 @@ freshnessValidatedDate: never
translationType: machine
---
-Nossas soluções de monitoramento e APIs utilizam chave de API para autenticar e verificar sua identidade. Essas chaves permitem que apenas pessoas aprovadas em sua organização relatem dados à New Relic, acessem esses dados e configurem recursos. As chaves primárias são a chave de licença (para gerar relatórios de dados) e a (para trabalhar com NerdGraph, nossa API GraphQL).
+Nossas soluções de monitoramento e APIs utilizam chave de API para autenticar e verificar sua identidade. Essas chaves permitem que apenas pessoas aprovadas em sua organização relatem dados à New Relic, acessem esses dados e configurem recursos. As chaves primárias são a chave de licença (para gerar relatórios de dados) e a (para trabalhar com NerdGraph, nossa API GraphQL).
-
+
Para começar com a chave da API:
@@ -131,49 +127,35 @@ Para começar com a chave da API:
## Visualizar e gerenciar chave de API [#keys-ui]
-Você pode visualizar e gerenciar a maioria das chaves de API na [página de interface de chave de API](https://one.newrelic.com/api-keys). Para descobrir isso: no [menu do usuário](/docs/accounts/accounts-billing/general-account-settings/intro-account-settings/#user-menu), clique em **API keys**. Você também pode:
+Você pode gerenciar a maioria das chaves de API na [página de interface da chave de API ](https://one.newrelic.com/api-keys)localizada no [menu do usuário](/docs/accounts/accounts-billing/general-account-settings/intro-account-settings/#user-menu) ao clicar em **API keys**.
-* [Use o NerdGraph Explorer para visualizar e criar](/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph#explorer) chaves de usuário
-* [Use nossa API NerdGraph](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys) para gerenciar de forma programática chave de licença, chaves de browser e chaves de usuário
-
-O [ID da conta](/docs/accounts/accounts-billing/account-setup/account-id) é outro número de identificação frequentemente necessário para relatar dados à New Relic.
-
-## Copiando chaves da interface [#copy-keys]
-
-Você pode copiar a chave de API existente e seus IDs de [**one.newrelic.com/api-keys**](https://one.newrelic.com/api-keys):
-
-* **Copy key**: copia o valor da própria chave.
-* **Copy key ID**: copia o ID da chave, que às vezes é necessário para fazer referência ao objeto-chave por meio da API.
-* **Copy truncated key**: Esta opção está disponível para chaves que não são suas. Ele copia apenas alguns dígitos da chave, o que pode ser útil para o rastreamento interno das chaves ou para falar com o suporte.
+Para visualizar uma chave no NerdGraph, copie o ID da chave. Você também pode [usar o NerdGraph para gerenciar chaves](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys)
## Recomendações para gerenciamento de chave de API [#security-practices]
Se sua chave de API cair em mãos erradas, ela pode representar um risco à segurança. Por exemplo:
-* Alguém com seu pode enviar dados arbitrários para sua conta.
+* Alguém com seu pode enviar dados arbitrários para sua conta.
* Alguém com uma das chaves de usuário de um membro da sua equipe poderá visualizar seus dados do New Relic e fazer alterações em sua conta do New Relic.
Você deve tratar sua chave de API de forma segura, como faria com senhas e outras informações confidenciais. Algumas recomendações:
* Para a chave de licença e a chave do browser, considere implementar uma estratégia de rotação de chaves: criar novas chaves e excluir as antigas em um cronograma definido. Considerações:
- * Você não pode excluir as chaves originais associadas a uma conta; portanto, para implementar uma estratégia de segurança forte, você deve criar chaves adicionais que poderão ser excluídas posteriormente.
+ * Não é possível excluir as chaves de ingestão originais associadas a uma conta, por isso recomendamos criar chaves de ingestão adicionais que você pode excluir posteriormente. Isso garante que você esteja assumindo uma postura de segurança forte.
* Observe que isso não se aplica ao token do aplicativo mobile; você não pode excluir um token ou criar tokens adicionais.
-* Para o :
+* Para o :
* Instrua os membros da sua equipe a manterem suas chaves de usuário seguras.
- * Quando os membros saírem da sua organização, remova-os da New Relic.
+ * Quando os membros saírem da sua organização, remova os IDs de usuário deles do New Relic. Isso desabilita todas as chaves de usuário associadas ao seu ID de usuário.
## Girar chave de API [#rotate-keys]
Veja como alternar cada uma de nossas quatro chaves de API mais comuns:
-
+
[chave de licença](/docs/apis/intro-apis/new-relic-api-keys/#license-key) são utilizadas para reportar quase todos os dados (exceto dados de browser e monitoramento de Mobile, que utilizam chaves próprias). Cada chave está vinculada a uma conta específica e o usuário pode criar quantas quiser. a chave de licença não pode ser atualizada e deve ser excluída e substituída criando uma nova chave.
Você pode encontrar a chave de licença para sua conta na interface da chave de API em [**one.newrelic.com/api-keys**](https://one.newrelic.com/api-keys) (ou [**one.eu.newrelic.com/api-keys**](https://one.eu.newrelic.com/api-keys) para nosso data center na UE). Você verá apenas as chaves que tem permissão para usar, a menos que tenha [todas as permissões de administrador do produto](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts/#standard-roles) ou uma função personalizada que permita ver essas chaves.
@@ -188,51 +170,28 @@ Veja como alternar cada uma de nossas quatro chaves de API mais comuns:
3. Clique em **Create a key** no canto superior direito da página **API keys** .
-
+
4. Insira um novo nome de chave, selecione **Ingest - License** para **Key type**, adicione uma descrição opcional e clique em **Save**.
-
+
5. Atualize qualquer script ou código que faça referência à chave antiga com o novo valor principal. Você pode encontrar a nova chave clicando no ícone **...** na mesma linha da nova chave e depois clicando em **Copy key**.
-
+
6. Depois que qualquer dependência externa tiver sido atualizada, você poderá excluir com segurança a chave antiga clicando no ícone **...** na mesma linha da chave antiga e, em seguida, clicando em **Delete**.
-
+
7. Você verá esta mensagem no canto inferior direito quando a chave for excluída com sucesso:
-
+
Você também pode gerenciar a chave de licença através da nossa API NerdGraph. Para obter instruções, consulte [Tutorial do NerdGraph: Gerenciar chave de API](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys/).
-
+
As chaves do browser são usadas para reportar dados de monitoramento do browser. Cada chave está vinculada a uma conta específica e os clientes podem criar quantas quiserem.
Você pode encontrar as chaves do navegador para sua conta na interface de chave da API em [**one.newrelic.com/api-keys**](https://one.newrelic.com/api-keys) (ou [**one.eu.newrelic.com/api-keys**](https://one.eu.newrelic.com/api-keys) para nosso data center na UE). Você verá apenas as chaves que tem permissão para usar, a menos que tenha [todas as permissões de administrador do produto](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts/#standard-roles) ou uma função personalizada que permita ver essas chaves.
@@ -247,58 +206,32 @@ Veja como alternar cada uma de nossas quatro chaves de API mais comuns:
3. Clique em **Create a key** no canto superior direito da página **API keys** .
-
+
4. Insira um novo nome de chave, selecione **Ingest - Browser** para **Key type**, adicione uma descrição opcional e clique em **Save**.
-
+
5. Atualize qualquer script ou código que faça referência à chave antiga com o novo valor principal. Você pode encontrar a nova chave clicando no ícone **...** na mesma linha da nova chave e depois clicando em **Copy key**.
-
+
6. Depois que qualquer dependência externa tiver sido atualizada, você poderá excluir com segurança a chave antiga clicando no ícone **...** na mesma linha da chave antiga e, em seguida, clicando em **Delete**.
-
+
7. Você verá esta mensagem no canto inferior direito quando a chave for excluída com sucesso:
-
+
-
+
O Monitoramento de Mobile usa um token de aplicativo mobile para reportar dados, em vez da chave de licença. Os tokens de aplicativos móveis são únicos e gerados novamente cada vez que um aplicativo é registrado no NR1. Para alternar as chaves móveis associadas ao seu aplicativo, autorize novamente o aplicativo no New Relic.
Para obter mais informações sobre tokens de aplicativos, consulte [Definir configurações para monitoramento de dispositivos móveis](/docs/mobile-monitoring/new-relic-mobile/maintenance/configure-settings-for-mobile-monitoring/#application-token).
-
+
As chaves de usuário New Relic, às vezes chamadas de “chave de API pessoal”, são necessárias para usar o NerdGraph e nossa API REST. As chaves podem pertencer à organização ou a um usuário específico.
Você pode encontrar chaves de usuário para sua conta na interface de chave de API em [**one.newrelic.com/api-keys**](https://one.newrelic.com/api-keys) (ou [**one.eu.newrelic.com/api-keys**](https://one.eu.newrelic.com/api-keys) para nosso data center na UE). Você verá apenas as chaves que tem permissão para usar, a menos que tenha todas as permissões de administrador do produto ou uma função personalizada que permita ver essas chaves.
@@ -315,55 +248,32 @@ Veja como alternar cada uma de nossas quatro chaves de API mais comuns:
3. Clique em **Create a key** no canto superior direito da página **API keys** .
-
+
4. Insira um novo nome de chave, selecione **User** para **Key type**, adicione uma descrição opcional e clique em **Save**.
-
+
5. Atualize qualquer script ou código que faça referência à chave antiga com o novo valor principal. Você pode encontrar a nova chave clicando no ícone **...** na mesma linha da nova chave e depois clicando em **Copy key**.
-
+
6. Depois que qualquer dependência externa tiver sido atualizada, você poderá excluir com segurança a chave antiga clicando no ícone **...** na mesma linha da chave antiga e, em seguida, clicando em **Delete**.
-
+
7. Você verá esta mensagem no canto inferior direito quando a chave for excluída com sucesso:
-
+
- Você também pode gerenciar chaves de usuário por meio de nossa API NerdGraph. Para obter instruções, consulte [Tutorial do NerdGraph: Gerenciar chave de API](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys/).
+ Você também pode gerenciar chaves de usuário por meio de nossa API NerdGraph. Para obter instruções, consulte [Tutorial do NerdGraph: Gerenciar chave de API](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys/).
Também temos vários tipos de chave de API mais antigos ou menos comuns. Para girar essas chaves:
-
+
Estas são chaves mais antigas que não são recomendadas para uso pelos clientes, mas ainda são suportadas pela New Relic. Essas chaves são usadas para ingestão de dados por meio de nossa métrica, evento, log e e se aplicam trace API a toda a organização.
Para girar essas chaves:
@@ -374,35 +284,20 @@ Também temos vários tipos de chave de API mais antigos ou menos comuns. Para g
3. No lado esquerdo da página, encontre a seção **Looking for other keys?** e clique no link do tipo de chave que você deseja girar:
-
+
4. Clique no ícone **+** para criar uma nova inserção ou chave de consulta.
-
+
5. Atualize qualquer script ou código que faça referência à chave antiga com o novo valor principal.
6. Depois que qualquer dependência externa for atualizada, você poderá excluir com segurança a chave antiga. Para remover uma chave, passe o mouse sobre ela e clique em **Delete**.
-
+
-
+
Esta é uma chave mais antiga que está obsoleta, mas ainda é suportada pela New Relic. Agora recomendamos usar a chave de usuário em vez da chave de API REST.
Você não pode girar esta chave, mas pode excluí-la.
@@ -413,29 +308,19 @@ Também temos vários tipos de chave de API mais antigos ou menos comuns. Para g
3. No lado esquerdo da página, encontre a seção **Looking for other keys?** e clique em **REST API key**.
-
+
4. Clique em **Delete REST API Key**.
-
+
As chaves de API Pixie são usadas para autenticar aplicativos personalizados na plataforma Pixie. A chave de API Pixie não pode ser modificada. Para girar a chave de API Pixie, você deve criar uma nova chave e, em seguida, excluir a antiga. Para obter mais informações sobre a chave de API Pixie, consulte [Gerenciando chave de API](https://docs.px.dev/reference/admin/api-keys/) na documentação do Pixie.
-
+
A API de parceria não está disponível para sua organização, a menos que você seja especificamente instruído por seu representante da New Relic para usá-la. Para obter mais informações sobre a API, consulte [Referência da API de parceria](/docs/new-relic-partnerships/partnerships/partner-api/partner-api-reference/).
- Para visualizar ou regenerar suas chaves, login no New Relic usando suas credenciais de proprietário de parceria e vá para **Partnerships > Edit settings**s.
+ Para visualizar ou regenerar suas chaves, login no New Relic usando suas credenciais de proprietário de parceria e vá para **Partnerships > Edit settings**s.
@@ -444,64 +329,45 @@ Também temos vários tipos de chave de API mais antigos ou menos comuns. Para g
Para criar ou gerenciar chave de API, use a interface em [one.newrelic.com/launcher/api-keys-ui.api-keys-launcher](https://one.newrelic.com/launcher/api-keys-ui.api-keys-launcher) ou nossa [API NerdGraph](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys). Para obter mais detalhes, selecione uma chave:
-
+
Nossa chave principal usada para ingestão de dados é chamada de chave de licença. Na interface da chave da API e no [NerdGraph](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys), essa chave às vezes é referenciada como `ingest - license`.
A chave de licença é necessária para quase toda ingestão de dados do New Relic. As exceções são monitoramento de dados do browser (que usa uma chave de browser) e monitoramento de dados móveis (que usa um token de aplicativo mobile).
A chave de licença é uma sequência hexadecimal de 40 caracteres associada a uma conta New Relic. Quando você [se inscreve](/docs/subscriptions/creating-your-new-relic-account) pela primeira vez no New Relic, uma organização com uma única conta e sua própria chave de licença é criada. Se mais contas forem adicionadas, cada conta começará com sua própria chave de licença. A chave de licença criada originalmente para uma conta não pode ser excluída, mas você pode criar chaves de licença adicionais que podem ser gerenciadas e excluídas, e isso é útil para implementar práticas de segurança, como rotação de chaves. Se você precisar alternar a chave de licença original de uma conta, [entre em contato com o suporte](https://support.newrelic.com).
- Para impedir que um usuário visualize ou gerencie a chave de licença, atribua a ele uma função sem essas permissões: [modelo de usuário original](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model#add-on) \| [modelo de usuário mais recente](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions).
+ Para impedir que um usuário visualize ou gerencie a chave de licença, atribua a ele uma função sem essas permissões: [modelo de usuário original](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model#add-on) | [modelo de usuário mais recente](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions).
-
+
O monitoramento de Browser usa uma chave de browser para reportar dados, em vez da chave de licença. A chave do browser é utilizada para associar os dados do [agente de monitoramento do Browser](/docs/browser/new-relic-browser/getting-started/introduction-browser-monitoring) à sua conta.
Você não pode gerenciar ou excluir a chave do browser original criada quando sua conta foi criada, mas pode criar novas chaves do browser e excluí-las. Para obter assistência na rotação da chave original do browser de uma conta, [entre em contato com o suporte](https://support.newrelic.com).
-
+
O Monitoramento de Mobile usa um token de aplicativo mobile para reportar dados, em vez da chave de licença. Consulte [Token de aplicativo mobile](/docs/mobile-monitoring/new-relic-mobile/maintenance/viewing-your-application-token) para obter mais informações.
-
+
As chaves de usuário New Relic, às vezes chamadas de “chave de API pessoal”, são necessárias para usar [o NerdGraph](/docs/apis/intro-apis/introduction-new-relic-apis/#graphql) e nossa [API REST](/docs/apis/intro-apis/introduction-new-relic-apis/#rest-api).
- Um está vinculado a um usuário específico do New Relic e não pode ser transferido. A chave de usuário permite que você consulte qualquer conta à qual tenha acesso, não apenas a conta específica à qual a chave estava associada. Se um usuário do New Relic for excluído no New Relic, suas chaves de usuário também serão desativadas e não funcionarão.
+ Um está vinculado a um usuário específico do New Relic e não pode ser transferido. A chave de usuário permite que você consulte qualquer conta à qual tenha acesso, não apenas a conta específica à qual a chave estava associada. Se um usuário do New Relic for excluído no New Relic, suas chaves de usuário também serão desativadas e não funcionarão.
Embora forneçam ao usuário acesso a várias contas, as chaves de usuário estão vinculadas a uma única conta específica: a conta a partir da qual foram criadas. A importância disso é que, se uma conta for excluída, quaisquer chaves de usuário associadas a essa conta não funcionarão mais. (Além disso, para nossa API REST, as chamadas de API estão limitadas à conta associada a essa chave de usuário.)
- Para evitar que um usuário visualize ou gerencie chaves de usuário, atribua a ele uma função sem essas permissões: [modelo de usuário original](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model#add-on) \| [modelo de usuário mais recente](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions).
+ Para evitar que um usuário visualize ou gerencie chaves de usuário, atribua a ele uma função sem essas permissões: [modelo de usuário original](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model#add-on) | [modelo de usuário mais recente](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions).
Além da chave de API principal explicada acima, temos várias outras chaves de API mais antigas que alguns clientes da New Relic ainda usam. Se você ainda não usa essas chaves, provavelmente não precisará começar.
-
+
-
+
- Essa chave ainda está em uso, mas é altamente recomendável usar , que pode ser usada para as mesmas coisas e muito mais.
+ Essa chave ainda está em uso, mas é altamente recomendável usar , que pode ser usada para as mesmas coisas e muito mais.
Uma de nossas chaves de API mais antigas do New Relic usadas para ingestão de dados é a chave de inserção insights , também conhecida como chave de inserção. Observe que a chave de licença é usada para a mesma funcionalidade e muito mais, por isso recomendamos a chave de licença em vez desta chave.
@@ -517,19 +383,13 @@ Além da chave de API principal explicada acima, temos várias outras chaves de
Para localizar e gerenciar chaves de inserção insights : No [menu do usuário](/docs/accounts/accounts-billing/general-account-settings/intro-account-settings), clique em **API keys** (obtenha [um link direto para a página da chave de API](https://one.newrelic.com/launcher/api-keys-ui.api-keys-launcher)). Em seguida, clique em **Insights insert keys**.
-
+
Uma de nossas chaves de API mais antigas é a chave de consulta do Insights, que é usada para nossa [API de consulta do Insights](/docs/insights/insights-api/get-data/query-insights-event-data-api). Para quase todos os propósitos, **we recommend using [NerdGraph](/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph) to query and return New Relic data.** A única exceção é que essa chave ainda é usada para configurar [o New Relic como uma fonte de dados do Prometheus para Grafana](/docs/more-integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana).
Para encontrar e gerenciar insights chave de consulta: No [menu do usuário](/docs/accounts/accounts-billing/general-account-settings/intro-account-settings), clique em **API keys** (obtenha [um link direto para a página da chave de API](https://one.newrelic.com/launcher/api-keys-ui.api-keys-launcher)). Em seguida, clique em **Insights query keys**.
-
+
A chave admin é uma de nossas chaves de API mais antigas e obsoletas. A partir de 4 de dezembro de 2020, todas as chaves de administrador existentes foram migradas para serem chaves de usuário.
Se você estava usando chaves de administrador, não precisa fazer nada para que essas chaves permaneçam ativas. Eles serão automaticamente acessíveis por meio da interface de chave da API, rotulados como chaves de usuário e com permissões idênticas. Você pode gerenciá-los como faria com qualquer chave de usuário por meio do mesmo fluxo de trabalho.
@@ -537,10 +397,7 @@ Além da chave de API principal explicada acima, temos várias outras chaves de
Todas as chaves de administrador migradas terão uma nota que diz **Migrated from an admin user key** na tabela de chaves.
-
+
A chave de API REST é uma chave mais antiga para usar nossa [APIREST](/docs/apis/rest-api-v2/get-started/introduction-new-relic-rest-api-v2). Agora recomendamos usar a chave de usuário em vez da chave de API REST. O usuário é específico do usuário e não específico da conta, o que dá à sua organização mais controle sobre o acesso dos membros da sua equipe. Além disso, recomendamos usar nossa API mais recente, [NerdGraph](/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph), em vez da API REST.
Coisas a considerar:
@@ -557,4 +414,4 @@ Além da chave de API principal explicada acima, temos várias outras chaves de
-
+
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx b/src/i18n/content/pt/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx
index aec6f8d7e34..b9c1af53aa3 100644
--- a/src/i18n/content/pt/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx
+++ b/src/i18n/content/pt/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx
@@ -16,87 +16,20 @@ O REST API Explorer (v2) da New Relic facilita o teste e o envio de solicitaçõ
Antes de poder usar o [API Explorer](https://rpm.newrelic.com/api/explore), o acesso à API deve ser ativado e uma [chave de API](/docs/apis/rest-api-v2/requirements/rest-api-key) deve ser gerada para sua conta.
- Recomendamos usar , não a [chave de API REST](/docs/apis/intro-apis/new-relic-api-keys/#rest-api-key), porque a chave do usuário tem menos restrições.
+ Recomendamos usar , não a [chave de API REST](/docs/apis/intro-apis/new-relic-api-keys/#rest-api-key), porque a chave do usuário tem menos restrições.
Pontas:
-* Se você estiver conectado ao New Relic, ao usar o API Explorer você poderá escolher sua [chave de API](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) na parte superior da interface e essa chave aparecerá automaticamente nas seções
+* Se você estiver conectado ao New Relic, ao usar o API Explorer você poderá escolher sua [chave de API](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) na parte superior da interface e essa chave aparecerá automaticamente nas seções **Request** e **Parameters** do Explorer.
+* Se você não estiver conectado ao New Relic, poderá colar sua [chave de API](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) no **Parameters** do API Explorer.
-
- **Request**
-
+## Use o API Explorer [#use-api-explorer]
- e
-
-
- **Parameters**
-
-
- do Explorer.
-
-* Se você não estiver conectado ao New Relic, poderá colar sua [chave de API](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) no
-
-
- **Parameters**
-
-
- do API Explorer.
-
-## Acesse o API Explorer [#accessing]
-
-Para usar o API Explorer da New Relic:
-
-1. Vá para
-
-
- **[rpm.newrelic.com/api/explore](https://rpm.newrelic.com/api/explore)**
-
-
- .
-
-2. Na barra de menu do API Explorer, selecione o nome da conta do seu aplicativo na lista dropdown .
-
-3. Na barra lateral, selecione um recurso (aplicativo, browser, etc.) e uma [função](/docs/apm/apis/api-explorer-v2/parts-api-explorer#functions) de API disponível:
-
-
- **GET**
-
-
- ,
-
-
- **PUT**
-
-
- ,
-
-
- **DELETE**
-
-
- .
-
-4. Digite os outros valores
-
-
- **Parameters**
-
-
- para sua chamada de API. (Consulte a interface para obter descrições e requisitos para v2.)
-
-5. Selecione o
-
-
- **format**
-
-
- para sua solicitação: JSON ou XML.
-
-6. Selecione
-
-
- **Send Request**
-
-
- .
+1. Vá para o **[API Explorer](https://api.newrelic.com/docs/)**.
+2. No dropdown **Servers**, escolha uma URL API baseada nos EUA ou na UE.
+3. Clique em **Authorize**, insira sua chave de API de usuário e clique em **Authorize** novamente.
+4. Expanda uma das funções de API disponíveis: **GET**, **PUT**, **DELETE**.
+5. (Opcional) Adicione valores **Parameters** para sua chamada de API para filtrar a resposta (consulte a interface para obter descrições e requisitos para a v2.)
+6. No dropdown **Media type**, escolha um formato para sua solicitação: JSON ou XML.
+7. Clique em **Try it out** e depois em **Execute**.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx b/src/i18n/content/pt/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx
index 20ffb92b18a..66b97694e3d 100644
--- a/src/i18n/content/pt/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx
+++ b/src/i18n/content/pt/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx
@@ -19,55 +19,31 @@ Os IDs podem incluir:
Para listar qualquer um desses IDs no [New Relic API Explorer](/docs/apis/using-the-api-explorer), você precisa de uma [chave de API](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key).
-## Use o API Explorer [#explorer]
+## Use o API Explorer [#use-api-explorer]
-Você pode usar o API Explorer para retornar uma lista de todos os IDs de produto de um produto específico:
+1. Vá para o **[API Explorer](https://api.newrelic.com/docs/)**.
+2. No dropdown **Servers**, escolha uma URL API baseada nos EUA ou na UE.
+3. Clique em **Authorize**, insira sua chave de API de usuário e clique em **Authorize** novamente.
+4. Expanda uma das funções de API disponíveis: **GET**, **PUT**, **DELETE**.
+5. (Opcional) Adicione valores **Parameters** para sua chamada de API para filtrar a resposta (consulte a interface para obter descrições e requisitos para a v2.)
+6. No dropdown **Media type**, escolha um formato para sua solicitação: JSON ou XML.
+7. Clique em **Try it out** e depois em **Execute**.
-1. Vá para
+## Listar IDs de produtos [#list-product-ids]
-
- **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > (select an app)**
-
+Para retornar uma lista de todos os IDs de produtos para um produto específico:
- .
+1. Clique no dropdown `GET /applications.json`.
+2. Clique em **Try it out** e depois em **Execute**.
+3. Navegue pela resposta para visualizar todos os IDs de produtos.
-2. Vá para o API Explorer em [rpm.newrelic.com/api/explore](https://rpm.newrelic.com/api/explore), em seguida, selecione o nome da sua conta no dropdown
+Depois de localizar um ID de produto específico, copie-o para mais tarde em sua outra chamada de API REST.
-
- **Select an account**
-
+## ID da lista do aplicativo [#locating\_app\_id][#locating_app_id]
- .
+Cada aplicativo monitorado por um agente recebe um nome. Um `$APP_ID` exclusivo também está associado a esse nome. O `$APP_ID` é fundamental para recuperar informações sobre seus aplicativos. Para obter mais informações sobre como listar e usar o `$APP_ID` e como obter os dados resumidos, consulte [Listando o ID do seu aplicativo](/docs/apis/rest-api-v2/application-examples-v2/listing-your-app-id-metric-data-v2).
-3. Na barra lateral, selecione
-
-
- **(product category) > GET List**
-
-
- . Selecione
-
-
- **Send Request**
-
-
- .
-
-4. Navegue em
-
-
- **Response**
-
-
- para localizar o ID do produto.
-
-Use o ID do produto localizado em sua chamada de API REST.
-
-## ID da lista do aplicativo [#locating_app_id]
-
-Cada aplicativo monitorado por um agente recebe um nome. Um `$APP_ID` exclusivo também está associado a esse nome. O `$APP_ID` é fundamental para recuperar informações sobre seus aplicativos. Para obter mais informações sobre como listar e usar o `$APP_ID` e como obter os dados resumidos, consulte [Listando o ID do seu aplicativo](/docs/apis/rest-api-v2/application-examples-v2/listing-your-app-id-metric-data-v2).
-
-## ID da lista do host [#locating_host_id]
+## ID da lista do host [#locating\_host\_id][#locating_host_id]
O `$HOST_ID` é usado para obter dados de APM para um host específico que executa um aplicativo. Um servidor físico pode ter mais de um host. Por exemplo, um programa de servidor web executado em um servidor físico pode ser configurado para ter mais de um host virtual.
@@ -75,35 +51,12 @@ Os IDs do host e do servidor físico não são iguais. Cada ID do host é único
Use `$HOST_ID` para recuperar métricas resumidas do host, bem como valores específicos de métrica de fração de tempo. Para mais informações sobre métricas disponíveis:
-1. Vá para
-
-
- **[rpm.newrelic.com](https://rpm.newrelic.com)**
-
-
- .
-
-2. Acesse o [API Explorer](https://rpm.newrelic.com/api/explore/application_hosts/list) e selecione o nome da sua conta no dropdown
-
-
- **Select an account**
-
-
- .
-
-3. Acesse a página
-
-
- **Application host**
-
-
- do API Explorer em [rpm.newrelic.com/api/explore/application_hosts/names](https://rpm.newrelic.com/api/explore/application_hosts/names).
+1. Vá para **[rpm.newrelic.com](https://rpm.newrelic.com)**.
+2. Acesse o [API Explorer](https://rpm.newrelic.com/api/explore/application_hosts/list) e selecione o nome da sua conta no dropdown **Select an account** .
+3. Acesse a página **Application host** do API Explorer em [rpm.newrelic.com/api/explore/application\_hosts/names](https://rpm.newrelic.com/api/explore/application_hosts/names).
-
+
Para usar o API Explorer para retornar uma lista de cada `$HOST_ID` de um aplicativo específico, você precisará do [`$APP_ID`](/docs/apis/rest-api-v2/requirements/finding-product-id).
1. Acesse o [API Explorer](https://rpm.newrelic.com/api/explore/application_hosts/list) e selecione o nome da sua conta no dropdown **Select an account** .
@@ -122,10 +75,7 @@ Use `$HOST_ID` para recuperar métricas resumidas do host, bem como valores espe
4. Navegue em **Response** para localizar o `{HOST_ID}` de cada host.
-
+
A saída será semelhante a esta:
```
@@ -168,7 +118,7 @@ Use `$HOST_ID` para recuperar métricas resumidas do host, bem como valores espe
-## ID da lista da instância [#locating_instance_id]
+## ID da lista da instância [#locating\_instance\_id][#locating_instance_id]
O significado do ID da instância depende do agente de idiomas da New Relic que está sendo usado. Você pode listar esse ID na API REST. Para Java, você também pode [visualizar o ID da instância (JVM)](#UI) na página **Overview** do APM.
@@ -261,10 +211,7 @@ O significado do ID da instância depende do agente de idiomas da New Relic que
Você pode recuperar métricas de resumo para a instância, bem como valores específicos de métrica de fração de tempo usando o `{INSTANCE_ID}`. Para obter detalhes sobre as métricas disponíveis, use a página [de instância do aplicativo REST API Explorer](https://rpm.newrelic.com/api/explore/application_instances/names) .
-
+
Para usar o API Explorer para retornar uma lista de cada `$INSTANCE_ID` de um aplicativo específico, você precisará do [`$APP_ID`](/docs/apis/rest-api-v2/requirements/finding-product-id).
1. Acesse o [API Explorer](https://rpm.newrelic.com/api/explore/application_hosts/list) e selecione o nome da sua conta no dropdown **Select an account** .
@@ -283,11 +230,8 @@ Você pode recuperar métricas de resumo para a instância, bem como valores esp
4. Navegue em **Response** para localizar o `$INSTANCE_ID` de cada instância.
-
- A saída {INSTANCE_ID} será semelhante a esta:
+
+ A saída \{INSTANCE\_ID} será semelhante a esta:
```
{
@@ -324,13 +268,10 @@ Você pode recuperar métricas de resumo para a instância, bem como valores esp
```
-
+
Aplicativos Java: para localizar uma JVM `$INSTANCE_ID` específica no New Relic:
- 1. Vá para **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > Applications > (select an app) > JVMs**.
+ 1. Vá para **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > Applications > (select an app) > JVMs**.
2. Selecione o nome da instância.
@@ -399,4 +340,4 @@ A saída de exemplo resultante está em execução em cinco servidores. Um servi
}
],
. . .
-```
+```
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx b/src/i18n/content/pt/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx
deleted file mode 100644
index d98ab739719..00000000000
--- a/src/i18n/content/pt/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx
+++ /dev/null
@@ -1,91 +0,0 @@
----
-title: Agente Python e Stackato
-tags:
- - Agents
- - Python agent
- - Hosting services
-metaDescription: 'How to install, configure, and initialize the Python agent with ActiveState''s Stackato solution.'
-freshnessValidatedDate: never
-translationType: machine
----
-
-[Stackato](http://www.activestate.com/cloud) é uma solução PaaS privada desenvolvida pela ActiveState. O agente Python pode ser usado em conjunto com Stackato seguindo as etapas descritas abaixo.
-
-As instruções aqui exigem que você use a versão 0.6 ou superior da imagem Stackato VM. Se você usar uma versão mais antiga da imagem Stackato VM, precisará atualizar.
-
-## Instalação do pacote
-
-ActiveState [hospeda uma cópia](http://code.activestate.com/pypm/newrelic/) do pacote do agente Python em seu repositório de pacotes [PyPM](http://code.activestate.com/pypm) . Para instalar o pacote Python para o agente, adicione `newrelic` ao arquivo `requirements.txt` em uma linha separada:
-
-```
-newrelic
-```
-
-Em seguida, você executaria o comando `update` usando o cliente Stackato.
-
-O repositório de pacotes PyPM é atualizado diariamente. Se você precisar usar uma versão mais recente do agente Python do que a disponível no repositório de pacotes PyPM, você precisará usar [pip](http://www.pip-installer.org/en/latest/) e pacotes de origem do [PyPI](http://pypi.python.org).
-
-Neste caso você precisará criar além do arquivo `requirements.txt` usado pelo PyPM, um arquivo `requirements.pip` como entrada para o pip. No arquivo `requirements.pip` você deve listar o pacote `newrelic` .
-
-## Arquivo de configuração do agente
-
-Você precisará gerar a configuração do agente Python em seu sistema local conforme descrito em [Instalação do agente Python](/docs/agents/python-agent/installation-and-configuration/python-agent-installation) e adicioná-la ao diretório que você envia para sua instância Stackato.
-
-A opção no arquivo de configuração do agente para especificar onde a saída do arquivo de log do agente deve ir deve ser definida como:
-
-```ini
-log_file = stderr
-```
-
-## Inicialização do agente Python [#python-agent-intialization]
-
-Embora seja possível incluir manualmente o código para inicializar o agente Python no módulo Python que contém o ponto de entrada do aplicativo WSGI, conforme instruções para [integração com o aplicativo Python](/docs/agents/python-agent/installation-and-configuration/python-agent-integration), um método de inicialização simplificado também está disponível usando o script `newrelic-admin` .
-
-No caso de você fazer isso manualmente, essas alterações normalmente serão feitas no arquivo `wsgi.py` que inclui seu aplicativo Web Python. Como o arquivo de configuração do agente estaria no mesmo diretório, a alteração no arquivo `wsgi.py` seria adicionar:
-
-```py
-import newrelic.agent
-
-config_file = os.path.join(os.path.dirname(__file__), 'newrelic.ini')
-newrelic.agent.initialize(config_file)
-```
-
-Como o diretório no sistema de arquivos onde o aplicativo está instalado pode mudar, o local da configuração do agente é calculado automaticamente em relação ao local do arquivo `wsgi.py` .
-
-A alternativa para adicionar código para executar a inicialização do agente manualmente é usar o script `newrelic-admin` .
-
-Se você estiver definindo explicitamente no arquivo `stackato.yml` como inicializar seu aplicativo da web definindo a entrada `web` na seção `processes` :
-
-```yml
-processes:
- web: python app.py
-```
-
-Você substituiria `web` para que ficasse:
-
-```yml
-processes:
- web: newrelic-admin run-program python app.py
-```
-
-Em outras palavras, você está prefixando o comando existente com `newrelic-admin run-program`.
-
-Ao mesmo tempo, você também deve adicionar uma seção `env` ao arquivo `stackato.yml` com:
-
-```yml
-env:
- NEW_RELIC_CONFIG_FILE: newrelic.ini
-```
-
-Se você ainda não estiver substituindo a entrada `web` e, em vez disso, estiver contando com o padrão da stack Stackato executando uWSGI para você, o processo será um pouco diferente. Neste caso, você precisará adicionar uma entrada `web` a `stackato.yml` como:
-
-```yml
-processes:
- web: newrelic-admin run-program $PROCESSES_WEB
-```
-
-A seção `env` também é novamente obrigatória.
-
-Se `PROCESSES_WEB` não estiver definido e isso não funcionar, indica que você está usando uma imagem de VM mais antiga e deve fazer upgrade.
-
-Quer o método manual ou mais automatizado seja usado, se necessário para a framework da web Python que está sendo usada, o objeto de ponto de entrada do aplicativo WSGI também precisará ser empacotado adequadamente.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx b/src/i18n/content/pt/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx
deleted file mode 100644
index 78cbd1cd6ec..00000000000
--- a/src/i18n/content/pt/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx
+++ /dev/null
@@ -1,12 +0,0 @@
----
-title: Agente Python e WebFaction
-tags:
- - Agents
- - Python agent
- - Hosting services
-metaDescription: 'To use the Python agent with WebFaction hosting services, follow the instructions for Apache/mod_wsgi.'
-freshnessValidatedDate: never
-translationType: machine
----
-
-Você pode instalar o agente Python no aplicativo em execução no WebFaction. [WebFaction](http://www.webfaction.com/) é um serviço de hospedagem web de uso geral capaz de hospedar aplicativos web usando várias linguagens, incluindo Python. A maneira típica como os aplicativos da web Python são hospedados no WebFaction é usando Apache/mod_wsgi. Para obter mais informações sobre como instalar o agente em um aplicativo WebFaction Python, consulte [Instalar o agente Python](/docs/agents/python-agent/installation-configuration/python-agent-installation) e siga as instruções para mod_wsgi.
diff --git a/src/i18n/content/pt/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx b/src/i18n/content/pt/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx
index 08f9be898cc..de851de85eb 100644
--- a/src/i18n/content/pt/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx
+++ b/src/i18n/content/pt/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx
@@ -52,7 +52,7 @@ Em muitos casos, o endpoint das mensagens de IA é registrado em locais diferent
`trace_id`
- _corda_
+ *corda*
|
@@ -64,7 +64,7 @@ Em muitos casos, o endpoint das mensagens de IA é registrado em locais diferent
|
`rating`
- _string_ ou _int_
+ *string* ou *int*
|
@@ -76,7 +76,7 @@ Em muitos casos, o endpoint das mensagens de IA é registrado em locais diferent
|
`category`
- _corda_
+ *corda*
|
@@ -88,7 +88,7 @@ Em muitos casos, o endpoint das mensagens de IA é registrado em locais diferent
|
`message`
- _corda_
+ *corda*
|
@@ -100,7 +100,7 @@ Em muitos casos, o endpoint das mensagens de IA é registrado em locais diferent
|
`metadata`
- _dict_
+ *dict*
|
@@ -110,7 +110,7 @@ Em muitos casos, o endpoint das mensagens de IA é registrado em locais diferent
-## Valores de retorno [#return-valuess]
+## Valores de retorno [#return-values]
Nenhum.
@@ -129,4 +129,4 @@ Exemplo de gravação de um evento de feedback:
def post_feedback(request):
newrelic.agent.record_llm_feedback_event(trace_id=request.trace_id, rating=request.rating, metadata= {"my_key": "my_val"})
```
-````
+````
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx b/src/i18n/content/pt/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx
new file mode 100644
index 00000000000..b1e697861af
--- /dev/null
+++ b/src/i18n/content/pt/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx
@@ -0,0 +1,85 @@
+---
+title: WithLlmCustomAttributes (API do agente Python)
+type: apiDoc
+shortDescription: Adicionar atributo personalizado ao evento LLM
+tags:
+ - Agents
+ - Python agent
+ - Python agent API
+metaDescription: 'Python API: This API adds custom attributes to a Large Language Model (LLM) events generated in AI applications.'
+freshnessValidatedDate: never
+translationType: machine
+---
+
+## Sintaxe [#syntax]
+
+```py
+ with newrelic.agent.WithLlmCustomAttributes(custom_attribute_map):
+```
+
+API gerenciadora de contexto que adiciona atributos especificados pelo usuário ao grande modelo de linguagem (LLM) gerado por chamadas LLM no código do aplicativo.
+
+## Requisitos [#requirements]
+
+Agente Python versão 10.1.0 ou superior.
+
+## Descrição [#description]
+
+Esta API do gerenciador de contexto adiciona atributos personalizados especificados pelo usuário a cada evento LLM gerado dentro de seu contexto com base em chamadas feitas aos LLMs. O agente adicionará automaticamente um prefixo `llm.` a cada nome de chave de atributo personalizado especificado no argumento do dicionário passado. Esta API deve ser chamada dentro do contexto de uma transação ativa.
+
+Esses atributos personalizados podem ser visualizados no evento LLM e consultados na interface New Relic . Para obter mais informações sobre AI Monitoring, consulte nossa [documentação de IA](https://docs.newrelic.com/docs/ai-monitoring/intro-to-ai-monitoring/).
+
+## Parâmetro [#parameters]
+
+
+
+
+
+ Parâmetro
+ |
+
+
+ Descrição
+ |
+
+
+
+
+
+
+ `custom_attribute_map`
+
+ *dicionário*
+ |
+
+
+ Obrigatório. Um dicionário não vazio onde cada par de valores principais indica o nome do atributo personalizado e seu respectivo valor.
+ |
+
+
+
+
+## Valores de retorno [#return-values]
+
+Nenhum.
+
+## Exemplos [#examples]
+
+### Adicionar atributo personalizado a uma chamada de conclusão de chat OpenAI
+
+```py
+ import newrelic.agent
+
+ from openai import OpenAI
+
+ client = OpenAI()
+
+ with newrelic.agent.WithLlmCustomAttributes({"custom": "attr", "custom1": "attr1"}):
+ response = client.chat.completions.create(
+ messages=[{
+ "role": "user",
+ "content": "Say this is a test",
+ }],
+ model="gpt-4o-mini",
+ )
+```
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx b/src/i18n/content/pt/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
index 0be51f36262..d805feed5c3 100644
--- a/src/i18n/content/pt/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx
@@ -248,6 +248,7 @@ Ao migrar da nossa integração tradicional do Azure para a integração do Azur
* Ao ativar uma integração Azure Monitor , será criada uma nova entidade separada para todos os seus recursos. A entidade criada pela integração Azure Polling mantém-se como está. Isso significa que você deve atualizar o dashboard, alertas e qualquer outro recurso que refira essas entidades.
* As entidades antigas ficam disponíveis por 24 horas.
+* Um nome de métrica pode aparecer duas vezes quando a métrica tem combinações de dimensões diferentes. Você pode evitar nomes métricos duplicados [criando uma consulta que filtre agregações de seus dados](/docs/infrastructure/microsoft-azure-integrations/get-started/azure-integration-metrics/#metrics-with-many-dimension-combinations).
## Etapas de migração da integração anterior do Azure Polling [#migration-from-polling]
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx
index 2e41196aa59..b4041088a24 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx
@@ -132,7 +132,6 @@ newrelic_remote_write:
extra_write_relabel_configs:
# Enable the extra_write_relabel_configs below for backwards compatibility with legacy POMI labels.
# This helpful when migrating from POMI to ensure that Prometheus metrics will contain both labels (e.g. cluster_name and clusterName).
- # For more migration info, please visit the [migration guide](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide/).
- source_labels: [namespace]
action: replace
target_label: namespaceName
@@ -218,4 +217,4 @@ newrelic-prometheus-agent:
enabled: false
```
-Siga as etapas explicadas neste [documento](/docs/kubernetes-pixie/kubernetes-integration/installation/install-kubernetes-integration-using-helm/#upgrade) para atualizar o cluster do Kubernetes usando Helm.
+Siga as etapas explicadas neste [documento](/docs/kubernetes-pixie/kubernetes-integration/installation/install-kubernetes-integration-using-helm/#upgrade) para atualizar o cluster do Kubernetes usando Helm.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx
index b47b4c53145..1caf71e808b 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx
@@ -23,8 +23,8 @@ Para configurar o agente usando Helm, você deve configurar seu `values.yaml` de
```yaml
global:
- licenseKey: _YOUR_NEW_RELIC_LICENSE_KEY_
- cluster: _K8S_CLUSTER_NAME_
+ licenseKey: YOUR_NEW_RELIC_LICENSE_KEY
+ cluster: K8S_CLUSTER_NAME
newrelic-prometheus-agent:
enabled: true
@@ -37,8 +37,8 @@ Para configurar o agente usando Helm, você deve configurar seu `values.yaml` de
Esta opção só é recomendada se você for um usuário avançado.
```yaml
- licenseKey: _YOUR_NEW_RELIC_LICENSE_KEY_
- cluster: _K8S_CLUSTER_NAME_
+ licenseKey: YOUR_NEW_RELIC_LICENSE_KEY
+ cluster: K8S_CLUSTER_NAME
config:
# YOUR CONFIGURATION GOES HERE. An example:
@@ -66,8 +66,8 @@ app_values: ["redis", "traefik", "calico", "nginx", "coredns", "kube-dns", "etcd
Além disso, pode acontecer que uma nova versão dos filtros de integração faça com que um destino que já foi eliminado por um trabalho seja eliminado uma segunda vez. Para receber uma notificação em caso de dados duplicados (e evitar totalmente a eliminação duplicada), você pode criar um alerta com base na seguinte consulta:
-```
-FROM Metric select uniqueCount(job) facet instance, cluster_name limit 10 since 2 minutes ago
+```sql
+FROM Metric SELECT uniqueCount(job) FACET instance, cluster_name LIMIT 10 SINCE 2 minutes ago
```
Se algum valor for diferente de 1, você terá dois ou mais trabalhos extraindo a mesma instância no mesmo cluster.
@@ -99,19 +99,19 @@ O exemplo a seguir coleta apenas `Pods` e `Endpoints` com a anotação `newrelic
```yaml
kubernetes:
jobs:
- - job_name_prefix: example
- integrations_filter:
- enabled: false
- target_discovery:
- pod: true
- endpoints: true
- filter:
- annotations:
- # :
- newrelic.io/scrape: 'true'
- label:
- # :
- k8s.io/app: '(postgres|mysql)'
+ - job_name_prefix: example
+ integrations_filter:
+ enabled: false
+ target_discovery:
+ pod: true
+ endpoints: true
+ filter:
+ annotations:
+ # :
+ newrelic.io/scrape: "true"
+ label:
+ # :
+ k8s.io/app: "(postgres|mysql)"
```
@@ -174,21 +174,21 @@ common:
scrape_interval: 30s
kubernetes:
jobs:
- # this job will use the default scrape_interval defined in common.
- - job_name_prefix: default-targets-with-30s-interval
- target_discovery:
- pod: true
- filter:
- annotations:
- newrelic.io/scrape: 'true'
-
- - job_name_prefix: slow-targets-with-60s-interval
- scrape_interval: 60s
- target_discovery:
- pod: true
- filter:
- annotations:
- newrelic.io/scrape_slow: 'true'
+ # this job will use the default scrape_interval defined in common.
+ - job_name_prefix: default-targets-with-30s-interval
+ target_discovery:
+ pod: true
+ filter:
+ annotations:
+ newrelic.io/scrape: "true"
+
+ - job_name_prefix: slow-targets-with-60s-interval
+ scrape_interval: 60s
+ target_discovery:
+ pod: true
+ filter:
+ annotations:
+ newrelic.io/scrape_slow: "true"
```
## Transformações métricas e de rótulos [#metric-label-transformations]
@@ -203,21 +203,21 @@ Aqui está um exemplo de como usá-lo em diferentes partes do arquivo de configu
```yaml
static_targets:
-- name: self-metrics
- urls:
- - 'http://static-service:8181'
- extra_metric_relabel_config:
- # Drop metrics with prefix 'go_' for this target.
- - source_labels: [__name__]
- regex: 'go_.+'
- action: drop
+ - name: self-metrics
+ urls:
+ - "http://static-service:8181"
+ extra_metric_relabel_config:
+ # Drop metrics with prefix 'go_' for this target.
+ - source_labels: [__name__]
+ regex: "go_.+"
+ action: drop
newrelic_remote_write:
extra_write_relabel_configs:
- # Drop all metrics with the specified name before sent to New Relic.
- - source_labels: [__name__]
- regex: 'metric_name'
- action: drop
+ # Drop all metrics with the specified name before sent to New Relic.
+ - source_labels: [__name__]
+ regex: "metric_name"
+ action: drop
```
### Exemplos de trechos de arquivo YAML [#config-samples]
@@ -270,10 +270,10 @@ Adicione um desses exemplos no arquivo de configuração YAML da seção [de tra
```yaml
- source_labels: [__name__]
- regex: 'prefix_.+'
- target_label: new_label
- action: replace
- replacement: newLabelValue
+ regex: 'prefix_.+'
+ target_label: new_label
+ action: replace
+ replacement: newLabelValue
```
@@ -282,7 +282,7 @@ Adicione um desses exemplos no arquivo de configuração YAML da seção [de tra
```yaml
- regex: 'label_name'
- action: labeldrop
+ action: labeldrop
```
@@ -303,36 +303,37 @@ Aqui estão alguns exemplos para lidar com destinos que necessitam de autorizaç
```yaml
kubernetes:
jobs:
- - job_name_prefix: skip-verify-on-https-targets
- target_discovery:
- pod: true
- filter:
- annotations:
- newrelic.io/scrape: 'true'
- - job_name_prefix: bearer-token
- target_discovery:
- pod: true
- filter:
- label:
- k8s.io/app: my-app-with-token
- authorization:
- type: Bearer
- credentials_file: '/etc/my-app/token'
+ - job_name_prefix: skip-verify-on-https-targets
+ target_discovery:
+ pod: true
+ filter:
+ annotations:
+ newrelic.io/scrape: "true"
+ - job_name_prefix: bearer-token
+ target_discovery:
+ pod: true
+ filter:
+ label:
+ k8s.io/app: my-app-with-token
+ authorization:
+ type: Bearer
+ credentials_file: "/etc/my-app/token"
static_targets:
jobs:
- - job_name: mtls-target
- scheme: https
- targets:
- - 'my-mtls-target:8181'
- tls_config:
- ca_file: '/etc/my-app/client-ca.crt'
- cert_file: '/etc/my-app/client.crt'
- key_file: '/etc/my-app/client.key'
-
- - job_name: basic-auth-target
- targets:
- - 'my-basic-auth-static:8181'
- basic_auth:
- password_file: '/etc/my-app/pass.htpasswd'
+ - job_name: mtls-target
+ scheme: https
+ targets:
+ - "my-mtls-target:8181"
+ tls_config:
+ ca_file: "/etc/my-app/client-ca.crt"
+ cert_file: "/etc/my-app/client.crt"
+ key_file: "/etc/my-app/client.key"
+
+ - job_name: basic-auth-target
+ targets:
+ - "my-basic-auth-static:8181"
+ basic_auth:
+ password_file: "/etc/my-app/pass.htpasswd"
+
```
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx
index 300b5d7b8bb..6c439c5e4af 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx
@@ -23,10 +23,10 @@ global:
Depois que isso for atualizado nos arquivos de valores, execute o seguinte comando helm upgrade:
```bash
-helm upgrade newrelic-prometheus-configurator/newrelic-prometheus-agent \
---namespace \
--f values-newrelic.yaml \
-[--version fixed-chart-version]
+helm upgrade RELEASE_NAME newrelic-prometheus-configurator/newrelic-prometheus-agent \
+ --namespace NEWRELIC_NAMESPACE \
+ -f values-newrelic.yaml \
+ [--version fixed-chart-version]
```
## Não vendo métrica para um destino [#target-with-no-metrics]
@@ -35,7 +35,7 @@ Você precisa de pelo menos um `job` que descubra o destino no Kubernetes que co
Se você estiver usando a configuração padrão no Kubernetes, verifique se seu pod ou serviço tem a anotação `prometheus.io/scrape=true` .
-Por padrão, o agente Prometheus extrai métricas apenas do [Prometheus integração](/docs/infrastructure/prometheus-integrations/integrations-list/integrations-list-intro). A menos que você tenha optado por extrair todos os endpoints do Prometheus no cluster, o agente do Prometheus filtra o endpoint a ser copiado usando os rótulos definidos em [source_labels](https://github.com/newrelic/newrelic-prometheus-configurator/blob/main/charts/newrelic-prometheus-agent/values.yaml).
+Por padrão, o agente Prometheus extrai métricas apenas do [Prometheus integração](/docs/infrastructure/prometheus-integrations/integrations-list/integrations-list-intro). A menos que você tenha optado por extrair todos os endpoints do Prometheus no cluster, o agente do Prometheus filtra o endpoint a ser copiado usando os rótulos definidos em [source\_labels](https://github.com/newrelic/newrelic-prometheus-configurator/blob/main/charts/newrelic-prometheus-agent/values.yaml).
## Não vendo métrica em um dashboard [#dashboard-with-no-metrics]
@@ -45,8 +45,8 @@ Alguns dos painéis fornecidos pela [integração do Prometheus](/docs/infrastru
Cada raspagem de destino gera a métrica `up` com toda a métrica de destino. Se a raspagem for bem-sucedida, essas métricas terão `1` como valor. Se não for bem-sucedido, o valor será `0`.
-```SQL
-FROM Metric SELECT latest(up) WHERE cluster_name= 'YOUR_CLUSTER_NAME' AND pod = 'TARGET_POD_NAME' TIMESERIES
+```sql
+FROM Metric SELECT latest(up) WHERE cluster_name = 'YOUR_CLUSTER_NAME' AND pod = 'TARGET_POD_NAME' TIMESERIES
```
Se esta métrica não existir para o destino, ela poderá ter sido descartada.
@@ -103,4 +103,4 @@ O destino com falha será listado e o erro estará disponível no campo `lastErr
]
}
}
-```
+```
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx
index d2904db804f..0888f215cda 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx
@@ -20,11 +20,7 @@ Use New Relic para visualizar um dashboard baseado na métrica do Prometheus par
* Estatísticas do servidor de CD Argo
* Estatísticas do repositório
-
+
## Habilite a integração
@@ -46,7 +42,7 @@ Siga estas etapas para ativar a integração.
FROM Metric SELECT count(*) WHERE instrumentation.name = 'remote-write' AND metricName LIKE 'argocd_%' FACET metricName LIMIT MAX
```
-4. Instale o [início rápido do CD Argo](https://newrelic.com/instant-observability/argocd-quickstart) para acessar e [alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) integrados.
+4. Instale o [início rápido do CD Argo](https://newrelic.com/instant-observability/argocd-quickstart) para acessar e [alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) integrados.
Depois de importar, você pode editar ou clonar os ativos para adaptá-los aos seus requisitos específicos.
@@ -84,8 +80,8 @@ Use a seguinte consulta NRQL para entender a métrica que está sendo ingerida n
* Use este comando para verificar se o endpoint Argo CD Prometheus está emitindo métricas em qualquer nó K8s configurado com Argo CD:
- ```
+ ```sh
curl :8082/metrics
```
-* Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para integração do Prometheus.
+* Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para integração do Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx
index eb76d57b92f..3ef5e9670a7 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx
@@ -21,11 +21,7 @@ Use New Relic para visualizar um dashboard baseado na métrica do Prometheus que
* Tabelas IP salvam e restauram erros
* Métrica específica do BPF se o BPF for usado como plano de dados para Calico
-
+
## Habilite a integração
@@ -80,18 +76,18 @@ Use a seguinte consulta NRQL para entender a métrica que está sendo ingerida n
* Estimar a ingestão de dados (ingestão diária, em bytes):
```sql
- FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'felix_%' SINCE
- 1 day ago
+ FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'felix_%'
+ SINCE 1 day ago
```
## Resolução de problemas
* Use este comando para verificar se o endpoint Calico Prometheus está emitindo métricas em qualquer nó K8s configurado com Calico CNI:
- ```
+ ```sh
curl :9091/metrics
```
* Siga as dicas de resolução de problemas da [documentação do Calico](https://projectcalico.docs.tigera.io/maintenance/monitor/monitor-component-metrics) para garantir que as métricas estejam configuradas conforme o esperado em seu cluster.
-* Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para integração do Prometheus.
+* Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para integração do Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx
index 161991fcf7d..0c48b914046 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx
@@ -29,11 +29,7 @@ Use New Relic para monitor:
* Contagem alta de descritores de arquivos abertos
* Expirações de certificado
-
+
## Habilite a integração
@@ -52,10 +48,10 @@ Siga estas etapas para ativar a integração.
3. Use a seguinte consulta para confirmar que as métricas estão sendo ingeridas conforme esperado:
```sql
- SELECT * from Metric where metricName='rocksdb_num_sstables'
+ SELECT * FROM Metric WHERE metricName = 'rocksdb_num_sstables'
```
-4. Instale o [início rápido do CockroachDB](https://newrelic.com/instant-observability/?search=cockroachdb) para acessar e [alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) integrados.
+4. Instale o [início rápido do CockroachDB](https://newrelic.com/instant-observability/?search=cockroachdb) para acessar e [alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) integrados.
Alguns gráficos do dashboard incluem consulta de condições que exigem a identificação do seu pod ou endpoint com um destes rótulos `app.kubernetes.io/name`, `app.newrelic.io/name`, `k8s-app` contendo a string `cockroachdb`.
@@ -69,17 +65,17 @@ Siga estas etapas para ativar a integração.
```yaml
- source_labels: [__name__]
- separator: ;
- regex: timeseries_write_(.*)
- target_label: newrelic_metric_type
- replacement: counter
- action: replace
+ separator: ;
+ regex: timeseries_write_(.*)
+ target_label: newrelic_metric_type
+ replacement: counter
+ action: replace
- source_labels: [__name__]
- separator: ;
- regex: sql_byte(.*)
- target_label: newrelic_metric_type
- replacement: counter
- action: replace
+ separator: ;
+ regex: sql_byte(.*)
+ target_label: newrelic_metric_type
+ replacement: counter
+ action: replace
```
## Encontre e use os dados
@@ -93,33 +89,33 @@ Os diferentes conjuntos de métricas expostos por esta integração estão defin
Use a seguinte consulta NRQL para entender a métrica do CockroachDB que está sendo ingerida no New Relic.
-
+
* Liste nomes de métricas exclusivos:
```sql
- FROM Metric SELECT uniques(metricName) WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') LIMIT MAX
+ FROM Metric SELECT uniques(metricName)
+ WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%')
+ LIMIT MAX
```
* Contar o número de atualizações métricas:
```sql
- FROM Metric SELECT datapointcount() WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') FACET metricName
+ FROM Metric SELECT datapointcount()
+ WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%')
+ FACET metricName
```
* Estimar a ingestão de dados (ingestão diária, em bytes):
```sql
- FROM Metric SELECT bytecountestimate() WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') SINCE 1 day ago
+ FROM Metric SELECT bytecountestimate()
+ WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%')
+ SINCE 1 day ago
```
-
+
Ajuste o nome do trabalho de acordo com suas configurações de configuração.
@@ -127,7 +123,7 @@ Use a seguinte consulta NRQL para entender a métrica do CockroachDB que está s
* Liste nomes de métricas exclusivos:
```sql
- FROM Metric SELECT uniques(metricName) WHERE job='cockroachdb' LIMIT MAX
+ FROM Metric SELECT uniques(metricName) WHERE job = 'cockroachdb' LIMIT MAX
```
* Contar o número de atualizações métricas:
@@ -148,4 +144,4 @@ Use a seguinte consulta NRQL para entender a métrica do CockroachDB que está s
Siga as dicas de resolução de problemas da [documentação do CockroachDB](https://www.cockroachlabs.com/docs/v22.1/monitor-cockroachdb-with-prometheus.html) para garantir que as métricas estejam configuradas conforme esperado em seu cluster.
-Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para integração do Prometheus.
+Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para integração do Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx
index 2e7759a5844..78fc83bdb0e 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx
@@ -18,11 +18,7 @@ Use New Relic para visualizar o desempenho do CoreDNS, alertando sobre possívei
* Erros CoreDNS
* Estatísticas de cache
-
+
## Habilite a integração
@@ -41,7 +37,7 @@ Siga estas etapas para ativar a integração.
3. Use a seguinte consulta para confirmar que as métricas estão sendo ingeridas conforme esperado:
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'coredns_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'coredns_%' FACET metricName LIMIT MAX
```
4. Instale o [CoreDNS início rápido](https://newrelic.com/instant-observability/CoreDNS) para acessar o painel integrado e [alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
@@ -65,13 +61,13 @@ Use a seguinte consulta NRQL para entender a métrica que está sendo ingerida n
* Liste nomes de métricas exclusivos:
```sql
- FROM Metric SELECT uniques(metricName) WHERE metricName LIKE 'coredns_%' LIMIT MAX
+ FROM Metric SELECT uniques(metricName) WHERE metricName LIKE 'coredns_%' LIMIT MAX
```
* Contar o número de atualizações métricas:
```sql
- FROM Metric SELECT datapointcount() WHERE metricName LIKE 'coredns_%' LIMIT MAX
+ FROM Metric SELECT datapointcount() WHERE metricName LIKE 'coredns_%' LIMIT MAX
```
* Estimar a ingestão de dados (ingestão diária, em bytes):
@@ -84,4 +80,4 @@ Use a seguinte consulta NRQL para entender a métrica que está sendo ingerida n
Siga as dicas de resolução de problemas da [documentação do CoreDNS](https://coredns.io/plugins/kubernetes/) para garantir que as métricas estejam configuradas conforme o esperado em seu cluster.
-Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para integração do Prometheus.
+Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para integração do Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx
index 1bcbf518b02..978c13edb2c 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx
@@ -18,11 +18,7 @@ Use New Relic para exibir um dashboard com curadoria baseado na métrica do Prom
* Estatísticas gRPC
* Latência de gravação em disco
-
+
## Habilite a integração
@@ -41,10 +37,10 @@ Siga estas etapas para ativar a integração.
3. Use a seguinte consulta para confirmar que as métricas estão sendo ingeridas conforme esperado:
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'etcd_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'etcd_%' FACET metricName LIMIT MAX
```
-4. Instale o [início rápido do Etcd](https://newrelic.com/instant-observability/etcd) para acessar e [alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) integrados.
+4. Instale o [início rápido do Etcd](https://newrelic.com/instant-observability/etcd) para acessar e [alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) integrados.
Depois de importar, você pode editar ou clonar os ativos para adaptá-los aos seus requisitos específicos.
@@ -77,12 +73,12 @@ Use a seguinte consulta NRQL para entender a métrica que está sendo ingerida n
* Estimar a ingestão de dados (ingestão diária, em bytes):
```sql
- FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'etcd_%' SINCE
- 1 day ago
+ FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'etcd_%'
+ SINCE 1 day ago
```
## Resolução de problemas
Siga as dicas de resolução de problemas da [documentação do Etcd](https://etcd.io/docs/v3.5/op-guide/monitoring/) para garantir que as métricas estejam configuradas conforme esperado em seu cluster.
-Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para integração do Prometheus.
+Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para integração do Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx
index d40433507a0..e4780610cf4 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx
@@ -17,11 +17,7 @@ Use New Relic para visualizar um dashboard baseado na métrica do Prometheus que
* Porcentagem de utilização da cota de bytes do Projeto Harbour
* Taxas de erros do Harbour Server e do Client
-
+
## Habilite a integração
@@ -81,8 +77,8 @@ Use a seguinte consulta NRQL para entender a métrica que está sendo ingerida n
* Use este comando para verificar se o endpoint Harbor Prometheus está emitindo métricas em qualquer nó K8s configurado com Harbor:
- ```
+ ```sh
curl :9090/metrics
```
-* Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para integração do Prometheus.
+* Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para integração do Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx
index 1fe93a7ca12..af2d62544b4 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx
@@ -20,11 +20,7 @@ Use New Relic para aumentar a visibilidade do desempenho do controlador de ingre
* Insights de solicitação e resposta sobre tamanho da carga e tempo de resposta
* Estatísticas de CPU e memória
-
+
## Habilite a integração
@@ -43,10 +39,10 @@ Siga estas etapas para ativar a integração.
3. Use a seguinte consulta para confirmar que as métricas estão sendo ingeridas conforme esperado:
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'nginx_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'nginx_%' FACET metricName LIMIT MAX
```
-4. Instale [o início rápido do NGINX Ingress Controller](https://newrelic.com/instant-observability/nginx-ingress-controller) para acessar e [alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) integrados.
+4. Instale [o início rápido do NGINX Ingress Controller](https://newrelic.com/instant-observability/nginx-ingress-controller) para acessar e [alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) integrados.
Depois de importar, você pode editar ou clonar os ativos para adaptá-los aos seus requisitos específicos.
@@ -86,4 +82,4 @@ Use a seguinte consulta NRQL para entender a métrica que está sendo ingerida n
Siga as dicas de resolução de problemas da [documentação do NGINX Ingress Controller](https://kubernetes.github.io/ingress-nginx/user-guide/monitoring/#prometheus-and-grafana-installation-using-pod-annotations) para garantir que as métricas estejam configuradas conforme esperado em seu cluster.
-Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para integração do Prometheus.
+Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para integração do Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx
index 663ca3bd421..dfb7725566c 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx
@@ -70,6 +70,7 @@ global:
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -91,10 +92,7 @@ Você pode configurar o destino estaticamente por meio do parâmetro `static_con
Você pode definir uma configuração estática em um novo comentário `# Target setup`:
-
+
Certifique-se de inserir seu ``:
```yml lineHighlight=12-16
@@ -103,6 +101,7 @@ Você pode definir uma configuração estática em um novo comentário `# Target
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -111,9 +110,9 @@ Você pode definir uma configuração estática em um novo comentário `# Target
# Target setup
static_configs:
- - targets: ['localhost:9100']
- labels:
- instanceid:
+ - targets: ['localhost:9100']
+ labels:
+ instanceid:
remote_write:
- url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter
@@ -122,10 +121,7 @@ Você pode definir uma configuração estática em um novo comentário `# Target
```
-
+
Certifique-se de inserir seu ``:
```yml lineHighlight=12-16
@@ -134,6 +130,7 @@ Você pode definir uma configuração estática em um novo comentário `# Target
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -142,9 +139,9 @@ Você pode definir uma configuração estática em um novo comentário `# Target
# Target setup
static_configs:
- - targets: ['localhost:9100']
- labels:
- instanceid:
+ - targets: ['localhost:9100']
+ labels:
+ instanceid:
remote_write:
- url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter
@@ -153,10 +150,7 @@ Você pode definir uma configuração estática em um novo comentário `# Target
```
-
+
Certifique-se de inserir seu ``:
```yml lineHighlight=12-16
@@ -165,6 +159,7 @@ Você pode definir uma configuração estática em um novo comentário `# Target
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -173,9 +168,9 @@ Você pode definir uma configuração estática em um novo comentário `# Target
# Target setup
static_configs:
- - targets: ['localhost:9100']
- labels:
- instanceid:
+ - targets: ['localhost:9100']
+ labels:
+ instanceid:
remote_write:
- url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter
@@ -190,10 +185,7 @@ Você pode definir uma configuração estática em um novo comentário `# Target
Em vez de configurar o destino estático, você pode configurar a descoberta de serviço.
-
+
Você pode configurar a descoberta de serviço para suas instâncias de EC2 AWS fornecendo `region`, `access_key`, `secret_key` e `port` em `# Target setup`.
```yml lineHighlight=12-22
@@ -202,6 +194,7 @@ Em vez de configurar o destino estático, você pode configurar a descoberta de
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -227,10 +220,7 @@ Em vez de configurar o destino estático, você pode configurar a descoberta de
```
-
+
Em `# Target setup`, certifique-se de inserir seu ``:
```yml lineHighlight=12-15
@@ -239,6 +229,7 @@ Em vez de configurar o destino estático, você pode configurar a descoberta de
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -257,10 +248,7 @@ Em vez de configurar o destino estático, você pode configurar a descoberta de
```
-
+
Em `# Target setup`, certifique-se de inserir seu ``:
```yml lineHighlight=12-15
@@ -269,6 +257,7 @@ Em vez de configurar o destino estático, você pode configurar a descoberta de
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -301,10 +290,7 @@ Os relacionamentos exigem atributos que são descartados por padrão no Promethe
Nos exemplos abaixo, mostramos a combinação de descoberta dinâmica com rótulos. Se você estiver usando destino estático, basta inserir o [destino estático](#static-targets) mostrado acima.
-
+
Para obter mais detalhes, consulte a documentação do Prometheus [EC2](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#ec2_sd_config) .
```yml lineHighlight=23-26
@@ -313,6 +299,7 @@ Nos exemplos abaixo, mostramos a combinação de descoberta dinâmica com rótul
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -342,10 +329,7 @@ Nos exemplos abaixo, mostramos a combinação de descoberta dinâmica com rótul
```
-
+
Para obter mais detalhes, consulte a documentação do Prometheus [EC2](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#azure_sd_config) .
```yml lineHighlight=16-19
@@ -354,6 +338,7 @@ Nos exemplos abaixo, mostramos a combinação de descoberta dinâmica com rótul
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -376,10 +361,7 @@ Nos exemplos abaixo, mostramos a combinação de descoberta dinâmica com rótul
```
-
+
Para obter mais detalhes, consulte a documentação do Prometheus [EC2](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#gce_sd_config) .
```yml lineHighlight=16-19
@@ -388,6 +370,7 @@ Nos exemplos abaixo, mostramos a combinação de descoberta dinâmica com rótul
scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# scrape_timeout is set to the global default (10s).
+
# A scrape configuration containing exactly one endpoint to scrape:
# Here it's Prometheus itself.
scrape_configs:
@@ -417,10 +400,10 @@ Agora você pode iniciar o raspador Prometheus.
1. Execute o seguinte:
- ```
+ ```sh
./prometheus --config.file=./prometheus.yml
```
2. Configure o scraper para ser executado em segundo plano com os comandos de teclado `CONTROL + z` e `bg`. No ambiente de produção, você deseja configurar isso como um serviço (por exemplo, com `systemd`).
-3. Veja seus dados na interface do New Relic acessando **[one.newrelic.com](https://one.newrelic.com/) > Infrastructure > Hosts**.
+3. Veja seus dados na interface do New Relic acessando **[one.newrelic.com](https://one.newrelic.com/) > Infrastructure > Hosts**.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx
index da252fb5127..c8828d272b7 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx
@@ -20,11 +20,7 @@ Com New Relic você pode monitor:
* Gráficos mostrando clientes conectados, clientes conectados por nó, alterações desde o último salvamento por nó, chaves expiradas/segundo por nó, memória usada por nó e clientes bloqueados
* Gráficos mostrando a taxa de acertos do keyspace por nó, chaves removidas/segundo por nó, bytes de entrada/segundo por nó, I/O de rede por segundo e bytes de saída/segundo por nó
-
+
## Habilite a integração
@@ -43,10 +39,10 @@ Siga estas etapas para ativar a integração.
3. Use a seguinte consulta para confirmar que as métricas estão sendo ingeridas conforme esperado:
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'redis_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'redis_%' FACET metricName LIMIT MAX
```
-4. Instale [o início rápido do Redis (Prometheus)](https://newrelic.com/instant-observability/redis-prometheus) para acessar e [alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) integrados.
+4. Instale [o início rápido do Redis (Prometheus)](https://newrelic.com/instant-observability/redis-prometheus) para acessar e [alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) integrados.
Depois de importar, você pode editar ou clonar os ativos para adaptá-los aos seus requisitos específicos.
@@ -90,4 +86,4 @@ Essa integração permite que `Redis` entidade forneça o conjunto completo de [
Siga as dicas de resolução de problemas da [documentação do exportadorRedis ](https://github.com/oliver006/redis_exporter)para garantir que as métricas estejam configuradas conforme o esperado em seu cluster.
-Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para integração do Prometheus.
+Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para integração do Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx
index bb7d37a5e78..14231c6d615 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx
@@ -13,11 +13,7 @@ translationType: machine
Use New Relic para instalar facilmente um dashboard com curadoria para monitor a integridade de sua instância do Traefik.
-
+
## Habilite a integração
@@ -36,7 +32,7 @@ Siga estas etapas para ativar a integração.
3. Use a seguinte consulta para confirmar que as métricas estão sendo ingeridas conforme esperado:
```sql
- FROM Metric SELECT count(*) WHERE metricName LIKE 'traefik_%' FACET metricName LIMIT MAX
+ FROM Metric SELECT count(*) WHERE metricName LIKE 'traefik_%' FACET metricName LIMIT MAX
```
4. Instale o [Traefik início rápido](https://newrelic.com/instant-observability/traefik) para acessar o painel integrado e [alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/).
@@ -83,4 +79,4 @@ Essa integração permite que `Traefik` entidade forneça o conjunto completo de
Siga as dicas de resolução de problemas da [documentação do Traefik](https://docs.gitlab.com/ee/user/clusters/agent/troubleshooting.html) para garantir que as métricas estejam configuradas conforme o esperado em seu cluster.
-Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para integração do Prometheus.
+Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para integração do Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx
index 59b7a833f0f..94441bada50 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx
@@ -18,11 +18,7 @@ Use o New Relic para entender o sucesso e o desempenho das tarefas de backup do
* Durações e tamanho do backup por instância
* Restaurar status por instância
-
+
## Habilite a integração
@@ -44,7 +40,7 @@ Siga estas etapas para ativar a integração.
FROM Metric SELECT count(*) WHERE metricName LIKE 'velero_%' FACET metricName LIMIT MAX
```
-4. Instale o [início rápido do Velero](https://newrelic.com/instant-observability/velero-prometheus) para acessar e [alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) integrados.
+4. Instale o [início rápido do Velero](https://newrelic.com/instant-observability/velero-prometheus) para acessar e [alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) integrados.
Depois de importar, você pode editar ou clonar os ativos para adaptá-los aos seus requisitos específicos.
@@ -76,10 +72,10 @@ Use a seguinte consulta NRQL para entender a métrica que está sendo ingerida n
* Use este comando para verificar se o endpoint Velero Prometheus está emitindo métricas em qualquer nó k8s configurado com Velero:
- ```
+ ```sh
curl :8085/metrics
```
* Siga as dicas de resolução de problemas da [documentação do Velero](https://velero.io/docs/main/troubleshooting/#velero-is-not-publishing-prometheus-metrics) para garantir que as métricas estejam configuradas conforme o esperado em seu cluster.
-* Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para integração do Prometheus.
+* Você também pode verificar as [diretrizes específicas de resolução de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para integração do Prometheus.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx
index a6ef78bc323..cde294b69dd 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx
@@ -26,35 +26,19 @@ Por exemplo, com base em uma amostragem de dados de série temporal que coletamo
Abaixo está uma simulação das mudanças na taxa de bytes à medida que os dados de leitura e gravação do Prometheus se movem pelo nosso sistema. Nesse caso, as métricas foram geradas pela ingestão de um scrape de gravação remota de um servidor Prometheus local de um exportador de nó local.
-
+
Observe como a taxa de bytes enviada pelo Prometheus se aproxima da contagem de bytes compactados de gravação remota que registramos antes de descompactar o(s) ponto(s) de dados. Podemos atribuir o aumento da variação da taxa de bytes comprimidos de gravação remota à natureza do processamento dos dados através de nossos sistemas distribuídos:
-
+
À medida que os pontos de dados são descompactados, o fator de expansão de 5 a 10x é refletido na diferença entre a taxa de bytes de dados compactados de gravação remota e a taxa de bytes descompactados de gravação remota, que são medições feitas logo antes e depois da descompactação de dados.
-
+
Por fim, à medida que os dados são transformados e os enriquecimentos são realizados, a diferença entre os bytes descompactados de gravação remota e o [`bytecountestimate()`](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts/#byte-count-estimate) pode ser vista abaixo. O `bytecountestimate()` listado é uma medida da contagem de bytes do estado final dos dados antes de serem armazenados.
-
+
Para dar uma melhor compreensão das possíveis transformações/adições de dados pelas quais os dados de leitura e gravação do Prometheus podem passar, aqui está uma comparação da métrica `prometheus_remote_storage_bytes_total` , uma medida relatada pelo servidor Prometheus.
@@ -74,26 +58,25 @@ Representação do servidor Prometheus:
Representação de consulta NRQL
-```
-"endTimestamp": 1631305327668,
-"instance:" "localhost:9090",
-"instrumentation.name": "remote-write"
-"instrumentation.provider": "prometheus",
-"instrumentation.source": "foobarbaz",
-"instrumentation.version": "0.0.2",
-"job": "prometheus",
-"metricName": "prometheus_remote_storage_bytes_total",
-"newrelic.source": "prometheusAPI",
-"prometheus_remote_storage_bytes_total",
-"newrelic.source": "prometheusAPI",
-"prometheus_remote_storage_bytes_total": {
- "type": "count",
- "count": 23051
-},
-"prometheus_server": "foobarbaz",
-"remote_name": "5dfb33",
-"timestamp": 1631305312668,
-"url": "https://staging-metric-api.newrelic.com/prometheus/v1/write?prometheus_server=foobarbaz"
+```json
+{
+ "endTimestamp": 1631305327668,
+ "instance": "localhost:9090",
+ "instrumentation.name": "remote-write",
+ "instrumentation.provider": "prometheus",
+ "instrumentation.source": "foobarbaz",
+ "instrumentation.version": "0.0.2",
+ "job": "prometheus",
+ "metricName": "prometheus_remote_storage_bytes_total",
+ "newrelic.source": "prometheusAPI",
+ "prometheus_remote_storage_bytes_total": {
+ "type": "count",
+ "count": 23051
+ },
+ "prometheus_server": "foobarbaz",
+ "remote_name": "5dfb33",
+ "timestamp": 1631305312668,
+ "url": "https://staging-metric-api.newrelic.com/prometheus/v1/write?prometheus_server=foobarbaz"
}
```
@@ -107,14 +90,16 @@ Verifique a seguinte [consultaNRQL ](/docs/query-your-data/nrql-new-relic-query-
Para visualizar a contagem estimada de bytes armazenados na New Relic:
-```
-FROM Metric SELECT rate(bytecountestimate(), 1 minute) AS 'bytecountestimate()' WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO
+```sql
+FROM Metric SELECT rate(bytecountestimate(), 1 minute) AS 'bytecountestimate()'
+WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO
```
Para monitor bytes do Prometheus enviados para o New Relic:
```
-FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) AS 'Prometheus sent bytes rate' WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO
+FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) AS 'Prometheus sent bytes rate'
+WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO
```
## Referências externas [#references]
@@ -122,4 +107,5 @@ FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) A
Aqui estão alguns links externos para documentos do Prometheus e GitHub que esclarecem compactação e codificação.
* [Prometheus fazendo referência ao Snappy Compression sendo usado na codificação](https://prometheus.io/docs/prometheus/latest/storage/#overview): os protocolos de leitura e gravação usam uma codificação de buffer de protocolo compactado rapidamente sobre HTTP. Os protocolos ainda não são considerados API estáveis e podem mudar para usar gRPC sobre HTTP/2 no futuro, quando todos os saltos entre o Prometheus e o armazenamento remoto puderem ser assumidos com segurança como compatíveis com HTTP/2.
-* [Referência do Protobuf Prometheus](https://github.com/prometheus/prometheus/blob/main/prompb/types.proto#L58-L64).
+
+* [Referência do Protobuf Prometheus](https://github.com/prometheus/prometheus/blob/main/prompb/types.proto#L58-L64).
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx
index b8eb20f0fe9..9ecf5f1e9df 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx
@@ -16,32 +16,20 @@ Você deseja obter o log de sua integração do Prometheus OpenMetrics com New R
## Solução
-
+
-
- **Docker**
-
+**Docker**
-```
+```sh
docker logs nri-prometheus
docker logs nri-prometheus 2>&1 | grep -v "level=debug"
```
-
+
-
- **Kubernetes**
-
+**Kubernetes**
-```
+```sh
kubectl logs deploy/nri-prometheus
kubectl logs deploy/nri-prometheus | grep -v "level=debug"
-```
+```
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx
index 2576c889bf7..807db1d59e1 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx
@@ -20,7 +20,7 @@ Para examinar erros de limite de taxa:
1. Faça uma consulta da métrica do Prometheus usando o [evento`NrIntegrationError` ](/docs/telemetry-data-platform/manage-data/nrintegrationerror), assim:
- ```
+ ```sql
FROM NrIntegrationError SELECT * WHERE newRelicFeature = 'Metrics'
```
@@ -32,4 +32,4 @@ Para ajudar a evitar que isso aconteça, você pode usar filtros para controlar
New Relic faz uma validação básica de suas métricas de integração Prometheus OpenMetrics quando elas são enviadas. Uma validação mais extensa é realizada de forma assíncrona ao processar a métrica.
-Se New Relic encontrar erros durante esta validação assíncrona, os erros serão colocados em um evento `NrIntegrationError` na sua conta New Relic . Por exemplo, se você exceder os limites métricos definidos para a integração do Prometheus OpenMetrics, New Relic aplicará limites de taxa à sua conta e criará um evento `NrIntegrationError` associado.
+Se New Relic encontrar erros durante esta validação assíncrona, os erros serão colocados em um evento `NrIntegrationError` na sua conta New Relic . Por exemplo, se você exceder os limites métricos definidos para a integração do Prometheus OpenMetrics, New Relic aplicará limites de taxa à sua conta e criará um evento `NrIntegrationError` associado.
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx
index 9ff8563f931..eea1eedd1a6 100644
--- a/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx
+++ b/src/i18n/content/pt/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx
@@ -27,6 +27,6 @@ Adicionar mais réplicas resultará em dados duplicados. Se os limites de CPU e
Para verificar o status e reiniciar o evento do scraper:
-```
+```sh
kubectl describe pod -l "app=nri-prometheus"
-```
+```
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx b/src/i18n/content/pt/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx
index f4c0d385ac4..8e3a29aca10 100644
--- a/src/i18n/content/pt/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx
+++ b/src/i18n/content/pt/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx
@@ -37,7 +37,7 @@ Dê uma olhada no que você pode fazer com o New Relic:
* Extraia métricas do Prometheus de qualquer workload no cluster graças à descoberta de serviço fornecida pelo [agente Prometheus](/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic/#Agent).
-* A integração inclui um conjunto de [condições do alerta predefinidas](/docs/kubernetes-pixie/kubernetes-integration/installation/predefined-alert-policy), mas você pode [criar e modificar seus alertas Kubernetes ](/docs/kubernetes-pixie/kubernetes-integration/installation/create-alerts)com base nos dados Kubernetes ou adicionar um conjunto de [políticas de alertas recomendadas](/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies).
+* A integração inclui um conjunto de [condições do alerta predefinidas](/docs/kubernetes-pixie/kubernetes-integration/installation/predefined-alert-policy), mas você pode [criar e modificar seus alertas Kubernetes ](/docs/kubernetes-pixie/kubernetes-integration/installation/create-alerts)com base nos dados do Kubernetes ou adicionar um conjunto de [políticas de alertas recomendadas](/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies).
* Confira todos os seus eventos Kubernetes . A [integração de eventosKubernetes ](/docs/integrations/kubernetes-integration/kubernetes-events/install-kubernetes-events-integration)monitora os eventos que acontecem no seu cluster do Kubernetes e os envia para o New Relic. Você pode então visualizar os dados do evento no cluster Explorer. Ele é instalado por padrão após [a instalação da integração do New Relic Kubernetes](/docs/kubernetes-pixie/kubernetes-integration/installation/kubernetes-integration-install-configure/).
diff --git a/src/i18n/content/pt/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx b/src/i18n/content/pt/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx
index b4be922ddf5..373da32662d 100644
--- a/src/i18n/content/pt/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx
+++ b/src/i18n/content/pt/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx
@@ -61,8 +61,8 @@ Veja este exemplo de comando Helm usando parâmetro:
helm repo add newrelic https://helm-charts.newrelic.com
helm upgrade --install newrelic-bundle newrelic/nri-bundle \
- --set global.licenseKey= \
- --set global.cluster= \
+ --set global.licenseKey=YOUR_NEW_RELIC_INGEST_LICENSE_KEY \
+ --set global.cluster=CLUSTER_NAME \
--namespace=newrelic \
--set newrelic-infrastructure.privileged=true \
--set global.lowDataMode=true \
@@ -81,7 +81,7 @@ helm repo add newrelic-k8s https://newrelic.github.io/k8s-agents-operator
helm upgrade --install k8s-agents-operator newrelic-k8s/k8s-agents-operator \
--namespace newrelic \
--create-namespace \
- --set licenseKey=
+ --set licenseKey=YOUR_NEW_RELIC_INGEST_LICENSE_KEY
```
Para obter uma lista completa de opções de configuração, consulte o gráfico [README](https://github.com/newrelic/k8s-agents-operator/tree/main/charts/k8s-agents-operator#values) .
@@ -93,17 +93,17 @@ Cada namespace requer um processo de duas etapas para permitir a instrumentaçã
1. Crie um segredo contendo uma [chave de licença de ingestão válida New Relic ](/docs/apis/intro-apis/new-relic-api-keys/#license-key)para cada namespace que você deseja que o operador utilize.
```shell
- kubectl create secret generic newrelic-key-secret \
- --namespace \
- --from-literal=new_relic_license_key=
+ kubectl create secret generic newrelic-key-secret \
+ --namespace NAMESPACE_TO_MONITOR \
+ --from-literal=new_relic_license_key=YOUR_NEW_RELIC_INGEST_LICENSE_KEY
```
- Certifique-se de substituir `` pela sua chave de licença válida do New Relic.
+ Certifique-se de substituir `YOUR_NEW_RELIC_INGEST_LICENSE_KEY` pela sua chave de licença válida do New Relic.
2. Aplique a seguinte Definição de Recurso Personalizado (CRD) a cada namespace que você deseja instrumentar automaticamente. Execute este comando:
```shell
- kubectl apply -f -n
+ kubectl apply -f YOUR_YAML_FILE -n NAMESPACE_TO_MONITOR
```
Dentro do arquivo CRD YAML, especifique qual agente APM você deseja instrumentar. Todas as imagens do agente disponíveis APM docker e as tags correspondentes estão listadas no DockerHub:
@@ -115,35 +115,35 @@ Cada namespace requer um processo de duas etapas para permitir a instrumentaçã
* [Ruby](https://hub.docker.com/repository/docker/newrelic/newrelic-ruby-init/general)
```yaml
- apiVersion: newrelic.com/v1alpha1
- kind: Instrumentation
- metadata:
- labels:
- app.kubernetes.io/name: instrumentation
- app.kubernetes.io/created-by: k8s-agents-operator
- name: newrelic-instrumentation
- spec:
- java:
- image: newrelic/newrelic-java-init:latest
- # env:
- # Example New Relic agent supported environment variables
- # - name: NEW_RELIC_LABELS
- # value: "environment:auto-injection"
- # Example overriding the appName configuration
- # - name: NEW_RELIC_POD_NAME
- # valueFrom:
- # fieldRef:
- # fieldPath: metadata.name
- # - name: NEW_RELIC_APP_NAME
- # value: "$(NEW_RELIC_LABELS)-$(NEW_RELIC_POD_NAME)"
- nodejs:
- image: newrelic/newrelic-node-init:latest
- python:
- image: newrelic/newrelic-python-init:latest
- dotnet:
- image: newrelic/newrelic-dotnet-init:latest
- ruby:
- image: newrelic/newrelic-ruby-init:latest
+ apiVersion: newrelic.com/v1alpha1
+ kind: Instrumentation
+ metadata:
+ labels:
+ app.kubernetes.io/name: instrumentation
+ app.kubernetes.io/created-by: k8s-agents-operator
+ name: newrelic-instrumentation
+ spec:
+ java:
+ image: newrelic/newrelic-java-init:latest
+ # env:
+ # Example New Relic agent supported environment variables
+ # - name: NEW_RELIC_LABELS
+ # value: "environment:auto-injection"
+ # Example overriding the appName configuration
+ # - name: NEW_RELIC_POD_NAME
+ # valueFrom:
+ # fieldRef:
+ # fieldPath: metadata.name
+ # - name: NEW_RELIC_APP_NAME
+ # value: "$(NEW_RELIC_LABELS)-$(NEW_RELIC_POD_NAME)"
+ nodejs:
+ image: newrelic/newrelic-node-init:latest
+ python:
+ image: newrelic/newrelic-python-init:latest
+ dotnet:
+ image: newrelic/newrelic-dotnet-init:latest
+ ruby:
+ image: newrelic/newrelic-ruby-init:latest
```
## Habilitar instrumentação automática APM no aplicativo [#enable-apm-instrumentation]
@@ -163,30 +163,30 @@ instrumentation.newrelic.com/inject-ruby: "true"
Veja este exemplo de implantação com anotação para instrumento do agente Java:
```yaml
- apiVersion: apps/v1
- kind: Deployment
+apiVersion: apps/v1
+kind: Deployment
+metadata:
+ name: spring-petclinic
+spec:
+ selector:
+ matchLabels:
+ app: spring-petclinic
+ replicas: 1
+ template:
metadata:
- name: spring-petclinic
+ labels:
+ app: spring-petclinic
+ annotations:
+ instrumentation.newrelic.com/inject-java: "true"
spec:
- selector:
- matchLabels:
- app: spring-petclinic
- replicas: 1
- template:
- metadata:
- labels:
- app: spring-petclinic
- annotations:
- instrumentation.newrelic.com/inject-java: "true"
- spec:
- containers:
- - name: spring-petclinic
- image: ghcr.io/pavolloffay/spring-petclinic:latest
- ports:
- - containerPort: 8080
- env:
- - name: NEW_RELIC_APP_NAME
- value: spring-petclinic-demo
+ containers:
+ - name: spring-petclinic
+ image: ghcr.io/pavolloffay/spring-petclinic:latest
+ ports:
+ - containerPort: 8080
+ env:
+ - name: NEW_RELIC_APP_NAME
+ value: spring-petclinic-demo
```
Este arquivo de exemplo mostra como configurar as configurações do agente globalmente com variáveis de ambiente. Consulte os documentos de configuração de cada agente para todas as opções de configuração disponíveis:
@@ -216,7 +216,7 @@ Para remover a instrumentação do APM em um aplicativo, você deve remover as a
Execute uma atualização do gráfico nri-bundle com o seguinte parâmetro:
```shell
- k8s-agents-operator.enabled=true
+k8s-agents-operator.enabled=true
```
### Instalação autônoma
@@ -224,7 +224,7 @@ Execute uma atualização do gráfico nri-bundle com o seguinte parâmetro:
Execute o comando `helm upgrade` para atualizar para uma versão mais recente do operador do agente Kubernetes.
```shell
- helm upgrade k8s-agents-operator newrelic/k8s-agents-operator -n newrelic
+helm upgrade k8s-agents-operator newrelic/k8s-agents-operator -n newrelic
```
## Desinstalando o operador do agente Kubernetes [#uninstall-k8s-operator]
@@ -234,7 +234,7 @@ Execute o comando `helm upgrade` para atualizar para uma versão mais recente do
Desinstale o gráfico nri-bundle ou se desejar apenas remover o operador, execute uma atualização do helm com o seguinte parâmetro:
```shell
- k8s-agents-operator.enabled=false
+k8s-agents-operator.enabled=false
```
### Instalação autônoma
@@ -242,7 +242,7 @@ Desinstale o gráfico nri-bundle ou se desejar apenas remover o operador, execut
Para desinstalar e excluir o operador do agente Kubernetes, execute este comando:
```shell
- helm uninstall k8s-agents-operator -n newrelic
+helm uninstall k8s-agents-operator -n newrelic
```
## Encontre e use dados [#find-data]
@@ -300,26 +300,26 @@ Caso seu aplicativo não esteja instrumentado, você deverá verificar o seguint
* Verifique se o segredo e o CRD de instrumentação estão instalados no namespace do aplicativo.
```shell
- kubectl get secrets -n
- kubectl get instrumentation -n
+ kubectl get secrets -n NAMESPACE
+ kubectl get instrumentation -n NAMESPACE
```
* Verifique se o pod possui anotações que permitem a instrumentação automática.
```shell
- kubectl get pod -n -o jsonpath='{.metadata.annotations}'
+ kubectl get pod POD_NAME -n NAMESPACE -o jsonpath='{.metadata.annotations}'
```
* Obtenha o log do pod do operador do agente.
```shell
- kubectl logs -n newrelic
+ kubectl logs AGENT_OPERATOR_POD -n newrelic
```
* Verifique se o contêiner `init` foi injetado e executado com êxito dentro do pod do aplicativo.
```shell
- kubectl describe pod -n
+ kubectl describe pod POD_NAME -n NAMESPACE
```
## Apoiar [#support]
diff --git a/src/i18n/content/pt/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx b/src/i18n/content/pt/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx
index 61a6ff82f3b..76dd6d767b8 100644
--- a/src/i18n/content/pt/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx
+++ b/src/i18n/content/pt/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx
@@ -1,5 +1,5 @@
---
-title: Política de alertas recomendada
+title: Política de alertas e painel recomendados
tags:
- Integrations
- Kubernetes integration
@@ -8,23 +8,43 @@ freshnessValidatedDate: '2024-09-02T00:00:00.000Z'
translationType: machine
---
-Quando você [instala a integração Kubernetes ](/install/kubernetes/)pela primeira vez, implantamos um conjunto padrão de condições de alerta recomendadas em sua conta que formam a base para a condição de alerta em seu cluster do Kubernetes. Essas condições são agrupadas em uma política chamada **Kubernetes alert policy**.
+Quando você [instala a integração Kubernetes ](/install/kubernetes/)pela primeira vez, implantamos um conjunto padrão de condições de alerta e painel recomendados em sua conta que formam a base para as condições de alerta e painel em seu cluster do Kubernetes. As políticas de alerta são agrupadas em algumas políticas: [Kubernetes alert policy](#k8s-alert-conditions) e [Google Kubernetes Engine alert policy](#google-alert-policies).
-Embora tenhamos tentado abordar os casos de uso mais comuns em todos os ambientes, há uma série de alertas adicionais que você pode configurar para estender a política padrão. Estas são nossas políticas de alerta recomendadas.
+Embora tenhamos tentado abordar os casos de uso mais comuns em todos os ambientes, há uma série de alertas adicionais que você pode configurar para estender a política padrão. Consulte [Introdução aos alertas do New Relic](/docs/tutorial-create-alerts/create-new-relic-alerts/) para saber mais sobre alertas.
-## Adicionando a política de alertas recomendada [#add-recommended-alert-policy]
+## Adicionando a condição recomendada do alerta e do painel [#add-recommended-alert-policy]
-Para adicionar políticas de alertas recomendadas, siga estas etapas:
+Para adicionar políticas de alertas e painéis recomendados, siga estas etapas:
1. Vá para **[one.newrelic.com](https://one.newrelic.com) > Integrations & Agents**.
-2. Selecione **Alerts** para acessar os recursos pré-criados.
+2. Na caixa de pesquisa, digite `kubernetes`.
-
+
-3. Pesquise **Kubernetes** e selecione a política de alertas recomendada que você deseja adicionar.
+3. Selecione uma destas opções:
-
+ * **Kubernetes**: Para adicionar o conjunto padrão de recomendações de alerta e um dashboard.
+
+ * **Google Kubernetes Engine**: Para adicionar o conjunto padrão de mecanismos recomendados do Google Kubernetes , faça o alerta e um dashboard.
+
+4. Clique em **Begin installation** se precisar instalar a integração do Kubernetes ou clique em **Skip this step** se já tiver configurado essa integração.
+
+5. Dependendo da opção selecionada na etapa 3, você verá diferentes recursos para adicionar.
+
+
+
+
+ Conjunto padrão de alertas recomendados e um dashboard quando você seleciona **Kubernetes** na etapa 3.
+
+
+
+
+
+ Conjunto padrão de mecanismo recomendado do Google Kubernetes condição do alerta e um dashboard quando você seleciona **Google Kubernetes Engine** na etapa 3.
+
+
+6. Clique em **See your data** para ver um dashboard com seus dados Kubernetes no New Relic.
## Como ver a política de alertas recomendada [#see-recommended-alert-policy]
@@ -38,90 +58,112 @@ Para visualizar as políticas de alertas recomendadas que você adicionou, faça
+## Como ver o painel Kubernetes [#see-dashboards]
+
+Há uma coleção de painéis pré-criados recomendados para ajudar você a visualizar instantaneamente seus dados Kubernetes para casos de uso comuns. Consulte [Gerenciar seu painel recomendado](/docs/query-your-data/explore-query-data/dashboards/prebuilt-dashboards) para saber como visualizar esses painéis.
+
## Política de alertas Kubernetes [#k8s-alert-conditions]
Este é o conjunto padrão de condições do alerta recomendadas que você adicionará:
-
+
+ Este dashboard inclui gráficos e visualizações que ajudam você a visualizar instantaneamente seus dados Kubernetes para casos de uso comuns.
+
+
+
Esta condição do alerta gera um alerta quando um contêiner é limitado em mais de 25% por mais de 5 minutos. Ele executa esta consulta:
```sql
FROM K8sContainerSample
SELECT sum(containerCpuCfsThrottledPeriodsDelta) / sum(containerCpuCfsPeriodsDelta) * 100
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerCPUThrottling.yaml) para mais informações.
-
+
Esta condição do alerta gera um alerta quando o uso médio da CPU do contêiner em relação ao limite excede 90% por mais de 5 minutos. Ele executa esta consulta:
```sql
FROM K8sContainerSample
SELECT average(cpuCoresUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerHighCPUUtil.yaml) para mais informações.
-
+
Esta condição do alerta gera um alerta quando a utilização média de memória em relação ao limite ultrapassa 90% por mais de 5 minutos. Ele executa esta consulta:
```sql
FROM K8sContainerSample
SELECT average(memoryWorkingSetUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerHighMemUtil.yaml) para mais informações.
-
+
Esta condição do alerta gera um alerta quando as reinicializações do contêiner ultrapassam 0 em uma janela deslizante de 5 minutos. Ele executa esta consulta:
```sql
FROM K8sContainerSample
SELECT sum(restartCountDelta)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerRestarting.yaml) para mais informações.
-
+
Esta condição do alerta gera um alerta quando um contêiner aguarda mais de 5 minutos. Ele executa esta consulta:
```sql
FROM K8sContainerSample
SELECT uniqueCount(podName)
- WHERE status = 'Waiting' and clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') FACET containerName, podName, namespaceName, clusterName
+ WHERE status = 'Waiting' AND clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET containerName, podName, namespaceName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerWaiting.yaml) para mais informações.
-
+
Esta instrução do alerta gera um alerta quando o daemonset fica sem algum pod por um período maior que 5 minutos. Ele executa esta consulta:
```sql
FROM K8sDaemonsetSample
SELECT latest(podsMissing)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet daemonsetName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET daemonsetName, namespaceName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/DaemonsetPodsMissing.yaml) para mais informações.
-
+
Esta condição do alerta gera um alerta quando a implantação estiver faltando algum pod por um período superior a 5 minutos. Ele executa esta consulta:
```sql
FROM K8sDeploymentSample
SELECT latest(podsMissing)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet deploymentName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET deploymentName, namespaceName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/DeploymentPodsMissing.yaml) para mais informações.
@@ -131,7 +173,7 @@ Este é o conjunto padrão de condições do alerta recomendadas que você adici
id="etcd-utilization-high"
title={<>
Etcd
- a utilização do descritor de arquivo é alta>
+ a utilização do descritor de arquivo é alta (condição do alerta)>
}
>
Esta condição do alerta gera um alerta quando o uso do descritor de arquivo `Etcd` excede 90% por mais de 5 minutos. Ele executa esta consulta:
@@ -139,7 +181,8 @@ Este é o conjunto padrão de condições do alerta recomendadas que você adici
```sql
FROM K8sEtcdSample
SELECT max(processFdsUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet displayName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET displayName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/EtcdFileDescriptors.yaml) para mais informações.
@@ -149,7 +192,7 @@ Este é o conjunto padrão de condições do alerta recomendadas que você adici
id="etcd-no-leader"
title={<>
Etcd
- não tem líder>
+ não tem líder (condição do alerta)>
}
>
Esta condição do alerta gera um alerta quando o descritor de arquivo `Etcd` fica sem líder por mais de 1 minuto. Ele executa esta consulta:
@@ -157,37 +200,42 @@ Este é o conjunto padrão de condições do alerta recomendadas que você adici
```sql
FROM K8sEtcdSample
SELECT min(etcdServerHasLeader)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet displayName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET displayName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/EtcdHasNoLeader.yaml) para mais informações.
-
+
Esta condição do alerta gera um alerta quando as réplicas atuais de um pod autoscaler horizontal são menores que as réplicas desejadas por mais de 5 minutos. Ele executa esta consulta:
```sql
FROM K8sHpaSample
SELECT latest(desiredReplicas - currentReplicas)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet displayName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET displayName, namespaceName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/HPAMissingReplicas.yaml) para mais informações.
-
+
Esta condição do alerta gera um alerta quando um escalonador automático pod horizontal excede 5 réplicas. Ele executa esta consulta:
```sql
FROM K8sHpaSample
SELECT latest(maxReplicas - currentReplicas)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet displayName, namespaceName, clusterName
+ WHERE clusterName in ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET displayName, namespaceName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/HPAMaxReplicas.yaml) para mais informações.
-
+
Esta condição do alerta gera um alerta quando um trabalho relata um status de falha. Ele executa esta consulta:
```sql
@@ -199,121 +247,144 @@ Este é o conjunto padrão de condições do alerta recomendadas que você adici
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/JobFailed.yaml) para mais informações.
-
+
Esta condição do alerta gera um alerta quando mais de 5 pods em um namespace falham por mais de 5 minutos. Ele executa esta consulta:
```sql
FROM K8sPodSample
SELECT uniqueCount(podName)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') and status = 'Failed' facet namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ AND status = 'Failed'
+ FACET namespaceName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodsFailingNamespace.yaml) para mais informações.
-
+
Este alerta gera um alerta quando a utilização média da CPU alocável do nó excede 90% por mais de 5 minutos. Ele executa esta consulta:
```sql
FROM K8sNodeSample
SELECT average(allocatableCpuCoresUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighAllocatableCPUUtil.yaml) para mais informações.
-
+
Este alerta gera um alerta quando a utilização média de memória alocável do nó excede 90% por mais de 5 minutos. Ele executa esta consulta:
```sql
FROM K8sNodeSample
SELECT average(allocatableMemoryUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighAllocatableMemUtil.yaml) para mais informações.
-
+
Esta condição do alerta gera um alerta quando um nó fica indisponível por 5 minutos. Ele executa esta consulta:
```sql
FROM K8sNodeSample
SELECT latest(condition.Ready)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeIsNotReady.yaml) para mais informações.
-
+
Esta condição do alerta gera um alerta quando um nó é marcado como não agendado. Ele executa esta consulta:
```sql
FROM K8sNodeSample
SELECT latest(unschedulable)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeUnschedulable.yaml) para mais informações.
-
+
Esta condição do alerta gera um alerta quando o pod em execução de um nó excede 90% da capacidade do pod do nó por mais de 5 minutos. Ele executa esta consulta:
```sql
FROM K8sPodSample, K8sNodeSample
- SELECT ceil(filter(uniqueCount(podName)
- WHERE status = 'Running') / latest(capacityPods) * 100) as 'Pod Capacity %' where nodeName != '' and nodeName is not null and clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ SELECT ceil
+ (filter
+ (
+ uniqueCount(podName),
+ WHERE status = 'Running'
+ ) / latest(capacityPods) * 100
+ ) AS 'Pod Capacity %'
+ WHERE nodeName != '' AND nodeName IS NOT NULL
+ AND clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodePodCapacity.yaml) para mais informações.
-
+
Esta instrução do alerta gera um alerta quando a utilização média da capacidade do sistema de arquivos raiz do nó excede 90% por mais de 5 minutos. Ele executa esta consulta:
```sql
FROM K8sNodeSample
SELECT average(fsCapacityUtilization)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET nodeName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighFSCapacityUtil.yaml) para mais informações.
-
+
Esta condição do alerta gera um alerta quando o volume persistente fica em estado de falha ou pendente por mais de 5 minutos. Ele executa esta consulta:
```sql
FROM K8sPersistentVolumeSample
SELECT uniqueCount(volumeName)
- WHERE statusPhase in ('Failed','Pending') and clusterName in ('YOUR_CLUSTER_NAME') facet volumeName, clusterName
+ WHERE statusPhase IN ('Failed','Pending')
+ AND clusterName IN ('YOUR_CLUSTER_NAME')
+ FACET volumeName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PersistentVolumeErrors.yaml) para mais informações.
-
+
Esta condição do alerta gera um alerta quando um pod não pode ser agendado por mais de 5 minutos. Ele executa esta consulta:
```sql
FROM K8sPodSample
SELECT latest(isScheduled)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet podName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET podName, namespaceName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodNotScheduled.yaml) para mais informações.
-
+
Esta condição do alerta gera um alerta quando um pod fica indisponível por mais de 5 minutos. Ele executa esta consulta:
```sql
FROM K8sPodSample
SELECT latest(isReady)
- WHERE status not in ('Failed', 'Succeeded') where clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet podName, namespaceName, clusterName
+ WHERE status NOT IN ('Failed', 'Succeeded')
+ AND clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET podName, namespaceName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodNotReady.yaml) para mais informações.
@@ -323,7 +394,7 @@ Este é o conjunto padrão de condições do alerta recomendadas que você adici
id="statefulset-missing-pods"
title={<>
statefulset
- está faltando pod>
+ está faltando pod (condição de alerta)>
}
>
Esta condição do alerta gera um alerta quando `statefulset` está ausente do pod por mais de 5 minutos. Ele executa esta consulta:
@@ -331,7 +402,9 @@ Este é o conjunto padrão de condições do alerta recomendadas que você adici
```sql
FROM K8sStatefulsetSample
SELECT latest(podsMissing)
- WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet daemonsetName, namespaceName, clusterName
+ WHERE clusterName IN ('YOUR_CLUSTER_NAME')
+ AND namespaceName IN ('YOUR_NAMESPACE_NAME')
+ FACET daemonsetName, namespaceName, clusterName
```
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/StatefulsetPodsMissing.yaml) para mais informações.
@@ -343,7 +416,11 @@ Este é o conjunto padrão de condições do alerta recomendadas que você adici
Este é o conjunto padrão de mecanismos de alerta do Google Kubernetes recomendados que você adicionará:
-
+
+ Este dashboard inclui gráficos e visualizações que ajudam você a visualizar instantaneamente seus dados do Google Kubernetes para casos de uso comuns.
+
+
+
Este alerta gera um alerta quando a utilização da CPU de um nó excede 90% por pelo menos 15 minutos. Ele executa esta consulta:
```sql
@@ -355,7 +432,7 @@ Este é o conjunto padrão de mecanismos de alerta do Google Kubernetes recomend
Veja o [arquivo de configuração do GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/google-kubernetes-engine/HighCPU.yml) para mais informações.
-
+
Esta condição do alerta gera um alerta quando o uso de memória de um nó excede 85% de sua capacidade total. Ele executa esta consulta:
```sql
diff --git a/src/i18n/content/pt/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx b/src/i18n/content/pt/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx
index 287aaf7e6c6..20683f46f8e 100644
--- a/src/i18n/content/pt/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx
+++ b/src/i18n/content/pt/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx
@@ -315,6 +315,10 @@ Os dados Kubernetes são anexados a esses [eventos](/docs/using-new-relic/data/u
+
+ `InternalK8sCompositeSample` é um evento que New Relic gera e é bastante crítico para [cluster do Kubernetes Explorer](/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/kubernetes-cluster-explorer/#cluster-explorer-use). Sem esse evento, você não verá seus dados do Kubernetes na interface do usuário. Embora todos os eventos listados na tabela sejam faturáveis, `InternalK8sCompositeSample` é um evento não faturável. Consulte [Ingestão de dados: cobrança e regras](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/) para obter mais informações.
+
+
### Metadados Kubernetes no aplicativo APM-monitor [#apm-custom-attributes]
[Conectar seu aplicativo ao Kubernetes](/docs/kubernetes-pixie/kubernetes-integration/advanced-configuration/link-apm-applications-kubernetes/) adiciona estes atributos aos dados do seu aplicativo, bem como ao distributed tracing de metadados:
diff --git a/src/i18n/content/pt/docs/new-relic-solutions/get-started/networks.mdx b/src/i18n/content/pt/docs/new-relic-solutions/get-started/networks.mdx
index 09e6c0c8f80..1ccea0b4c19 100644
--- a/src/i18n/content/pt/docs/new-relic-solutions/get-started/networks.mdx
+++ b/src/i18n/content/pt/docs/new-relic-solutions/get-started/networks.mdx
@@ -21,7 +21,7 @@ Esta é uma lista de redes, endereços IP, domínios, portas e endpoints usados
## Criptografia TLS [#tls]
-Para garantir a segurança de dados para nossos clientes e estar em conformidade com [o FedRAMP](https://marketplace.fedramp.gov/#/product/new-relic?sort=productName&productNameSearch=new%20relic) e outros padrões de [criptografia de dados](/docs/security/new-relic-security/compliance/data-encryption), todas as conexões de entrada para todos os domínios exigem Transport Layer Security (TLS) 1.2 ou superior. Para obter mais detalhes, consulte [nossa postagem no Fórum de suporte sobre o TLS 1.2](https://forum.newrelic.com/s/hubtopic/aAX8W0000008dM6WAI/tls-1011-has-been-disabled-for-all-inbound-connections-on-feb-2nd-2023).
+Para garantir a segurança dos dados dos nossos clientes e estar em conformidade com [o FedRAMP](https://marketplace.fedramp.gov/#/product/new-relic?sort=productName&productNameSearch=new%20relic) e outros padrões de [criptografia de dados](/docs/security/new-relic-security/compliance/data-encryption), todas as conexões de entrada para todos os domínios exigem o Transport Layer Security (TLS) 1.2. Para mais detalhes, veja [nossa postagem no Fórum de Suporte sobre o TLS 1.2](https://forum.newrelic.com/s/hubtopic/aAX8W0000008dM6WAI/tls-1011-has-been-disabled-for-all-inbound-connections-on-feb-2nd-2023).
Para atualizações futuras das versões de protocolo necessárias e suportadas, siga a [tag`Security Notifications` no Fórum de suporte da New Relic](https://discuss.newrelic.com/t/security-notifications/45862).
diff --git a/src/i18n/content/pt/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx b/src/i18n/content/pt/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx
index a7f03dbee45..adacd25c16e 100644
--- a/src/i18n/content/pt/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx
+++ b/src/i18n/content/pt/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx
@@ -27,7 +27,7 @@ Aqui estão descritos os tipos de entidade New Relic que são suportados ao usar
Uma entidade de serviço é sintetizada aderindo às convenções semânticas de recurso OpenTelemetry que descrevem uma [instância de serviço](https://opentelemetry.io/docs/specs/semconv/resource/#service).
-Consulte nossa [documentação e exemplos](/docs/opentelemetry/get-started/opentelemetry-set-up-your-app) para monitoramento de serviços de entidade usando OpenTelemetry.
+Consulte nossa [documentação e exemplos](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) para entidades de serviço de monitoramento usando OpenTelemetry.
#### Atributo obrigatório [#service-required-attributes]
diff --git a/src/i18n/content/pt/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx b/src/i18n/content/pt/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx
index fbbf12e5ca4..09e2f8e6e42 100644
--- a/src/i18n/content/pt/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx
+++ b/src/i18n/content/pt/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx
@@ -28,4 +28,8 @@ Os exemplos a seguir demonstram o uso do coletor para monitor vários componente
## Correlacionando infraestrutura com OpenTelemetry APM [#infrastructure-correlation]
-Os exemplos a seguir demonstram o uso do coletor para correlacionar [APM OpenTelemetry](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) com dados de infraestrutura. O padrão geral é configurar o coletor com um processador que detecta e enriquece a telemetria APM com contexto de ambiente adicional na forma de atributo de recurso, antes de exportar os dados para New Relic via OTLP. New Relic detecta esses dados de correlação e constrói relacionamentos entre APM e a infraestrutura da entidade por meio [de recursos](/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources).
\ No newline at end of file
+O exemplo a seguir demonstra o uso do coletor para correlacionar [APM OpenTelemetry](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) com dados de infraestrutura:
+
+* [Exemplo de repositório de hosts](https://github.com/newrelic/newrelic-opentelemetry-examples/tree/main/other-examples/collector/host-monitoring)
+
+O padrão geral é configurar o coletor com um processador que detecta e enriquece a telemetria APM com contexto de ambiente adicional na forma de atributo de recurso, antes de exportar os dados para New Relic via OTLP. New Relic detecta esses dados de correlação e constrói relacionamentos entre APM e a infraestrutura da entidade por meio [de recursos](/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources).
\ No newline at end of file
diff --git a/src/i18n/content/pt/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx b/src/i18n/content/pt/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx
index 508da5db5e5..850167f4d9d 100644
--- a/src/i18n/content/pt/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx
+++ b/src/i18n/content/pt/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx
@@ -31,26 +31,18 @@ Requisitos para usar este recurso:
Digamos que você crie a seguinte consulta NRQL contendo faceta para um dashboard existente na interface:
-
+
- **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**: Para consultas contendo uma cláusula `FACET` e atendendo [aos requisitos do tipo gráfico](#requirements), você pode definir esses atributos para serem usados como um filtro fácil dashboard . Você pode definir o atributo para filtrar o dashboard atual em que você está ou filtrar um dashboard relacionado selecionado.
+ **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**: Para consultas contendo uma cláusula `FACET` e atendendo [aos requisitos do tipo gráfico](#requirements), você pode definir esses atributos para serem usados como um filtro fácil dashboard . Você pode definir o atributo para filtrar o dashboard atual em que você está ou filtrar um dashboard relacionado selecionado.
Se você selecionar **Filter the current dashboard**, esse gráfico será usado para filtrar o dashboard atual pelo atributo `userAgentName` disponível. Aqui está uma visão de como selecionar um desses atributos para filtrar esse dashboard. Observe que o atributo escolhido aparece como filtro na barra de pesquisa na parte superior.
-
+
- **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**: quando você seleciona um atributo configurado para filtragem de atributos, ele filtra o dashboard atual .
+ **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**: quando você seleciona um atributo configurado para filtragem de atributos, ele filtra o dashboard atual .
Para obter mais informações sobre esse recurso, consulte a [postagem do Fórum de suporte sobre filtragem de atributos](https://discuss.newrelic.com/t/facet-linking-in-new-relic-one-now-you-can-use-facets-to-filter-your-new-relic-one-dashboards/82289).
@@ -59,31 +51,29 @@ Para obter mais informações sobre esse recurso, consulte a [postagem do Fórum
[`FACET CASES`](/docs/query-your-data/nrql-new-relic-query-language/get-started/nrql-syntax-clauses-functions#sel-facet-cases) é uma função NRQL que permite agrupar atributos com base em condições. Apoiamos vários casos na mesma faceta.
-Digamos que você queira consultar alguns dados e colocar as respostas em categorias mnemônicas para um dashboard ou relatório. Esta sintaxe permitirá consultar com base na duração da transação e colocar os resultados em duas categorias: ACEITÁVEL e INACEITÁVEL. Isso pode ser muito útil para tornar o painel mais legível e acionável.
+Digamos que você queira consultar alguns dados e colocar as respostas em categorias mnemônicas para um dashboard ou relatório. Essa sintaxe permitirá que você consulte com base na duração da transação e coloque os resultados em duas categorias: *ACEITÁVEL* e *NÃO ACEITÁVEL*. Isso pode ser muito útil para tornar o painel mais legível e prático.
-```
-SELECT filter(count(*), WHERE duration > 1) as 'UNACCEPTABLE', filter(count(*),
-WHERE duration <=1) as 'ACCEPTABLE'
-FROM Transaction FACET appName LIMIT 5 since 5 minutes ago
+```sql
+SELECT filter(count(*), WHERE duration > 1) AS 'UNACCEPTABLE',
+ filter(count(*), WHERE duration <=1) AS 'ACCEPTABLE'
+FROM Transaction FACET appName LIMIT 5 SINCE 5 minutes ago
```
-
+
Ao usar FACET CASES, podemos usar com mais eficiência várias condições complexas para gerar um conjunto de facetas personalizadas. Com base no exemplo anterior, digamos que queremos incluir uma condição composta que exclui erros dos nossos dados de duração e os adiciona a uma terceira categoria:
-```
+```sql
SELECT count(*)
-FROM Transaction FACET CASES (where duration > 1 and error is NULL as 'UNACCEPTABLE', where duration <= 1 and error is NULL as 'ACCEPTABLE', where error is not NULL as 'ERROR') since 5 minutes ago
+FROM Transaction FACET CASES
+(
+ WHERE duration > 1 AND error IS NULL AS 'UNACCEPTABLE',
+ WHERE duration <= 1 AND error IS NULL AS 'ACCEPTABLE',
+ WHERE error IS NOT NULL AS 'ERROR'
+)
+SINCE 5 minutes ago
```
-
+
-Em seguida, usando a vinculação de facetas, você pode filtrar seu painel por essas facetas.
+Em seguida, usando a vinculação de facetas, você pode filtrar seu painel por essas facetas.
\ No newline at end of file
diff --git a/src/install/config/python.yaml b/src/install/config/python.yaml
index e69ce39e0d9..58ea412bbc7 100644
--- a/src/install/config/python.yaml
+++ b/src/install/config/python.yaml
@@ -131,6 +131,16 @@ redirects:
- /docs/agents/python-agent/web-frameworks/python-agent-web2py
- /docs/apm/agents/python-agent/web-frameworks-servers/python-agent-web2py-web-framework
+ - /docs/agents/python-agent/hosting-services/python-agent-stackato
+ - /docs/python/python-agent-and-stackato
+ - /docs/agents/python-agent/hosting-services/python-agent-and-stackato
+ - /docs/apm/agents/python-agent/hosting-services/python-agent-stackato
+
+ - /docs/agents/python-agent/hosting-services/python-agent-webfaction
+ - /docs/python/python-agent-and-webfaction
+ - /docs/agents/python-agent/hosting-services/python-agent-and-webfaction
+ - /docs/apm/agents/python-agent/hosting-services/python-agent-webfaction
+
# -----------------------------------------------------------------
# Define the categories for each type of question you'll be asking:
# -----------------------------------------------------------------
diff --git a/src/nav/apm.yml b/src/nav/apm.yml
index 0e230ad2f41..0d10f13a87f 100644
--- a/src/nav/apm.yml
+++ b/src/nav/apm.yml
@@ -950,10 +950,6 @@ pages:
path: /docs/apm/agents/python-agent/hosting-services/python-agent-heroku
- title: OpenShift hosting service
path: /docs/apm/agents/python-agent/hosting-services/python-agent-openshift
- - title: Stackato hosting service
- path: /docs/apm/agents/python-agent/hosting-services/python-agent-stackato
- - title: WebFaction hosting service
- path: /docs/apm/agents/python-agent/hosting-services/python-agent-webfaction
- title: Attributes
path: /docs/apm/agents/python-agent/attributes
pages:
diff --git a/static/images/kubernetes_screenshot-crop_integrations-agents.webp b/static/images/kubernetes_screenshot-crop_integrations-agents.webp
index c54b5798941..daf0bdeac01 100644
Binary files a/static/images/kubernetes_screenshot-crop_integrations-agents.webp and b/static/images/kubernetes_screenshot-crop_integrations-agents.webp differ
| |